У дома Характеристика 10 Смутен алгоритъм се проваля

10 Смутен алгоритъм се проваля

Съдържание:

Видео: По закону ⚡️ Барбоскины ⚡️ Сборник мультфильмов 2019 (Ноември 2024)

Видео: По закону ⚡️ Барбоскины ⚡️ Сборник мультфильмов 2019 (Ноември 2024)
Anonim

Технологията не е само за отрепки, тя е за всички и това е много хора. Само с няколко компании, контролиращи повечето хардуер и софтуер - от Apple и Amazon до Facebook, Microsoft и Google - те могат да направят толкова много, за да контролират портфейла и очните ви топки. Какво трябва да прави една бедна, гигантска корпорация? Разчитайте на алгоритмите, за да вземете някои от важните решения.

Оксфорд Живи речници определя алгоритъма като "процес или набор от правила, които трябва да се следват при изчисления или други операции за решаване на проблеми, особено от компютър." Перфектен пример е Facebook News Feed. Никой не знае как работи, че някои от вашите публикации се показват в емисиите на някои хора или не, но Facebook го прави. Или какво ще кажете за Amazon да ви показва свързани книги? Свързани търсения в Google? Всичко това са строго пазени тайни, които вършат много работа за компанията и могат да окажат голямо влияние върху живота ви.

Но алгоритмите не са перфектни. Те се провалят, а някои се провалят зрелищно. Добавете в отблясъците на социалните медии и малък проблем може да се превърне в кошмар за PR наистина. Рядко е злонамерен; те са склонни да бъдат това, което New York Times нарича „Моменти на Франкенщайн“, където създанието, което някой е създал, се превръща в чудовище. Но това се случва и по-долу сме съставили някои от най-възхитителните последни примери. Кажете ни вашите любими в коментарите по-долу.

    1 съмнителни реклами на Instagram

    Както съобщава The Guardian , Facebook обича да пуска реклами за своята Instagram услуга с публикации от собствените си потребители. Но алгоритъмът избра грешна „снимка“, която да изпрати на приятелите на Оливия Солон, самата тя репортер на The Guardian , като избра екранна снимка на година, която направи на заплашителен имейл.

    2 Насочени расистки реклами

    Миналата седмица ProPublica съобщи, че Facebook позволява на рекламодателите да се насочват към обидни категории хора, като „евреи мразят“. Сайтът плати 30 долара за реклама (по-горе), насочена към аудитория, която ще отговори положително на неща като „защо евреите рушат света“ и „Хитлер не е направил нищо лошо“. Той беше одобрен в рамките на 15 минути.

    Slate откриха подобни обидни категории и тя се превърна в друга в дългата редица елементи, които Facebook трябваше не само да се извини, но и да обещае да се поправи с известен човешки надзор. Знаеш ли, например, когато е поставила предизборни реклами за Русия на стойност 100 000 долара.

    В своя публикация във Фейсбук ШОС Шерил Сандбърг заяви, че е "отвратена и разочарована от тези думи" и обяви промени в рекламните си инструменти.

    BuzzFeed провери как Google ще се справи с подобни неща и откри, че е лесно също да настрои насочени реклами, които да се виждат от расисти и фанатици. Daily Beast го провери в Twitter и откри милиони реклами, използвайки термини като „нацисти“, „мокри връзки“ и думата N.

    3 Година във Facebook за неразглеждане

    Ако сте във Facebook, несъмнено сте виждали видеоклиповете, генерирани от алгоритми, в края на годината с акценти от последните 12 месеца. Или за някои, слабите светлини. През 2014 г. един баща видя снимка на покойната си дъщеря, докато друг видя снимки на дома му в пламъци. Други примери включват хора, които виждат покойните си домашни любимци, урни, пълни с пепел от родители, и починали приятели. До 2015 г. Facebook обеща да филтрира тъжните спомени.

  • 4 срива на автопилот на Tesla

    Повечето алгоритмични снафи далеч не са фатални, но светът на самоуправляващите се автомобили ще донесе съвсем ново ниво на опасност. Това вече се е случило поне веднъж. Собственик на Tesla на магистрала във Флорида използва полуавтономния режим (Autopilot) и се блъсна в ремарке на трактор, което го отряза. Tesla бързо издаде ъпгрейди, но дали наистина грешката в режима на автопилот беше грешка? Националната администрация по безопасност на движението по магистралите казва, че може би не е така, тъй като системата изисква водача да държи нащрек за проблеми, както можете да видите във видеото по-горе. Сега Tesla не позволява на Autopilot дори да бъде ангажиран, ако водачът не реагира първо на визуални сигнали.

  • 5 Кажете на расисткия Майкрософт AI

    Преди няколко години чат ботовете трябваше да завладеят света чрез буря, заменяйки представителите на обслужването на клиенти и превръщайки онлайн света в чат място за получаване на информация. Microsoft отговори през март 2016 г., като изтласка AI на име Tay, с който хората, по-специално 18- до 24-годишните, могат да общуват в Twitter. Tay от своя страна би направил публични туитове за масите. Но след по-малко от 24 часа, научавайки се от нечестивите маси, Тей се превърна в пълноцветен расист. Microsoft моментално свали Tay надолу; тя се завърна като нов ИИ на име Зо през декември 2016 г. със „строги проверки и баланси, за да я предпази от експлоатация“.

    6 Поздравления за вашето (несъществуващо) бебе!

    Пълно разкритие: Докато пиша това, жена ми всъщност е бременна. И двамата получихме този имейл от Amazon, казвайки, че някой е закупил нещо за нас от нашия регистър на бебетата. Все още не го бяхме оповестили публично, но не беше толкова шокиращо. Междувременно няколко милиона други клиенти на Amazon също получиха същата бележка, включително някои без регистър… или бебе на път. Може да е част от фишинг схема, но не е така. Amazon улови грешката и изпрати имейл за последващи извинения. Дотогава мнозина се оплакваха, че това е неподходящо или безчувствено. Това беше по-малко алгоритъм от лъскавия имейл сървър, но ще ви покаже, че винаги е лесно да се обидите.

    7 Amazon "препоръчва" материали за бомби

    Всички скочиха на този, след като беше съобщено от UK Channel News 4, от Fox News до The New York Times . Предполага се, че функцията "често купувани заедно" на Amazon ще покаже на хората какво им е необходимо, за да изградят бомба, ако започнат с една от съставките, която сайтът няма да назове (беше калиев нитрат).

    Алгоритъмът на Amazon всъщност беше да покаже на купувачите съставките за приготвяне на черен прах в малки количества, което е напълно законно в Обединеното кралство и се използва за всякакви неща - като фойерверки - както беше бързо посочено в невероятно добре мислено- публикация в блога на Idle Words. Вместо това всички доклади са за това как Amazon се вглежда в него, защото това трябва да кажат, че правят в свят, страхуващ се от тероризъм и логика.

    8 Google Maps получава расистки

    През 2015 г. Google трябваше да се извини, когато Google Maps търсят „n ***** king“ и „n *** a house“, водят до Белия дом, който все още беше окупиран от Барак Обама по онова време. Това е резултат от „Googlebomb“, при който терминът, използван отново и отново, се взима от търсачката и се маркира като „популярен“, така че резултатите отиват в горната част на търсенето. Така думата „Санторум“ получи своето ново определение.

    9 Google Tags Хората като горили

    Google Photos е невероятно приложение / услуга, което съхранява всички ваши снимки и много повече. Едно от тези неща е автоматично маркиране на хора и неща в снимки. Той използва разпознаване на лица, за да ги стеснява право към правилния човек. Дори имам папка с всичките си кучета и не маркирах нито едно от тях. Защото, както и това работи, беше много възмутително, когато през 2015 г. Google трябваше да се извини на компютърния програмист Джаки Алсине, когато той и приятел - и двамата черни - бяха идентифицирани от службата като горили. "Ние сме ужасени и искрено съжаляваме, че това се е случило", заяви Google пред PCMag.

    10 Robot Security Hits Child, Kill Self

    Knightscope прави автономни роботи за сигурност, наречени K5 за патрулиране на училища, молове и квартали. 5-футовите високи шишарки Dalek-esque на колела - които, за тяхна заслуга, все още са в бета-тестване - са склонни да правят новините не за осуетяващо престъпление, а за проблемите.

    Например, през юли 2016 г., K5 в търговския център в Станфорд в Пало Алто се нахвърли върху подножието на 16-месечно дете и Knightscope трябваше официално да се извини. Същото местоположение - може би същият дроид - имаше спор на паркинг с пиян, но поне това не беше по вина на К5. Съдебните заседатели все още са в единица K5 в Джорджтаун Waterfront, офис / търговски комплекс във Вашингтон…, че човек твърди, че се е спуснал по стълби във водна чешма след само една седмица на работа. Не изглежда добре за армията на Skynet.

10 Смутен алгоритъм се проваля