У дома Мненията Годината на етичното отчитане на годишната индустрия

Годината на етичното отчитане на годишната индустрия

Съдържание:

Видео: 5 НОВЫХ ЛАЙФХАКОВ С КОНСТРУКТОРОМ LEGO 4K (Септември 2024)

Видео: 5 НОВЫХ ЛАЙФХАКОВ С КОНСТРУКТОРОМ LEGO 4K (Септември 2024)
Anonim

Откакто дълбоките невронни мрежи спечелиха най-важното състезание за разпознаване на изображения през 2012 г., всички се вълнуват от това, което изкуственият интелект би могъл да отприщи. Но в надпреварата за разработване на нови AI техники и приложения, възможните отрицателни въздействия заеха задно място.

Сега виждаме промяна към повече информираност относно етиката на ИИ. През 2018 г. разработчиците на AI станаха по-осъзнати от възможните последствия от техните творения. Много инженери, изследователи и разработчици изясниха, че няма да изграждат технологии, които вредят или причиняват щети на живота на невинни хора, и те държат своите компании.

Разпознаване на лица в правоприлагането

В миналото създаването на приложения за разпознаване на лица беше тежко, ресурсоемко и податливо на грешки. Но с напредъка на компютърното зрение - подмножеството на AI, което позволява на компютрите да разпознават съдържанието на изображения и видео - създаването на приложения за разпознаване на лица стана много по-лесно и в обсега на всеки.

Големи технологични компании като Microsoft, Amazon и IBM започнаха да предоставят облачни услуги, които позволиха на всеки разработчик да интегрира технологията за разпознаване на лица в своя софтуер. Това отключи много нови случаи и приложения за използване в различни области, като защита на идентичността и удостоверяване, сигурност на интелигентния дом и търговия на дребно. Но активистите за права на поверителност изразиха загриженост относно потенциала за злоупотреба.

През май 2018 г. Американският съюз за граждански свободи разкри, че Amazon предлага маркетинг Rekogservation - технология за видеоаналитика в реално време на органите на реда и на правителствените агенции. Според ACLU полицията в най-малко три щата използва Rekogication за разпознаване на лица на видео емисии за наблюдение.

"С Rekogservation правителството вече може да изгради система за автоматизиране на идентифицирането и проследяването на всеки. Ако камери на полицейските органи например бяха оборудвани с разпознаване на лица, устройства, предназначени за прозрачност и отчетност на служителите, биха се превърнали допълнително в машини за наблюдение, насочени към обществено “, предупреди ACLU. "Чрез автоматизиране на масовото наблюдение системите за разпознаване на лица като Rekogservation заплашват тази свобода, представлявайки особена заплаха за общности, които вече са несправедливо насочени в настоящия политически климат. След като мощни системи за наблюдение като тези са изградени и внедрени, вредата ще бъде изключително трудна за отмяна."

Притесненията на ACLU отекнаха от служителите на Amazon, които през юни написаха писмо до Джеф Безос, изпълнителен директор на компанията, и поискаха той да спре продажбата на Rekognance на органите на реда. "Нашата компания не трябва да се занимава с надзор; не трябва да сме в полицейския бизнес; не трябва да работим в подкрепа на онези, които наблюдават и потискат маргинализираното население", се казва в писмото.

През октомври анонимен служител на Amazon разкри, че най-малко 450 служители са подписали друго писмо, в което призовават Bezos и други ръководители да спрат да продават Rekogservation на полицията. „Не можем да печелим от подгрупа от мощни клиенти за сметка на нашите общности; не можем да отклоним погледа си от човешките разходи на нашия бизнес. Няма да създадем мълчаливо технология за потискане и убиване на хора, независимо дали у нас или в други, " то каза.

Провалът на военния AI проект на Google

Докато Amazon се занимаваше с този вътрешен обрат, Google изпитваше подобни борби за договор за разработване на AI за американските военни, наречен Project Maven.

Съобщава се, че Google помага на Министерството на отбраната да разработи технология за компютърно виждане, която да обработва видео кадри с дрон. Количеството видео кадри, записвани от дронове всеки ден, беше прекалено много за преглед на човешките аналитици и Пентагонът искаше да автоматизира част от процеса.

Признавайки противоречивия характер на задачата, говорител на Google заяви, че предоставя API само за TensorFlow, неговата платформа за машинно обучение, за откриване на обекти във видео емисии. Google също подчерта, че разработва политики и предпазни мерки за справяне с етичните аспекти на своята технология.

Но Project Maven не седеше добре със служителите на Google - 3000 от които, включително десетки инженери, скоро подписаха отворено писмо до изпълнителния директор Сундар Пичай, което призова за прекратяване на програмата.

„Ние вярваме, че Google не трябва да се занимава с войната“, се казва в писмото. Той поиска компанията да „изготви, публикува и прилага ясна политика, която гласи, че нито Google, нито нейните контрагенти никога няма да изграждат военни технологии“.

Служителите на Google също предупредиха, че техният работодател застрашава репутацията и способността му да се състезава за таланти в бъдеще. „Не можем да възложим моралната отговорност на нашите технологии на трети страни“, подчертават Googlers.

Малко след това подписка, подписана от 90 учени и изследователи, призова топ ръководителите на Google да преустановят работата по военните технологии. Подписалите страни предупредиха, че работата на Google ще постави основата за „автоматизирано разпознаване на цели и автономни оръжейни системи“. Те също предупредиха, че с развитието на технологията те ще застанат „на крачка от разрешаването на автономни дронове да убиват автоматично, без човешки надзор или смислен човешки контрол“.

С нарастването на напрежението няколко служители на Google подадоха оставка в знак на протест.

Как са отговорили техническите лидери

Под натиск Google обяви през юни, че няма да поднови договора си с Министерството на отбраната за Project Maven, след като изтича през 2019 г.

В блог пост главният изпълнителен директор Сундар Пичай (на снимката по-долу) декларира набор от етични принципи, които ще управляват развитието и продажбата на AI технологията на компанията. Според Pichai, оттук нататък компанията ще разглежда проекти, които са за доброто на обществото като цяло и ще избегне развитието на AI, което засили съществуващите нечестни пристрастия или подкопава обществената безопасност.

Pichai също изрично заяви, че неговата компания няма да работи по технологии, които нарушават нормите за правата на човека.

Безосът на Амазонка беше по-малко омаян от възмущението над Възстановяването. "Ще продължим да подкрепяме DoD и смятам, че трябва", каза Безос на технологична конференция в Сан Франциско през октомври. "Една от задачите на висшето ръководство е да вземе правилното решение, дори когато това е непопулярно."

Безос също подчерта необходимостта техническата общност да подкрепи военните. "Ако големите технологични компании ще обърнат гръб на DoD, тази страна ще изпадне в проблеми", каза той.

Президентът на Microsoft Брад Смит, чиято компания бе изправена пред критики заради работата си с ICE, публикува публикация в блог през юли, в която призова за премерен подход при продажбата на чувствителна технология на правителствените агенции. Въпреки че Смит не изключи продажбата на услуги за разпознаване на лица на органите на реда и на военните, той подчерта необходимостта от по-добро регулиране и прозрачност в сектора на технологиите.

  • MIT да изразходва 1 милиард долара за програма за изучаване на AI етиката MIT да изразходва 1 милиард долара за програма за изучаване на AI етиката
  • AI наистина ли говори нашия език? AI наистина ли говори нашия език?
  • Разрушаване на китайската фабрика за неудържимо ИИ Разбиване на Китай Неизключима фабрика за AI

„Избрахме представители в Конгреса, разполагаме с инструментите, необходими за оценка на тази нова технология, с всички нейни последствия. Ние се възползваме от проверките и балансите на конституция, която ни вижда от епохата на свещите до епоха на изкуствен интелект. Както в толкова пъти в миналото, ние трябва да гарантираме, че новите изобретения служат на нашите демократични свободи в съответствие с върховенството на закона ", написа Смит.

През 2018 г. далечните заплахи от роботи-убийци и масовата безработица отстъпиха на опасенията за по-непосредственото етично и социално въздействие на ИИ. В много отношения тези разработки показват, че индустрията съзрява, тъй като AI алгоритмите стават все по-значими в критичните задачи. Но тъй като алгоритмите и автоматизацията стават все по-вкоренени в ежедневието ни, ще възникнат повече дебати.

Годината на етичното отчитане на годишната индустрия