Съдържание:
Видео: Маленькое королевство Бена и Холли - Вылазка ⭐Лучшие моменты (Ноември 2024)
На 12 март MIT Technology Review пусна история, която започна така: "20-ата година е, а автомобилите със самостоятелно управление най-накрая обикалят нашите улици в града. За първи път един от тях удари и уби пешеходец, с огромно отразяване в медиите. Вероятен иск е вероятно, но какви закони трябва да се прилагат?"
Въпреки че инцидентът все още се разследва, възникналото вълнение е показател за това колко далеч сме от успешното интегриране на изкуствения интелект в нашите критични задачи и решения.
В много случаи проблемът не е с AI, а с нашите очаквания и разбиране за него. Според Wired близо 40 000 души са загинали при пътни инциденти миналата година само в САЩ - 6 000 от които са пешеходци. Но много малко (ако има такива) направиха заглавия по начина, по който се случи инцидентът в Uber.
Една от причините катастрофата в Uber да предизвика такова размирие е, че като цяло имаме високи очаквания за новите технологии, дори когато те все още са в процес на развитие. Под илюзията, че чистата математика задвижва AI алгоритмите, ние сме склонни да се доверяваме на техните решения и сме шокирани, когато правят грешки.
Дори шофьорите за безопасност зад волана на самоуправляващите се автомобили свалят охраната си. Кадри от инцидента в Uber показаха, че шофьорът се разсейва, гледайки надолу секунди преди катастрофата да се случи.
През 2016 г. водачът на Tesla S Model, работещ в режим на автопилот, почина, след като автомобилът се блъсна в камион. Разследване установи, че водачът може да е гледал филм за Хари Потър по време на сблъсъка.
Очакванията за съвършенство са високи, а разочарованията са мощни. Критиците бързаха да поставят под въпрос целия проект на Uber за самостоятелно управление на автомобили след инцидента; компанията временно е прекратила тестване на самоуправляващ се автомобил след това.
AI не е човек
Сред критиките, последвали катастрофата, беше, че човек шофьор лесно би избегнал инцидента.
"не е скочила от храстите. Тя постигна ясен напредък по множество ленти за движение, които трябваше да бъдат в обхвата на системата, за да се вземе", каза един експерт пред CNN.
Тя е права. Опитен човешки шофьор вероятно би я забелязал. Но алгоритмите на AI не са хора.
Алгоритмите за задълбочено обучение, открити в самостоятелно управлявани автомобили, използват множество примери, за да „научат“ правилата на своята област. Докато прекарват време на път, те класифицират информацията, която събират и се научават да се справят с различни ситуации. Но това не означава непременно, че те използват същия процес на вземане на решения като хората. Ето защо те могат да се представят по-добре от хората в някои ситуации и да се провалят в тези, които изглеждат тривиални за хората.
Перфектен пример е алгоритъмът за класификация на изображенията, който се научава да разпознава изображения чрез анализ на милиони снимки с етикет. С течение на годините класификацията на изображенията се превърна в супер ефективна и надминава хората в много условия. Това обаче не означава, че алгоритмите разбират контекста на изображенията по същия начин, както хората.
Например, изследване на експерти от Microsoft и Станфордския университет установи, че алгоритъмът за задълбочено обучение, обучен с изображения на бели котки, вярващи с висока степен на убеденост, че снимка на бяло куче представлява котка, грешка, която човешкото дете може лесно да избегне. И в скандален случай алгоритъмът за класифициране на изображения на Google погрешно класифицира хора с тъмен цвят на кожата като горили.
Те се наричат "крайни случаи", ситуации, с които AI алгоритмите не са били обучени да се справят, обикновено поради липса на данни. Аварията в Uber все още е в процес на разследване, но някои експерти на ИИ предполагат, че това може да е друг краен случай.
Дълбокото обучение има много предизвикателства за преодоляване, преди да може да се приложи в критични ситуации. Но неговите неуспехи не трябва да ни възпират. Трябва да коригираме възприятията и очакванията си и да приемем реалността, която всяка велика технология се проваля по време на своята еволюция. AI не е по-различен.