У дома Мненията Учене от грешките на Алекса

Учене от грешките на Алекса

Съдържание:

Видео: игра на акардеоне шикарное исполнение (Ноември 2024)

Видео: игра на акардеоне шикарное исполнение (Ноември 2024)
Anonim

Наскоро устройство Amazon Echo записа частния разговор на потребител и го изпрати до един от контактите им без тяхното знание и съгласие. Това (отново) предизвиква безпокойство относно сигурността и поверителността на интелигентните говорители. Както по-късно стана ясно обаче, странното поведение на Алекса не беше част от зловещ заговор за шпионаж - по-скоро беше причинено от редица свързани провали, приписани на начина, по който работи умният говорител.

Според акаунт, предоставен от Amazon: „Echo се събуди поради дума в разговор на фона, звучаща като„ Alexa “. След това последващият разговор беше чут като молба за „изпращане на съобщение“. В този момент Алекса каза на висок глас „Към кого?“ В този момент основният разговор беше интерпретиран като име в списъка с контакти на клиента. Алекса след това попита на глас: "нали?" Тогава Алекс интерпретира разговорния разговор като "правилен". Колкото и малко вероятно да е този низ от събития, ние оценяваме опциите, за да направим този случай още по-малко вероятен."

Сценарият е краен случай, видът на инцидента, който се случва много рядко. Но също така е интересно проучване в границите на технологията за изкуствен интелект, която захранва Echo и други така наречени „умни“ устройства.

Прекалено много облачност

За да разберат гласовите команди, интелигентните високоговорители като Echo и Google Home разчитат на алгоритми за дълбоко обучение, които изискват голяма компютърна мощност. Тъй като нямат компютърни ресурси за изпълнение на задачата локално, те трябва да изпращат данните на облачните сървъри на производителя, където AI алгоритмите трансформират речеви данни в текст и обработват командите.

Но интелигентните високоговорители не могат да изпращат всичко, което чуват, в облачните си сървъри, защото това би изисквало от производителя да съхранява прекомерно количество данни на своите сървъри - повечето от които биха били безполезни. Случайното записване и съхраняване на частни разговори в домовете на потребителите също би представлявало предизвикателство за поверителност и би могло да създаде проблеми на производителите, особено с новите разпоредби за поверителност на данните, които поставят сериозни ограничения за това как технологичните компании съхраняват и използват данни.

Ето защо интелигентните високоговорители са проектирани така, че да се задействат, след като потребителят произнесе будна дума като „Alexa“ или „Hey Google“. Едва след като чуват будната дума, те започват да изпращат аудио входа на микрофоните си в облака за анализ и обработка.

Въпреки че тази функция подобрява поверителността, тя представя своите собствени предизвикателства, както подчерта неотдавнашният инцидент с Алекса.

„Ако дума - или нещо, което много прилича на нея - бъде изпратено по средата на разговор, Алекса няма да има никой от предишния контекст“, казва Джошуа Март, изпълнителен директор на Conversocial. "В този момент се слуша изключително трудно за всякакви команди, свързани с уменията, които сте задали (като тяхното приложение за съобщения). В по-голямата си част, поверителността е значително подобрена чрез ограничаване на контекста, на който Alexa обръща внимание (като това не е запис или слушане на някой от вашите нормални разговори), въпреки че в този случай това е направено обратно."

Напредъкът в компютърните изчисления може да помогне за облекчаване на този проблем. Тъй като AI и задълбоченото обучение намират място във все повече устройства и приложения, някои производители на хардуер създават процесори, специализирани за изпълнение на AI задачи, без да разчитат много на облачните ресурси. Edge AI процесорите могат да помогнат на устройства като Echo по-добре да разберат и обработят разговорите, без да нарушават поверителността на потребителите, като изпращат всички данни в облака.

Контекст и намерение

Освен че получава различни и фрагментирани звукови части, AI на Amazon се бори с разбирането на нюансите на човешкия разговор.

„Въпреки че през последните няколко години има огромен напредък в задълбоченото учене, което позволява на софтуера да разбере речта и изображенията по-добре от всякога, все още има много ограничения“, казва Март. „Докато гласовите асистенти могат да разпознаят думите, които казвате, те не трябва непременно да разбират смисъла или намерението зад него. Светът е сложно място, но всяка една AI система днес може да се справи много конкретни, тесни случаи на използване."

Например, ние, хората, имаме много начини да определим дали едно изречение е насочено към нас, като тон на гласа или следване на визуални сигнали - да речем в посоката, в която говори говорителят.

За разлика от Алекса приема, че е получател на всяко изречение, което съдържа думата „А“. Ето защо потребителите често го задействат случайно.

Част от проблема е, че преувеличаваме възможностите на настоящите AI приложения, често ги поставяме наравно със или над човешкия ум и им влагаме твърде голямо доверие. Ето защо се изненадваме, когато се провалят ефектно.

„Част от въпроса тук е, че терминът„ AI “е бил толкова агресивно пуснат на пазара, че потребителите са внесли незаслужено количество вяра в продукти с този термин, обвързан с тях“, казва Паскал Кауфман, невронаук и основател на Starmind. "Тази история илюстрира, че Alexa има много възможности и сравнително ограничено разбиране за това как и кога трябва да се прилагат по подходящ начин."

Алгоритмите за задълбочено обучение са склонни да се провалят, когато се сблъскат с настройки, които се отклоняват от данните и сценариите, за които са обучени. „Една от определящите характеристики на ИИ на човешко ниво ще бъде самодостатъчната компетентност и истинското разбиране на съдържанието“, казва Кауфман. „Това е решаваща част от истинското преценяване на ИИ„ интелигентен “и жизненоважно за неговото развитие. Създаването на самосъзнателни цифрови асистенти, които носят със себе си пълно разбиране на човешката природа, ще отбележи превръщането им от забавна новост в истинска полезен инструмент."

Но създаването на ИИ на човешко ниво, наричано още общо ИИ, е по-лесно да се каже, отколкото да се направи. В продължение на много десетилетия си мислехме, че е точно зад ъгъла, само за да се ужасим, тъй като технологичният напредък показва колко сложен е човешкият ум. Много експерти смятат, че преследването на общ ИИ е безполезно.

Междувременно, тесният ИИ (както са описани съвременните технологии за изкуствен интелект) все още предлага много възможности и може да бъде поправен, за да се избегнат повтарящи се грешки. За да бъдем ясни, дълбокото учене и машинното обучение все още се зараждат, а компании като Amazon постоянно актуализират своите AI алгоритми за справяне с крайните случаи всеки път, когато се случат.

Какво трябва да направим

„Това е младо, нововъзникващо поле. Разбирането на естествения език е особено в начален стадий, така че тук можем да направим много неща“, казва Ерик Моллер, главен технически директор на Atomic X.

Моллер вярва, че алгоритмите на AI за анализ на гласа могат да бъдат настроени, за да се разбере по-добре интонацията и флектацията. "Използването на думата" Alexa "в по-широко изречение звучи по-различно от повикване или команда. Алекса не трябва да се събужда, защото сте казали това име в миналото", казва Молър. При достатъчно обучение AI трябва да може да различава кои конкретни тонове са насочени към интелигентния говорител.

Техническите компании също могат да обучават своя AI, за да могат да различават, когато получават фонов шум, за разлика от директно изговаряне. "Фоновото бъбрене има уникален слухов" подпис ", че хората са много добри в подбора и избирателно настройване. Няма причина да не можем да обучим AI моделите да правят същото", казва Молър.

Като предпазна мярка, помощниците на ИИ трябва да оценят въздействието на решенията, които взимат, и да включват човешкото решение в случаите, когато искат да направят нещо, което е потенциално чувствително. Производителите трябва да въведат повече защитни мерки в своите технологии, за да предотвратят изпращането на чувствителна информация без изричното и ясно съгласие на потребителя.

"Въпреки че Amazon съобщи, че Alexa се опитва да потвърди действието, което интерпретира, някои действия трябва да бъдат по-внимателно управлявани и да се придържат към по-висок стандарт за потвърждение на намерението на потребителя", казва Саги Елияхи, изпълнителен директор на Tonkean. "Хората имат едни и същи проблеми с разпознаването на реч, от време на време неправилни заявки. За разлика от Алекса обаче, човек е по-вероятно да потвърди абсолютно, че разбира неясна заявка и по-важното - да прецени вероятността на заявка в сравнение с предишни заявки."

Междувременно…

Докато технологичните компании финализират своите AI приложения, за да намалят грешките, потребителите ще трябва да вземат окончателното решение колко искат да бъдат изложени на потенциалните грешки, които техните AI-захранвани устройства могат да направят.

„Тези истории показват конфликт с количеството данни, които хората са готови да споделят срещу обещанието за нови технологии на ИИ“, казва Дъг Роуз, експерт по научни данни и писател на няколко книги за AI и софтуер. "Може да дразните Сири, че е бавна. Но най-добрият начин тя да постигне по-голяма интелигентност е чрез нахлуване в нашите частни разговори. Затова ключов въпрос през следващото десетилетие или толкова е колко ще позволим на тези АИ агенти да надникнат в нашето поведение ?"

"Кое семейство би поставило човешки асистент в хола и го остави да слуша непрекъснато разговор?" казва Кауфман, неврологът от Starmind. „Трябва поне да прилагаме същите стандарти за така наречените„ AI “устройства (ако не и по-високи), които прилагаме и за човешките интелигентни същества, що се отнася до поверителност, поверителност или надеждност.“

Учене от грешките на Алекса