Съдържание:
Видео: игÑÐ¾Ð²Ð°Ñ Ð¸ÑÑеÑика aka 4 меÑÑÑа (Ноември 2024)
Наскоро Google повторно прехвърли Duplex, за да разкрие изрично пред домакините на ресторанта и персонала на салона, че разговарят с Google Assistant и се записват.
Чрез настройване на Duplex, Google поставя на почивка част от тази критика. Но защо е толкова важно компаниите да бъдат прозрачни по отношение на идентичността на своите ИИ агенти?
Могат ли асистенти на AI да служат на злите цели?
„Нараства очакването, че когато общувате с бизнес, бихте могли да взаимодействате с чатбот, работещ с AI. Но когато всъщност чуете как човек говори, обикновено очаквате това да е истински човек“, казва Джошуа Март, изпълнителен директор на Coversocial.
Март казва, че ние сме в началото на хора, които редовно имат значими взаимодействия с AI, а напредъкът в областта създаде опасението, че хакерите могат да експлоатират агентите на ИИ за злонамерени цели.
"В най-добрия случай, AI ботове със злонамерени намерения могат да обидят хората", казва Марсио Авилц, SVP на Networks в Cujo AI. Но Марсио добавя, че може да се сблъскаме с по-ужасни заплахи. Например AI може да научи конкретни езикови модели, като улеснява адаптирането на технологията за манипулиране на хора, представянето на жертви и сценичните атаки (гласово фишинг) атаки и подобни дейности.
Много експерти са съгласни, че заплахата е реална. В колона за CIO Стивън Брайкман изложи различните начини, по които може да се използва технология като Duplex: „Поне при хората, които наричат хора, все още има ограничаващ фактор - човек може да прави толкова много разговори на час, на ден. Хората трябва да бъдат платени, да си почиват и пр. Но един AI чат буквално може да извършва неограничен брой обаждания към неограничен брой хора по неограничен брой начини!"
На този етап повечето от това, което чуваме, са спекулации; все още не знаем степента и сериозността на заплахите, които могат да възникнат с появата на гласови асистенти. Но много от потенциалните атаки, включващи гласови асистенти, могат да бъдат обезвредени, ако компанията, предоставяща технологията, изрично комуникира с потребителите, когато взаимодействат с AI агент.
Притеснения за поверителност
Друг проблем, свързан с използването на технологии като Duplex, е потенциалният риск за неприкосновеността на личния живот. Системите, работещи с AI, се нуждаят от потребителски данни, за да обучават и подобряват алгоритмите си, а Duplex не е изключение. Как ще съхранява, защитава и използва тези данни е много важно.
Появяват се нови разпоредби, които изискват компаниите да получат изричното съгласие на потребителите, когато искат да събират информацията си, но те са създадени предимно за покриване на технологии, при които потребителите умишлено инициират взаимодействия. Това има смисъл за асистенти на AI като Siri и Alexa, които са активирани от потребителя. Но не е ясно как новите правила ще се прилагат за асистенти AI, които достигат до потребителите, без да бъдат задействани.
В своята статия Брайкман подчертава необходимостта от установяване на регулаторни предпазни мерки, като закони, които изискват компаниите да декларират наличието на агент на ИИ - или закон, който, когато попитате чатбот дали е чатбот, се изисква да каже: „Да, Аз съм чат. " Подобни мерки биха дали на човешкия събеседник възможност да се откаже или поне да реши дали иска да взаимодейства със система AI, която записва техния глас.
Дори и при подобни закони загрижеността за поверителност няма да отмине. „Най-големият риск, който предвиждам в настоящото въплъщение на технологията, е, че тя ще даде на Google още данни за нашия личен живот, който досега не е имал. До този момент те знаеха само за нашите онлайн комуникации; сега ще получат реална представа за нашите разговори в реалния свят ", казва Виан Чинер, основател и изпълнителен директор на Xineoh.
Неотдавнашните скандали за поверителност, включващи големи технологични компании, в които те използваха потребителски данни по съмнителни начини за собствените си печалби, създадоха чувство на недоверие относно това да им дадем повече прозорци в живота ни. „Хората като цяло смятат, че големите компании в Силиконовата долина гледат на тях като на инвентар, вместо на клиенти, и имат голяма степен на недоверие към почти всичко, което правят, без значение колко революционно и променящо живота ще се окаже това“, казва Чинер.
Функционални повреди
Въпреки че има естествен глас и тон и използва подобни на човека звуци като "mmhm" и "ummm", Duplex не се различава от другите съвременни AI технологии и страда от същите ограничения.
Независимо дали гласът или текстът се използват като интерфейс, AI агентите са добри в решаването на конкретни проблеми. Ето защо ги наричаме „тесен AI“ (за разлика от „общия AI“ - вид изкуствен интелект, който може да участва в решаване на общи проблеми, както прави човешкият ум). Докато тесният AI може да бъде изключително добър в изпълнението на задачите, за които е програмиран, той може да се провали ефектно, когато му бъде предоставен сценарий, който се отклонява от проблемната му област.
"Ако потребителят мисли, че говорят с човек, той вероятно ще попита нещо, което е извън нормалния сценарий на AI, и след това ще получи разочароващ отговор, когато ботът не разбира", казва марката на Conversocial.
За разлика от това, когато човек знае, че разговаря с AI, който е обучен да резервира таблици в ресторант, той ще се опита да избегне използването на език, който ще обърка AI и ще го накара да се държи по неочаквани начини, особено ако той носи тях клиент.
"Членовете на персонала, които получават обаждания от Duplex, също трябва да получат пряко въведение, че това не е истински човек. Това би помогнало комуникацията между персонала и AI да бъде по-консервативна и ясна", казва Авилц.
Поради тази причина, докато (и ако) не разработим AI, който може да работи наравно с човешката интелигентност, е в интерес на самите компании да бъдат прозрачни за тяхното използване на AI.
В края на деня част от страха от гласови асистенти като Duplex е причинена от факта, че те са нови и все още свикваме да ги срещаме в нови настройки и случаи на използване. „Поне на някои хора им се струва много неприятно с идеята да говорят с робот, без да го знаят, така че за момента това вероятно трябва да бъде разкрито пред контрагентите в разговора“, казва Чинер.
- AI е (също) сила за добро AI е (също) сила за добро
- Когато AI размива линията между реалността и фикцията, когато AI размива линията между реалността и фикцията
- Изкуственият интелект има проблем с пристрастията и това е наша грешка Изкуственият интелект има проблем с пристрастията и това е наша грешка
Но в дългосрочен план ще свикнем да взаимодействаме с AI агенти, които са по-умни и по-способни да изпълняват задачи, които по-рано се смятаха за изключителна област на човешките оператори.
"Следващото поколение няма да се интересува дали говорят с AI или с човек, когато се свържат с бизнес. Те просто ще искат да получат отговора си бързо и лесно и ще пораснат да говорят с Алекса. Задържането да говорите с човек ще бъде много по-разочароващо, отколкото просто да общувате с бот ", казва марката на Conversocial.