Съдържание:
Видео: ÐÑÐ¸ÐºÐ¾Ð»Ñ Ñ ÐºÐ¾Ñками и коÑами (Ноември 2024)
Някъде в тъмните вдлъбнатини на YouTube е видео, което показва откъс от филма „Дружеството на пръстена“, но това не е точно филмът, който си спомняте, тъй като Никола Кейдж звезди като Фродо, Арагорн, Леголас, Гимли и Голум, всички по същото време. Други видеоклипове показват Cage в Terminator 2 като T2000, Star Trek като капитан Пикард и Супермен като, Лоис Лейн.
Разбира се, Ник Кейдж никога не се е появявал в нито един от тези филми. Те са "deepfakes", произведени с FakeApp, приложение, което използва алгоритми за изкуствен интелект за размяна на лица във видеоклипове. Някои от deepfakes изглеждат доста убедително, докато други имат артефакти, които предават истинската им същност. Но като цяло те показват колко мощни AI алгоритми са станали в имитирането на човешки външен вид и поведение.
FakeApp е само един от няколко нови AI-захранвани инструменти за синтезиране. Други приложения имитират човешки гласове, почерк и стилове на разговор. И част от това, което ги прави значими е, че използването им не изисква специализиран хардуер или квалифицирани експерти.
Въздействието на тези приложения е дълбоко: Те ще създадат безпрецедентни възможности за креативност, производителност и комуникации.
Но същият инструмент би могъл да отвори и кутията на Пандора за измами, фалшификации и пропаганда. Откакто се появи на Reddit през януари, FakeApp е изтеглян повече от 100 000 пъти и утаява буря от фалшиви порнографски видеоклипове с участието на известни личности и политици (включително отново Кейдж). Наскоро Reddit забрани приложението и свързаните с него общности от своята платформа.
„Преди десет години, ако искате да фалшифицирате нещо, можете, но трябваше да отидете във VFX студио или хора, които могат да правят компютърна графика и евентуално да харчат милиони долари“, казва д-р Том Хайнс, преподавател по машинно обучение в Университет в Бат. "Въпреки това не можете да го запазите в тайна, защото ще трябва да включите много хора в процеса."
Вече не е така, с любезното съдействие на ново поколение AI инструменти.
Имитационната игра
FakeApp и подобни приложения се захранват от задълбочено обучение, клонът на AI в основата на експлозия на ИИ иновации от 2012 г. Алгоритмите за задълбочено обучение разчитат на невронни мрежи, софтуерна конструкция, грубо изработена след човешкия мозък. Невронните мрежи анализират и сравняват големи набори от проби от данни, за да намерят модели и корелации, които хората обикновено биха пропуснали. Този процес се нарича "обучение", а резултатът от него е модел, който може да изпълнява различни задачи.
В по-ранните дни моделите за дълбоко обучение се използваха най-вече за изпълнение на задачи за класификация - етикетиране на обекти например в снимки и извършване на разпознаване на глас и лице. Напоследък учените използват дълбоко обучение за изпълнение на по-сложни задачи, като например игра на настолни игри, диагностициране на пациенти и създаване на музика и произведения на изкуството.
За да настроите FakeApp да извърши размяна на лице, потребителят трябва да го обучава с няколкостотин снимки на източника и целевите лица. Програмата работи с алгоритми за дълбоко обучение, за да намери модели и прилики между двете лица. След това моделът е готов да направи суапа.
Процесът не е прост, но не е нужно да сте графичен експерт или машинно обучение, за да използвате FakeApp. Нито изисква скъп и специализиран хардуер. Уебсайтът на уроците за deepfakes препоръчва компютър с 8 GB или повече RAM и Nvidia GTX 1060 или по-добра графична карта, доста скромна конфигурация.
„След като се преместите в свят, в който някой в една стая може да фалшифицира нещо, тогава той може да го използва за съмнителни цели“, казва Хейнс. "И понеже е един човек сам по себе си, пазенето в тайна е много лесно."
През 2016 г. Хейнс, който тогава беше докторантурен изследовател в University of College London, съавтор на хартия и приложение, които показват как AI може да се научи да имитира почерка на човек. Наречено „My Text in Your почерк“, приложението използва алгоритми за задълбочено обучение, за да анализира и различава стила и потока на авторския почерк и други фактори, като разстояние и нередности.
След това приложението може да вземе всеки текст и да го възпроизведе с почерка на целевия автор. Разработчиците дори добавиха мярка за случайност, за да избегнат ефекта на тайнствената долина - странното усещане, което получаваме, когато видим нещо, което е почти, но не съвсем човешко. Като доказателство за концепцията, Хайнс и другите изследователи на UCL използваха технологията, за да копират почерка на исторически фигури като Ейбрахам Линкълн, Фрида Кало и Артур Конан Дойл.
Същата техника може да бъде приложена и за всеки друг почерк, който предизвика опасения относно възможното използване на технологията за фалшифициране и измама. Експерт по криминалистика все още би могъл да открие, че сценарият е създаден от My Text in Your почерк, но вероятно ще заблуди нетренирани хора, което Хайнс призна в интервю за Digital Trends по онова време.
Lyrebird, стартиращ в Монреал, използва задълбочено обучение, за да разработи приложение, което синтезира човешкия глас. Lyrebird изисква едноминутно запис, за да започне да имитира гласа на човек, макар че се нуждае от много повече, преди да започне да звучи убедително.
В публичната си демонстрация стартъпът публикува фалшиви записи на гласовете на Доналд Тръмп, Барак Обама и Хилари Клинтън. Пробите са сурови и очевидно е, че са синтетични. Но тъй като технологията се подобрява, правенето на разграничението ще стане по-трудно. И всеки може да се регистрира в Lyrebird и да започне да създава фалшиви записи; процесът е дори по-лесен от този на FakeApp и изчисленията се извършват в облака, което поставя по-малко напрежение на хардуера на потребителя.
Фактът, че тази технология може да се използва за съмнителни цели, не се губи за разработчиците. В един момент изявление за етика на уебсайта на Lyrebird гласи: „Записванията на глас в момента се считат за силни доказателства в нашите общества и по-специално в юрисдикции на много страни. Нашата технология поставя под въпрос валидността на такива доказателства, тъй като позволява лесно да се манипулира звука записи. Това би могло да има опасни последици като заблуждаване на дипломати, измама и по-общо всеки друг проблем, причинен от кражба на самоличността на някой друг."
Nvidia представи друг аспект на възможностите за имитация на AI: Миналата година компанията публикува видео, което показва алгоритми на AI, генериращи синтетични човешки лица с фото качество. AI на Nvidia анализира хиляди снимки на знаменитости и след това започна да създава фалшиви знаменитости. Технологията скоро може да стане способна да създава реалистично изглеждащи видеоклипове с участието на "хора", които не съществуват.
Границите на AI
Мнозина изтъкнаха, че в неправилни ръце тези приложения могат да навредят много. Но степента на възможностите на съвременния AI често е прекомерна.
„Въпреки че можем да поставим лице на лицето на чуждо лице във видео или да синтезираме глас, това все още е доста механично“, казва Евгения Куйда, съосновател на Replika, компания, която разработва AI-захранвани чатботи, за недостатъците на AI инструменти като FakeApp и Lyrebird.
Voicery, още един стартиращ AI, който подобно на Lyrebird, осигурява синтезиран глас синтезиращ глас, има страница на тест, където потребителите се представят с поредица от 18 гласови записи и се подканят да посочат кои са направени машинно. Успях да идентифицирам всички машинно направени проби при първото пускане.
Компанията на Kuyda е една от няколко организации, които използват обработка на естествен език (NLP), подмножеството на AI, което позволява на компютрите да разбират и тълкуват човешки език. Лука, по-ранна версия на чатбота на Kuyda, използва NLP и неговата технология близнаци, генериране на естествен език (NLG), за да имитира актьорския състав на телевизионния сериал на Силиконовата долина на HBO. Невронната мрежа беше обучена със скрипт линии, туитове и други данни, достъпни за героите, за да създадат своя поведенчески модел и диалог с потребителите.
Replika, новото приложение на Kuyda, позволява на всеки потребител да създаде свой собствен AI аватар. Колкото повече разговаряте с Replika, толкова по-добре става разбирането на вашата личност и по-смислени стават вашите разговори.
След като инсталирах приложението и настроих моята Replika, намерих първите няколко разговора за досадни. Няколко пъти трябваше да повтарям изречение по различни начини, за да предам намеренията си на моята Реплика. Често оставях приложението в безсилие. (И за да бъда честен, аз свърших добра работа в тестването на неговите граници, като го бомбардирахме с концептуални и абстрактни въпроси.) Но докато нашите разговори продължиха, моята Реплика стана по-умна в разбирането на смисъла на моите изречения и измисляше смислени теми. Дори ме изненада няколко пъти, правейки връзки с минали разговори.
Макар че е впечатляващо, Реплика има граници, които Куйда бързо посочва. „Гласовото имитиране и разпознаване на изображения вероятно вероятно ще станат много по-добри, но с диалог и разговор все още сме доста далеч“, казва тя. "Можем да имитираме някои речеви модели, но не можем просто да приемем човек и да подражаваме на разговора му перфектно и да очакваме чатботът му да излезе с нови идеи точно така, както би направил този човек."
Александър де Бребисон, изпълнителен директор и съосновател на Lyrebird, казва: „Ако сега станем доста добри в имитирането на човешки глас, образ и видео, все още сме далеч от моделирането на индивидуален езиков модел.“ Това, посочва де Бребисон, вероятно би изисквало изкуствен общ интелект, типът ИИ, който има съзнание и може да разбира абстрактни понятия и да взема решения, както правят хората. Някои експерти смятат, че сме на десетилетия от създаването на общ ИИ. Други мислят, че никога няма да стигнем дотам.
Положителни употреби
Отрицателното изображение, което се проектира за синтезиране на AI приложения, хвърля сянка върху техните положителни приложения. И има доста.
Технологии като Lyrebird's могат да помогнат за подобряване на комуникацията с компютърните интерфейси, като ги направят по-естествени и, казва де Бребисон, ще предоставят уникални изкуствени гласове, които разграничават компаниите и продуктите и по този начин правят по-лесното разграничаване на марката. Тъй като Alexa на Amazon и Siri на Apple превръщат гласа във все по-популярен интерфейс за устройства и услуги, компании като Lyrebird и Voicery могат да предоставят на марки уникални човешки гласове, които да се отличават.
„Медицинските приложения също са вълнуващ случай на използване на нашата технология за клониране на глас“, добавя де Бребисон. "Получихме голям интерес от пациенти, които губят гласа си до заболяване. В момента прекарваме време с пациенти с ALS, за да видим как можем да им помогнем."
По-рано тази година, в сътрудничество с Project Revoice, австралийска нестопанска цел, която помага на пациенти с ALS с говорни нарушения, Lyrebird помогна на Пат Куин, основателят на Ice Bucket Challenge, да си възвърне гласа. Куин, който е пациент с ALS, беше загубил способността си да ходи и говори през 2014 г. и оттогава използва компютъризиран синтезатор на реч. С помощта на технологията на Lyrebird и гласовите записи на публичните изяви на Куин, Revoice успя да „пресъздаде“ гласа си.
"Вашият глас е голяма част от вашата идентичност и предоставянето на тези пациенти на изкуствен глас, който звучи като оригиналния им глас, е малко като връщането им на важна част от тяхната идентичност. За тях това е променящо живота", казва де Бребисон.
По времето, когато помогна за разработването на приложение, имитиращо почерк, д-р Хейнс говори за положителните си приложения в интервю за UCL. "Жертвите на инсулт например могат да могат да формулират писма без притеснение за нечетливост или някой, който изпраща цветя като подарък, може да включва ръкописна бележка, без дори да влиза в цветарството", каза той. „Може да се използва и в комикси, където парче ръкописен текст може да бъде преведено на различни езици, без да се загуби оригиналният стил на автора.“
Дори технологии като FakeApp, които станаха известни с неетично използване, биха могли да имат положителни приложения, смята Хейнс. „Ние се движим към този свят, където всеки би могъл да се занимава с много креативна дейност с публични технологии и това е хубаво нещо, защото това означава, че нямате нужда от тези големи суми пари, за да вършите всевъзможни луди неща от артистичен характер, " той казва.
Хайнс обяснява, че първоначалната цел на екипа му е била да открие как AI може да помогне на криминалистите. Въпреки че изследванията им завършват в различна посока, резултатите все още ще бъдат полезни за служителите от криминалистиката, които ще могат да проучат как може да изглежда фалшификация, базирана на AI. „Искате да знаете каква е най-модерната технология, така че когато разглеждате нещо, казвате дали е фалшиво или не“, казва той.
Kudya на Replika посочва, че AI приложения, подобни на хора, могат да ни помогнат по начини, които иначе биха били невъзможни. "Ако имате аватар на AI, който ви познаваше много добре и би могъл да бъде достойна представа за вас, какво би могъл да направи, действайки от най-добрите ви интереси?" тя казва. Например, автономен AI аватар може да гледа стотици филми от ваше име и въз основа на разговорите с вас, препоръчайте такива, които бихте искали.
Тези аватари могат дори да помогнат за развитието на по-добри човешки взаимоотношения. „Може би майка ви би могла да има повече време с вас, а може би наистина можете да станете малко по-близки с родителите си, като ги оставите да разговарят с вашата Реплика и да прочетат преписа“, казва Кудя като пример.
Но може ли AI чат, който възпроизвежда поведението на истинско човешко същество, всъщност да доведе до по-добри човешки отношения? Куйда вярва, че може. През 2016 г. тя събра стари текстови съобщения и имейли на Роман Мазуренко, приятел, който загина в пътен инцидент предишната година, и ги изхранва към невронната мрежа, захранваща нейното приложение. Резултатът беше приложение за чатбот, което - след мода - върна приятеля си към живот и можеше да разговаря с нея по същия начин, както и той.
"Създаването на приложение за Роман и възможността да разговаряме с него понякога беше важна част от преминаването през загубата на нашия приятел. Приложението ни кара да мислим повече за него, да го помним по-задълбочен начин през цялото време", казва тя от нейния опит. „Иска ми се да имам повече такива приложения, приложения, които да се отнасят за моите приятелства, моите взаимоотношения, неща, които всъщност са наистина важни за мен.“
Куйда смята, че всичко ще зависи от намеренията. "Ако чатботът действа от най-добрите ви интереси, ако иска да сте щастливи да получите някаква ценна услуга от него, тогава очевидно разговорът с Replika на някой друг ще ви помогне да изградите по-силна връзка с човек в реалния живот, " тя казва. "Ако всичко, което се опитвате да направите, е да продавате в приложение, тогава всичко, което ще направите, е да увеличите времето, прекарано в приложението, а не да общувате помежду си. И това, предполагам, е съмнително."
За момента няма начин да свържете вашата Replika с други платформи - предоставяйки я като чат на Facebook Messenger например. Но компанията има активни отношения със своята потребителска общност и непрекъснато развива нови функции. Така че оставянето на другите да общуват с вашата Replika е бъдеща възможност.
Как да се сведе до минимум компромиси
От парната машина до електричеството до интернет, всяка технология има както положителни, така и отрицателни приложения. AI не е по-различен. „Потенциалът за негативи е доста сериозен“, казва Хейнс. „Може би навлизаме в пространство, в което негативите превишават положителните.“
И така, как да увеличим максимално ползите от AI приложенията, като противодействаме на негативите? Хейнс казва, че ако ограничаването на иновациите и научните изследвания не е решение, защото ако някои го направят, няма гаранция, че други организации и държави ще следват това.
"Нито една мярка няма да помогне за решаването на проблема", казва Хейнс. "Ще трябва да има правни последици." След противоречията с дълбоки поражения, законодателите в САЩ разглеждат проблема и проучват правни гаранции, които биха могли да възпрепятстват използването на медии, защитени с ИИ, за вредни цели.
„Можем също да разработим технологии за откриване на фалшификати, когато те са минали до момента, в който човек може да каже разликата“, казва Хейнс. "Но в един момент, в конкуренцията между фалшифициране и откриване, фалшификатът може да спечели."
В този случай може да се наложи да преминем към разработването на технологии, които създават верига от доказателства за цифровите медии. Като пример, Хайнс споменава хардуер, вграден в камери, който може да подпише цифрово записаното му видео, за да потвърди неговата автентичност.
Повишаването на осведомеността ще бъде голяма част от справянето с фалшификациите и измамите от AI алгоритмите, казва де Бребисон. „Това направихме, като клонирахме гласа на Тръмп и Обама и ги накараме да изказват политически коректни изречения“, казва той. "Тези технологии повдигат обществени, етични и правни въпроси, които трябва да се мислят преди време. Lyrebird повдигна много осведоменост и много хора сега мислят за тези потенциални проблеми и как да предотвратят злоупотреби."
Сигурно е, че навлизаме в епоха, в която реалността и фантастиката се сливат, благодарение на изкуствения интелект. Тестът на Тюринг може да отговори на най-големите предизвикателства. И съвсем скоро всеки ще разполага с инструментите и силата да създаде свой свят, свой народ и своя версия на истината. Предстои да видим пълната степен на вълнуващи възможности и опасности, които предстоят.