У дома Мненията Може ли нещо да ни предпази от deepfakes? | Бен Диксън

Може ли нещо да ни предпази от deepfakes? | Бен Диксън

Съдържание:

Видео: A KSI & Pokimane Deepfake has been made (Септември 2024)

Видео: A KSI & Pokimane Deepfake has been made (Септември 2024)
Anonim

В края на 2017 г. Motherboard съобщи за AI технология, която може да сменя лица във видеоклипове. По онова време технологията - по-късно наречена deepfakes - дава груби, зърнести резултати и се използва най-вече за създаване на фалшиви порно клипове с участието на известни личности и политици.

Две години по-късно технологията е напреднала изключително много и е по-трудно да се открие с просто око. Наред с фалшивите новини, подправените видеоклипове са станали проблем за националната сигурност, особено когато наближават президентските избори през 2020 г.

Откакто се появяват дълбоки фейкове, няколко организации и компании са разработили технологии за откриване на видеоклипове, подправени с ИИ. Но има опасение, че един ден технологията на дълбоките фейкове ще бъде невъзможно да бъде открита.

Изследователи от Университета в Сури разработиха решение, което може да реши проблема: вместо да открие какво е невярно, той ще докаже какво е истина. Планирана да бъде представена на предстоящата конференция за компютърно виждане и разпознаване на образи (CVPR), технологията, наречена Archangel, използва AI и blockchain за създаване и регистриране на цифрови отпечатъци, защитени от подправки, за автентични видеоклипове. Отпечатъкът може да се използва като ориентир за проверка на валидността на медиите, които се разпространяват онлайн или се излъчват по телевизията.

Използване на AI за подписване на видеоклипове

Класическият начин за доказване на автентичността на двоичен документ е използването на цифров подпис. Издателите изпълняват своя документ чрез криптографски алгоритъм като SHA256, MD5 или Blowfish, който произвежда "хеш", кратък низ от байтове, който представлява съдържанието на този файл и става неговият цифров подпис. Пускането на един и същ файл през алгоритъма на хеширане по всяко време ще генерира същия хеш, ако съдържанието му не се е променило.

Хешовете са свръхчувствителни към промените в двоичната структура на изходния файл. Когато промените един байт в хеширания файл и го стартирате отново през алгоритъма, той дава напълно различен резултат.

Но докато хешовете работят добре за текстови файлове и приложения, те представляват предизвикателства за видеоклипове, които могат да се съхраняват в различни формати, според Джон Коломос, професор по компютърно зрение в Университета в Съри и ръководител на проекта за Архангел.

„Искахме подписът да е същият, независимо от кодека, с който се компресира видеото“, казва Коломос. "Ако взема моето видео и го преобразувам от, да речем, MPEG-2 в MPEG-4, тогава този файл ще бъде с напълно различна дължина и битовете ще бъдат напълно променени, което ще доведе до различен хеш. беше алгоритъм за хеширане, който е запознат със съдържанието."

За да разрешат този проблем, Collomosse и неговите колеги разработиха дълбока невронна мрежа, която е чувствителна към съдържанието, съдържащо се във видеото. Дълбоките невронни мрежи са вид конструкция на AI, която развива поведението си чрез анализ на огромно количество примери. Интересното е, че невронните мрежи също са технологията в основата на deepfakes.

Когато създава deepfakes, разработчикът захранва мрежата със снимки на лицето на обекта. Невронната мрежа научава чертите на лицето и с достатъчно обучение става способна да намира и разменя лица в други видеоклипове с лицето на субекта.

Невронната мрежа на Архангел се обучава на видеото, което е отпечатък. "Мрежата разглежда съдържанието на видеоклипа, а не неговите основни битове и байтове", казва Collomosse.

След обучение, когато пуснете нов видеоклип през мрежата, той ще го валидира, когато съдържа същото съдържание като изходното видео, независимо от неговия формат и ще го отхвърли, когато е различен видеоклип или е бил подправен или редактиран.

Според Collomosse технологията може да открие както пространствено, така и времево подправяне. Пространствените подправки са промени, направени в отделни кадри, като редактирането на смяна на лица, направено в deepfakes.

Но deepfakes не са единственият начин да се подправят видеоклиповете. По-малко обсъждани, но също толкова опасни са целенасочените промени в последователността на кадрите и скоростта и продължителността на видеоклипа. Скорошно широко разпространено подправено видео на оратора на House Nancy Pelosi не използва deepfakes, но беше създадено чрез внимателното използване на прости техники за редактиране, които я накараха да се обърка.

"Една от формите на подправяне, която можем да открием, е премахването на къси сегменти от видеото. Това са временни подправки. И можем да открием до три секунди подправяне. Така че, ако видеоклипът е дълъг няколко часа и просто премахнете три секунди от това видео, можем да открием това “, казва Коломос, като добавя, че Архангел ще открие и промените, направени в скоростта на оригиналния видеоклип, както беше направено във видеото с Пелоси.

Регистриране на отпечатъка на Blockchain

Вторият компонент на проекта "Архангел" е блокчейн, база данни, защитавана от подправяне, където може да се съхранява, но не и да се променя нова информация - идеална за видео архиви, които не правят промени във видеоклипове, след като са регистрирани.

Blockchain технологията е в основата на цифровите валути като Bitcoin и Ether. Това е цифрова книга, поддържана от няколко независими партии. По-голямата част от страните трябва да се споразумеят за промени, направени в блокчейна, което прави невъзможно нито една страна да се едностранно да се меси в главната книга.

Технически е възможно да атакувате и променяте съдържанието на блокчейн, ако над 50 процента от неговите участници се договарят. Но на практика е изключително трудно, особено когато блокчейнът се поддържа от много независими партии с различни цели и интереси.

Блокчейнът на Архангел е малко по-различен от обществения блокчейн. Първо, тя не произвежда криптовалута и съхранява само идентификатора, отпечатъка, запознат със съдържанието, и двоичния хеш на невронната мрежа на верификатора за всеки видеоклип в архив (блокчейн не е подходящ за съхранение на големи количества данни, поради което самото видео и невронната мрежа се съхраняват извън веригата).

Също така, това е разрешен или "частен" блокчейн. Това означава, че за разлика от биткойн блокчейна, където всеки може да записва нови транзакции, само разрешените страни могат да съхраняват нови записи в Архангел блокчейн.

В момента Архангел се изпробва от мрежа от национални правителствени архиви от Обединеното кралство, Естония, Норвегия, Австралия и САЩ: За да съхранява нова информация, всяка участваща страна трябва да се подпише на допълнението. Но докато само националните архиви на участващите страни имат право да добавят записи, всички останали са прочели достъп до blockchain и могат да го използват за валидиране на други видеоклипове срещу архива.

  • Експлоатация на AI и машинно обучение, Deepfakes, сега е по-трудно да се открие AI и машинно обучение Exploit, Deepfakes, сега е по-трудно да се открие
  • Deepfake видеоклипове са тук, а ние не сме готови Deepfake видеоклипове са тук и не сме готови
  • Новият AI на Adobe открива Photoshopped Faces на Adobe AI New AI открива Photoshopped Faces

"Това е приложение на blockchain за обществено благо", казва Коломос. "Според мен единственото разумно използване на blockchain е, когато имате независими организации, които не е задължително да се доверяват една на друга, но те наистина имат този интерес към тази колективна цел на взаимно доверие. И това, което ние искаме да направим, е осигурете националните държавни архиви по целия свят, така че да можем да подпишем тяхната цялост с помощта на тази технология."

Тъй като създаването на подправени видеоклипове става по-лесно, по-бързо и по-достъпно, всеки ще се нуждае от цялата помощ, която може да получи, за да гарантира целостта на своите видео архиви - особено правителствата.

„Смятам, че дълбоките фейкове са почти като надпревара във въоръжаването“, казва Коломос. "Тъй като хората създават все по-убедителни дълбочинни фейкове и някой ден може да стане невъзможно да ги откриете. Ето защо най-доброто, което можете да направите, е да се опитате да докажете произхода на видеоклип."

Може ли нещо да ни предпази от deepfakes? | Бен Диксън