У дома Бизнес Ей и машинно учене експлоатация, дълбоки фейкове, сега е по-трудно да се открие

Ей и машинно учене експлоатация, дълбоки фейкове, сега е по-трудно да се открие

Съдържание:

Видео: Another Top 10 Deepfake Videos (Ноември 2024)

Видео: Another Top 10 Deepfake Videos (Ноември 2024)
Anonim

Докато се насочим към следващия сезон на президентските избори, ще искате да се пазите от потенциалните опасности, които фалшивите онлайн видеоклипове носят чрез използването на изкуствен интелект (AI) и машинно обучение (ML). Използвайки AI софтуер, хората могат да създават дълбоки файкове (съкратено за "задълбочено обучение и фалшиви") видеоклипове, в които ML алгоритмите се използват за извършване на размяна на лица, за да се създаде илюзията, че някой или е казал нещо, което не е казал, или е някой, който са " отново не. Видеоклипове на Deepfake се показват на различни арени, от развлечения до политика до корпоративния свят. Не само, че дълбоко фалшивите видеоклипове могат да повлияят несправедливо на изборите с фалшиви съобщения, но могат да донесат личен смут или да причинят подвеждащи съобщения за марката, ако, да речем, покажат главен изпълнителен директор, който обявява стартиране на продукт или придобиване, което всъщност не се е случило.

Deepfakes са част от категория AI, наречена „Генеративни състезателни мрежи“ или GAN, в която две невронни мрежи се състезават за създаване на снимки или видеоклипове, които изглеждат реални. GANs се състои от генератор, който създава нов набор от данни като фалшив видеоклип, и дискриминатор, който използва ML алгоритъм за синтезиране и сравняване на данни от реалното видео. Генераторът продължава да се опитва да синтезира фалшивото видео със старото, докато дискриминаторът не може да каже, че данните са нови.

Както посочи Стив Гробман, старши вицепрезидент и главен технологичен директор на McAfee по време на конференцията на RSA 2019 през март в Сан Франциско, фалшивите фотографии са около от изобретението на фотографията. Той каза, че промяната на снимки е била проста задача, която можете да изпълнявате в приложение като Adobe Photoshop. Но сега тези видове усъвършенствани възможности за редактиране също се преместват във видео и те го правят с помощта на високо способни и лесно достъпни софтуерни инструменти.

Как се създават Deepfakes

Въпреки че разбирането на AI концепции е полезно, не е необходимо да бъдете учен с данни, за да изградите дълбоко фалшиво видео. Това просто включва следване на някои инструкции онлайн, според Grobman. По време на конференцията на RSA 2019 (вижте видеото по-горе) той разкри видео с дълбоки фейкове заедно с д-р Селесте Фралик, главен учен по данни и старши главен инженер в McAfee. Видеоклипът на deepfake илюстрира заплахата, която тази технология представлява. Гробман и Фралик показаха как държавен служител във видео, казващ нещо опасно, може да подведе обществото, че да смята, че съобщението е истинско.

За да създадат видеоклипа си, Grobman и Fralick изтеглиха софтуер за deepfake. След това те направиха видео на Гробман, свидетелстващ пред Сената на САЩ през 2017 г. и наслагват устата на Фралик върху Гробман.

"Използвах свободно достъпни публични коментари, за да създам и обучавам модел на ML; това ми позволи да разработя дълбокофайк видео с моите думи, излизащи от устата", каза Фралик пред публиката на RSA от сцената. Фралик продължи да казва, че видеоклипове с дълбоки фалшификати могат да бъдат използвани за социална експлоатация и информационна война.

За да направят своето задълбочено видео, Grobman и Fralick използваха инструмент, разработен от Reddit, наречен FakeApp, който използва ML алгоритми и снимки, за да сменя лица във видеоклипове. По време на представянето си на RSA, Гробман обясни следващите стъпки. "Разделихме видеоклиповете на неподвижни изображения, извадихме лицата и ги почистихме, като ги сортирахме и почистихме в Instagram."

Сценариите на Python позволиха на екипа на McAfee да изгради движения на устата, за да може речта на Fralick да съвпада с устата на Grobman. Тогава трябваше да напишат някои персонализирани скриптове. Предизвикателството в създаването на убедителна дълбочина е, когато характеристики като пол, възраст и тон на кожата не съвпадат, каза Гробман.

След това той и Фралик използваха последен алгоритъм на ИИ, за да съпоставят образите на Гробман, свидетелстващи пред Сената, с речта на Фралик. Grobman добави, че са били необходими 12 часа, за да се обучат тези ML алгоритми.

McAfee очерта стъпките, които предприе за създаването на дълбоко фалшиво видео, показано на конференцията RSA 2019. Той използва софтуер за дълбоко фалк, наречен FakeApp, и обучение на ML модели, за да промени видео на Grobman с реч на Fralick. (Кредитна снимка: McAfee).

Последствията от Deepfakes

Създадените от хакер видеоклипове с дълбоки фейкове могат да създадат много проблеми - всичко от правителствените служители, разпространяващи невярна дезинформация, до известни личности да се смущават от видеоклипове, в които наистина не са участвали в компании, които увреждат позициите на борсите на конкурентите. Осъзнавайки тези проблеми, депутатите през септември изпратиха писмо до Даниел Коутс, директор на Националното разузнаване на САЩ, с искане за преразглеждане на заплахата, която представляват дълбоките фейкове. В писмото се предупреждава, че страни като Русия могат да използват дълбоки файкове в социалните медии за разпространение на невярна информация. През декември депутатите въведоха Закона за забрана на дълбоки фалшиви забрани от 2018 г., за да забранят измамите във връзка с „аудиовизуални записи“, които се отнасят до deepfakes. Остава да видим дали законопроектът ще премине.

Както споменахме, знаменитостите могат да търпят смущение от видеоклипове, в които лицата им са насложени над лицата на порно звездите, както беше случаят с Гал Гадот. Или си представете главен изпълнителен директор, който уж обявява новините за продуктите и потъва запасите на компания. Специалистите по сигурността могат да използват ML за откриване на тези видове атаки, но ако не бъдат открити навреме, те могат да нанесат ненужни щети на държава или марка.

„С deepfakes, ако знаете какво правите и знаете към кого да насочите, наистина можете да излезете с убедително видео, което да причини много щети на дадена марка“, казва д-р Чейс Кънингам, главен анализатор в Forrester Research, Той добави, че ако разпространявате тези съобщения в LinkedIn или Twitter или използвате ботов формуляр, "можете да смажете акциите на компания въз основа на тотални фалшиви видеоклипове без известно време усилия".

Чрез deepfake видеоклипове потребителите могат да бъдат подмамени да вярват, че даден продукт може да направи нещо, което не може. Кънингам отбеляза, че ако главният изпълнителен директор на основен автомобилен производител заяви в лошо видео, че компанията вече няма да произвежда автомобили с бензин и след това да разпространи това съобщение в Twitter или LinkedIn в това видео, тогава това действие може лесно да навреди на марката.

„Интересно е, че от моето изследване хората вземат решения въз основа на заглавия и видеоклипове за 37 секунди, каза Канингам.“ Така че можете да си представите, ако можете да получите видео, което работи по-дълго от 37 секунди, можете да накарате хората да вземат решение въз основа на независимо дали са фактически или не. И това е ужасяващо."

Тъй като социалните медии са уязвимо място, където видеоклиповете в дълбоки фейкове могат да станат вирусни, сайтовете за социални медии активно работят за борба със заплахата от дълбоки фейкове. Facebook например разполага с инженерни екипи, които могат да забелязват манипулирани снимки, аудио и видео. В допълнение към използването на софтуер, Facebook (и други компании за социални медии) наемат хора, които да търсят ръчно фейкове.

"Ние разширихме постоянните си усилия за борба с манипулирани медии, за да включим борбата с дълбоките фейкове", заяви в изявление представител на Facebook. „Знаем, че продължаващото появяване на всички форми на манипулирани медии представлява истински предизвикателства за обществото. Ето защо инвестираме в нови технически решения, учим се от академични изследвания и работим с други в бранша за разбиране на дълбоки проблеми и други форми на манипулирани медии."

Не всички Deepfakes са лоши

Както видяхме с образователното видео с дълбоки фейкове от McAfee и комедийните deepfake видеоклипове на телевизия в късна нощ, някои deepfake видеоклипове не са непременно лоши. В действителност, докато политиката може да изложи истинските опасности на deepfake видеоклипове, развлекателната индустрия често просто показва по-лека страна на deepfake видеоклипове.

Например, в неотдавнашен епизод на „Късното шоу със Стивън Колбърт“ беше показано забавно видео с дълбоки фейкове, в което лицето на актьора Стив Бускеми се наслагва над тялото на актриса Дженифър Лорънс. В друг случай комикът Джордан Пилер замени видеоклип на бившия президент Барак Обама, който говори със собствения си глас. В интернет се появиха и хумористични видеоклипове с дълбоки фейкове като тези, в които лицето на президента Тръмп се наслагва над лицето на германския канцлер Ангела Меркел, докато човекът говори.

Отново, ако видеоклиповете в дълбоките фейкове се използват за сатирична или хумористична цел или просто като забавление, платформите за социални медии и дори филмовите продуцентски къщи им позволяват или използват. Например, Facebook позволява този тип съдържание на своята платформа, а Lucasfilm използва вид дигитален отдих, за да представи млада Кари Фишър върху тялото на актрисата Ингвилд Дейла в „Rogue One: A Star Wars Story“.

Grobman на McAfee отбеляза, че някои от технологиите, които стоят зад deepfakes, се използват добре с каскадьорски двойки при създаването на филми, за да се запазят актьорите в безопасност. "Контекстът е всичко. Ако е за комедийни цели и е очевидно, че не е истински, това е нещо, което е законно използване на технологиите", каза Гробман. „Признаването, че може да се използва за всякакви различни цели, е ключово.“

(Изображение за кредит: Statista)

Как да разпознаете видеоклипове Deepfake

McAfee не е единствената фирма за сигурност, която експериментира как да открие фалшиви видеоклипове. В своя документ, предаден на Black Hat 2018, озаглавен „AI Gone Rogue: Extertingting Deep Falks преди те да причинят заплаха“, двама експерти по сигурността на Symantec, водещ отговор за сигурност Vijay Thaware и инженер за разработка на софтуер Ниранджан Агнихотри, пишат, че са създали инструмент за откриване фалшиви видеоклипове, базирани на Google FaceNet. Google FaceNet е невронна мрежова архитектура, която изследователите от Google разработиха, за да помогнат при проверката и разпознаването на лица. Потребителите обучават модел FaceNet върху определено изображение и след това могат да проверят самоличността си по време на тестове.

За да се опита да спре разпространението на дълбоко фалшиви видеоклипове, AI Foundation, нестопанска организация, фокусирана върху взаимодействието между хората и AI, предлага софтуер, наречен „Reality Defender“, за да открие фалшиво съдържание. Той може да сканира изображения и видео, за да види дали са променени с помощта на AI. Ако имат, ще получат „Честен AI воден знак“.

  • Бизнес ръководство за машинно обучение Бизнес ръководство за машинно обучение
  • PornHub, Twitter Забранена AI-модифицирана AI-модифицирана порно PornHub, Twitter забрана AI-модифицирано порно
  • Най-новата технология на Deepfake ще ви танцува като Bruno Mars Най-новата технология Deepfake ще ви танцува като Bruno Mars

Друга стратегия е да се има предвид концепцията на Zero Trust, която означава „никога не се доверявайте, винаги проверявайте“ - мото за киберсигурност, което означава, че ИТ специалистите трябва да потвърдят, че всички потребители са легитимни, преди да предоставят привилегии за достъп. Ще остане скептичен към валидността на видеосъдържанието. Също така ще искате софтуер с възможности за цифрова аналитика, за да откриете фалшиво съдържание.

Търсите Deepfakes

В бъдеще ще трябва да бъдем по-предпазливи с видеосъдържанието и да имаме предвид опасностите, които могат да представляват на обществото, ако бъдат злоупотребявани. Както отбеляза Гробман, „В близко бъдеще хората трябва да бъдат по-скептични към това, което виждат, и да признаят, че видео и аудиото може да бъде създадено“.

Така че, следете скептично вниманието си върху политическите видеоклипове, които гледате, докато тръгваме в следващия изборен сезон, и не се доверявайте на всички видеоклипове с участието на корпоративни лидери. Защото това, което чувате, може да не е това, което е казано в действителност, и подвеждащите дълбоко фалшиви видеоклипове имат потенциал наистина да навредят на нашето общество.

Ей и машинно учене експлоатация, дълбоки фейкове, сега е по-трудно да се открие