Търсене
Close this search box.

Очаква се deep fake да се превърнат в по-значим вектор на атаки. Ето как да ги разпознавате.

Какво представляват deep fake?

Дълбокият фалшификат е акт на злонамерено заместване на реални изображения и видеоклипове с изфабрикувани такива, за да се извърши манипулация на информацията. За да се създадат изображения, видео и аудио, които са достатъчно качествени, за да се използват като deep fake, са необходими изкуствен интелект и ML. Такова използване на ИИ, МЛ и заместване на изображения се различава от други видове манипулиране на информация, при които се използват не толкова крайни техники за манипулиране, като изопачаване на информацията, изолиране на части от нея или редактирането ѝ по измамен начин. Етай Маор, старши директор „Стратегия за сигурност“ в Cato Networks, добавя: „За да се добавят усложнения, неотдавнашният напредък и достъпност до текст, генериран от ИИ, като GPT3, вече е използван в комбинация с deep fake (като доказателство за концепция) за създаване на интерактивни, изглеждащи като човешки ботове за разговори“.

Как изглеждат дълбоките фалшификати?

Дълбоките фалшификати са с различни форми и размери. Някои са по-прости, а други – по-усъвършенствани. Някои от най-популярните примери за дълбоки фалшификати са:

Размяна на лица

Подмяната на лица е заместване на лицето във видеоклип или изображение на едно лице с друго. Замяната на лица изисква специализиран софтуер, но не е задължително той да се основава на усъвършенствана технология – днес могат да се намерят дори мобилни приложения, които поддържат смяна на лица. Смяната на лица, която е налична в мобилните приложения, обикновено е ограничена до прости случаи на употреба, като например смяна на снимки на потребителя с лица на актьори във филмови сцени.

Съществува и по-усъвършенствано разменяне на лица, но то изисква повече обучение на модели и код, а в резултат – и графични процесори, което е скъпо и изисква много ресурси. Пример за по-усъвършенстван deep fake за размяна на лица може да се види в този видеоклип, в който Том Круз се разменя с лицето на водещия

Тази подмяна на лицето на Том Круз изисква два часа обучение на графичен процесор, както и дни на професионална обработка на видео след монтажа. Това може да звучи като много сложно и трудоемко, но също така се счита, че тази подмяна е по-проста от други, тъй като водещият е с подобна на Круз прическа и може да имитира гласа му, което означава, че са били необходими по-малко обучение и последваща обработка.

Кукловод (синхронизация на устните)

Дълбокият фалшификат „Puppet Master“ е техника, при която образът на движенията на устата на дадено лице се манипулира, за да изглежда, че лицето казва нещо, което всъщност не е казало. В сравнение с размяната на лица, при която се обучава модел на новото, сменено лице, при „Puppet Master“ се обучава модел на лицето от оригиналното изображение и по-специално на движенията на устата.

Ето как изглежда това:

ВИДЕО

 

Технологията, която стои зад „Puppet Master“, се основава на синтезиране на маската, т.е. оригиналното изображение, и поставянето му върху модела на лицето, което се превъплъщава, и синхронизиране на устните му.

Аудио

Третият известен тип дълбоки фалшификации е базиран на аудио. Звуковите дълбоки фалшификати са аудиофайлове, които използват гласа на истински човек и го карат да звучи така, сякаш казва нещо, което никога не е казвал. Аудио  фалшификати се създават, като се вземат аудио файлове, към звуците се добавят анотации, въз основа на анотациите се обучава ML модел, който свързва звуците с текста, и след това се генерира нов аудио файл.

Ето как звучи това:

ВИДЕО

Дълбоки фалшификати срещу евтини поправки

Не всички модифицирани изображения или аудиоклипове са дълбоки фалшификати. Докато дълбоките фалшификати са медии, синтезирани или модифицирани с помощта на изкуствен интелект, евтините поправки са медии, синтезирани или модифицирани с помощта на нискотехнологични методи, които са лесни за откриване. Често те имат изкривявания и са явно манипулирани. Ето как изглежда един евтин фалшификат:

 

Киберрискът от дълбоките фалшификации

Дълбоките фалшификати са станали по-реалистични и достъпни, а освен това се създават по-бързо от всякога. Това ги превръща в мощен инструмент за въоръжаване. В резултат на това те представляват риск за бизнеса и за държавите. Те могат да се използват за киберпрестъпления, социално инженерство, измами, от държави, които представляват заплаха, за да повлияят на чуждестранни операции и др.

Например дълбокият фалшификат е използван за имитиране на гласа на главен изпълнителен директор и за убеждаване на изпълнителен директор да преведе 243 000 долара по измамна сметка. Етай Маор от Cato Networks казва: „Компрометирането на бизнес имейли и фишинг атаките стават все по-трудни за откриване въз основа на прост анализ на използвания език. Необходим е цялостен подход, като например този, предлаган от решението SASE на един доставчик, който може да открива атаката в различни многобройни точки на задушаване, а не да разчита на изолирани точкови продукти, които са обречени на неуспех“. В друг случай дълбоко фалшифицирана информация е била представена като доказателство по дело за попечителство над деца.

Дълбоките фалшификати могат да се използват и за разпространение на дезинформация, т.е. невярно разпространение на информация с цел да се повлияе на общественото мнение или да се замъгли истината. Например дълбоките фалшификати могат да се използват за представяне на световни лидери и разпалване на атака или за представяне на главен изпълнителен директор и манипулиране на цената на акциите на дадена компания. В други случаи дълбоките фалшификати дават възможност за правдоподобно отричане, при което хората биха могли да отрекат всички медийни източници, като твърдят, че те са дълбоки фалшификати, което създава социален пробив в доверието.

И накрая, дълбоките фалшификати могат да се използват за клевета, т.е. за накърняване на нечия добра репутация. Например чрез създаване на порнография за отмъщение.

 

Как да откриваме deep fake

Съществуват два основни вида методи за точно откриване на deep fake:

  • Методи за откриване на ниско ниво
  • Методи за откриване на високо ниво

Методи за откриване на ниско ниво

Методите за откриване на ниско ниво разчитат на ML модели, които са обучени да идентифицират артефакти или пикселации, въведени в процеса на генериране на дълбоки фалшификати. Тези артефакти може да са незабележими за човешкото око, но моделите, които са обучени върху реални изображения и изображения на дълбоки фалшификати, са в състояние да ги открият.

 

Методи за откриване на високо ниво

Методите за откриване на високо ниво използват модели, които могат да идентифицират семантично значими характеристики. Те включват неестествени движения, като мигане, позиция на главата или уникални маниери, както и несъответствия между фонеми и виземи.

Днес тези методи за откриване се считат за точни. С усъвършенстването  на технологията за дълбоки фалшификации обаче се очаква те да станат по-малко ефективни и ще трябва да бъдат актуализирани и подобрени. В допълнение към тези техники всеки от нас може да помогне за откриването на дълбоки фалшификати, като проверява медийния източник на видеоклиповете и изображенията, които получава.

Източник: The Hacker News

Подобни публикации

3 ноември 2024

Използван е бъг RCE в Microsoft SharePoint за п...

Наскоро разкритата уязвимост на Microsoft SharePoint за отдалечено ...
3 ноември 2024

Обходен път поправя замръзване при копиране на...

Microsoft разследва известен проблем, който засяга клиентите на Mic...
3 ноември 2024

Рансъмуерът Cactus удря HACLA

Жилищната администрация на град Лос Анджелис (HACLA), един от най-г...
3 ноември 2024

Пазарът на труда в киберсигурността стагнира

Проучването на ISC2 за работната сила в областта на киберсигурностт...
2 ноември 2024

Новото разширение за Chrome ChatGPT Search прил...

Новото разширение за Chrome на OpenAI „ChatGPT search“ не прилича н...
2 ноември 2024

Потребителите на Azure Virtual Desktop с пробле...

Microsoft предупреди клиентите, че може да се появят до 30 минути ч...
Бъдете социални
Още по темата
24/10/2024

Reality Defender получава 3...

Reality Defender, нюйоркски стартъп, работещ по...
01/10/2024

Deepfake Дмитро Кулеба се с...

По-рано този месец сенатор Бен Кардин...
16/08/2024

Мета се пълни с дълбоки фал...

Deepfake видеоклипове с министър-председателя на Обединеното...
Последно добавени
03/11/2024

Използван е бъг RCE в Micro...

Наскоро разкритата уязвимост на Microsoft SharePoint...
03/11/2024

Обходен път поправя замръз...

Microsoft разследва известен проблем, който засяга...
03/11/2024

Рансъмуерът Cactus удря HACLA

Жилищната администрация на град Лос Анджелис...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!