Очаква се deep fake да се превърнат в по-значим вектор на атаки. Ето как да ги разпознавате.

Какво представляват deep fake?

Дълбокият фалшификат е акт на злонамерено заместване на реални изображения и видеоклипове с изфабрикувани такива, за да се извърши манипулация на информацията. За да се създадат изображения, видео и аудио, които са достатъчно качествени, за да се използват като deep fake, са необходими изкуствен интелект и ML. Такова използване на ИИ, МЛ и заместване на изображения се различава от други видове манипулиране на информация, при които се използват не толкова крайни техники за манипулиране, като изопачаване на информацията, изолиране на части от нея или редактирането ѝ по измамен начин. Етай Маор, старши директор „Стратегия за сигурност“ в Cato Networks, добавя: „За да се добавят усложнения, неотдавнашният напредък и достъпност до текст, генериран от ИИ, като GPT3, вече е използван в комбинация с deep fake (като доказателство за концепция) за създаване на интерактивни, изглеждащи като човешки ботове за разговори“.

Как изглеждат дълбоките фалшификати?

Дълбоките фалшификати са с различни форми и размери. Някои са по-прости, а други – по-усъвършенствани. Някои от най-популярните примери за дълбоки фалшификати са:

Размяна на лица

Подмяната на лица е заместване на лицето във видеоклип или изображение на едно лице с друго. Замяната на лица изисква специализиран софтуер, но не е задължително той да се основава на усъвършенствана технология – днес могат да се намерят дори мобилни приложения, които поддържат смяна на лица. Смяната на лица, която е налична в мобилните приложения, обикновено е ограничена до прости случаи на употреба, като например смяна на снимки на потребителя с лица на актьори във филмови сцени.

Съществува и по-усъвършенствано разменяне на лица, но то изисква повече обучение на модели и код, а в резултат – и графични процесори, което е скъпо и изисква много ресурси. Пример за по-усъвършенстван deep fake за размяна на лица може да се види в този видеоклип, в който Том Круз се разменя с лицето на водещия

Тази подмяна на лицето на Том Круз изисква два часа обучение на графичен процесор, както и дни на професионална обработка на видео след монтажа. Това може да звучи като много сложно и трудоемко, но също така се счита, че тази подмяна е по-проста от други, тъй като водещият е с подобна на Круз прическа и може да имитира гласа му, което означава, че са били необходими по-малко обучение и последваща обработка.

Кукловод (синхронизация на устните)

Дълбокият фалшификат „Puppet Master“ е техника, при която образът на движенията на устата на дадено лице се манипулира, за да изглежда, че лицето казва нещо, което всъщност не е казало. В сравнение с размяната на лица, при която се обучава модел на новото, сменено лице, при „Puppet Master“ се обучава модел на лицето от оригиналното изображение и по-специално на движенията на устата.

Ето как изглежда това:

ВИДЕО

 

Технологията, която стои зад „Puppet Master“, се основава на синтезиране на маската, т.е. оригиналното изображение, и поставянето му върху модела на лицето, което се превъплъщава, и синхронизиране на устните му.

Аудио

Третият известен тип дълбоки фалшификации е базиран на аудио. Звуковите дълбоки фалшификати са аудиофайлове, които използват гласа на истински човек и го карат да звучи така, сякаш казва нещо, което никога не е казвал. Аудио  фалшификати се създават, като се вземат аудио файлове, към звуците се добавят анотации, въз основа на анотациите се обучава ML модел, който свързва звуците с текста, и след това се генерира нов аудио файл.

Ето как звучи това:

ВИДЕО

Дълбоки фалшификати срещу евтини поправки

Не всички модифицирани изображения или аудиоклипове са дълбоки фалшификати. Докато дълбоките фалшификати са медии, синтезирани или модифицирани с помощта на изкуствен интелект, евтините поправки са медии, синтезирани или модифицирани с помощта на нискотехнологични методи, които са лесни за откриване. Често те имат изкривявания и са явно манипулирани. Ето как изглежда един евтин фалшификат:

 

Киберрискът от дълбоките фалшификации

Дълбоките фалшификати са станали по-реалистични и достъпни, а освен това се създават по-бързо от всякога. Това ги превръща в мощен инструмент за въоръжаване. В резултат на това те представляват риск за бизнеса и за държавите. Те могат да се използват за киберпрестъпления, социално инженерство, измами, от държави, които представляват заплаха, за да повлияят на чуждестранни операции и др.

Например дълбокият фалшификат е използван за имитиране на гласа на главен изпълнителен директор и за убеждаване на изпълнителен директор да преведе 243 000 долара по измамна сметка. Етай Маор от Cato Networks казва: „Компрометирането на бизнес имейли и фишинг атаките стават все по-трудни за откриване въз основа на прост анализ на използвания език. Необходим е цялостен подход, като например този, предлаган от решението SASE на един доставчик, който може да открива атаката в различни многобройни точки на задушаване, а не да разчита на изолирани точкови продукти, които са обречени на неуспех“. В друг случай дълбоко фалшифицирана информация е била представена като доказателство по дело за попечителство над деца.

Дълбоките фалшификати могат да се използват и за разпространение на дезинформация, т.е. невярно разпространение на информация с цел да се повлияе на общественото мнение или да се замъгли истината. Например дълбоките фалшификати могат да се използват за представяне на световни лидери и разпалване на атака или за представяне на главен изпълнителен директор и манипулиране на цената на акциите на дадена компания. В други случаи дълбоките фалшификати дават възможност за правдоподобно отричане, при което хората биха могли да отрекат всички медийни източници, като твърдят, че те са дълбоки фалшификати, което създава социален пробив в доверието.

И накрая, дълбоките фалшификати могат да се използват за клевета, т.е. за накърняване на нечия добра репутация. Например чрез създаване на порнография за отмъщение.

 

Как да откриваме deep fake

Съществуват два основни вида методи за точно откриване на deep fake:

  • Методи за откриване на ниско ниво
  • Методи за откриване на високо ниво

Методи за откриване на ниско ниво

Методите за откриване на ниско ниво разчитат на ML модели, които са обучени да идентифицират артефакти или пикселации, въведени в процеса на генериране на дълбоки фалшификати. Тези артефакти може да са незабележими за човешкото око, но моделите, които са обучени върху реални изображения и изображения на дълбоки фалшификати, са в състояние да ги открият.

 

Методи за откриване на високо ниво

Методите за откриване на високо ниво използват модели, които могат да идентифицират семантично значими характеристики. Те включват неестествени движения, като мигане, позиция на главата или уникални маниери, както и несъответствия между фонеми и виземи.

Днес тези методи за откриване се считат за точни. С усъвършенстването  на технологията за дълбоки фалшификации обаче се очаква те да станат по-малко ефективни и ще трябва да бъдат актуализирани и подобрени. В допълнение към тези техники всеки от нас може да помогне за откриването на дълбоки фалшификати, като проверява медийния източник на видеоклиповете и изображенията, които получава.

Източник: The Hacker News

Подобни публикации

7 февруари 2025

7 стъпки към подобряване на киберустойчивостта ...

В днешно време повечето аспекти на бизнеса са цифровизирани и е от ...
7 февруари 2025

Hападателите използват открити ключове на ASP.N...

Microsoft предупреждава, че нападателите внедряват зловреден софтуе...
7 февруари 2025

Законодателите от Камарата забраняват приложени...

Двупартийно дуо в Камарата на представителите на САЩ предлага закон...
7 февруари 2025

Zimperium откри 1 000 приложения, използвани в ...

Фирмата за мобилна сигурност Zimperium е разкрила широка злонамерен...
7 февруари 2025

Astra и Invary набираха милиони за AI-Pentesti...

Тази седмица стартиращите компании за киберсигурност Astra Security...
7 февруари 2025

Хакер, атакувал НАТО и армията на САЩ, е аресту...

Испанските власти обявиха, че е арестувано лице, заподозряно като х...
6 февруари 2025

Нигерия с успехи в киберсигурността, въпреки че...

Правителството на Нигерия предприе по-строги мерки срещу финансовит...
6 февруари 2025

Нападателите се насочват към образователния сек...

Кампания за фишинг се възползва от услугата Microsoft Active Direct...
6 февруари 2025

Руските хакери са използвали 0-Day уязвимост в ...

Руски групи за заплахи са провеждали кампании за кибершпионаж срещу...
Бъдете социални
Още по темата
03/02/2025

Ето как да разпознавате дъл...

Експертът В.С. Субрахманян споделя пет съвета,...
02/02/2025

Неврокогнитивно въздействие...

В свят, в който компютърно генерираните...
01/02/2025

Наруши ли Channel 4 закона ...

Експерти предупредиха, че използването от Channel...
Последно добавени
07/02/2025

7 стъпки към подобряване на...

В днешно време повечето аспекти на...
07/02/2025

Hападателите използват откр...

Microsoft предупреждава, че нападателите внедряват зловреден...
07/02/2025

Законодателите от Камарата ...

Двупартийно дуо в Камарата на представителите...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!