От дезинформация до deep fake: Как се манипулира реалността

Очаква се deep fake да се превърнат в по-значим вектор на атаки. Ето как да ги разпознавате.

Какво представляват deep fake?

Дълбокият фалшификат е акт на злонамерено заместване на реални изображения и видеоклипове с изфабрикувани такива, за да се извърши манипулация на информацията. За да се създадат изображения, видео и аудио, които са достатъчно качествени, за да се използват като deep fake, са необходими изкуствен интелект и ML. Такова използване на ИИ, МЛ и заместване на изображения се различава от други видове манипулиране на информация, при които се използват не толкова крайни техники за манипулиране, като изопачаване на информацията, изолиране на части от нея или редактирането ѝ по измамен начин. Етай Маор, старши директор „Стратегия за сигурност“ в Cato Networks, добавя: „За да се добавят усложнения, неотдавнашният напредък и достъпност до текст, генериран от ИИ, като GPT3, вече е използван в комбинация с deep fake (като доказателство за концепция) за създаване на интерактивни, изглеждащи като човешки ботове за разговори“.

Как изглеждат дълбоките фалшификати?

Дълбоките фалшификати са с различни форми и размери. Някои са по-прости, а други – по-усъвършенствани. Някои от най-популярните примери за дълбоки фалшификати са:

Размяна на лица

Подмяната на лица е заместване на лицето във видеоклип или изображение на едно лице с друго. Замяната на лица изисква специализиран софтуер, но не е задължително той да се основава на усъвършенствана технология – днес могат да се намерят дори мобилни приложения, които поддържат смяна на лица. Смяната на лица, която е налична в мобилните приложения, обикновено е ограничена до прости случаи на употреба, като например смяна на снимки на потребителя с лица на актьори във филмови сцени.

Съществува и по-усъвършенствано разменяне на лица, но то изисква повече обучение на модели и код, а в резултат – и графични процесори, което е скъпо и изисква много ресурси. Пример за по-усъвършенстван deep fake за размяна на лица може да се види в този видеоклип, в който Том Круз се разменя с лицето на водещия

Тази подмяна на лицето на Том Круз изисква два часа обучение на графичен процесор, както и дни на професионална обработка на видео след монтажа. Това може да звучи като много сложно и трудоемко, но също така се счита, че тази подмяна е по-проста от други, тъй като водещият е с подобна на Круз прическа и може да имитира гласа му, което означава, че са били необходими по-малко обучение и последваща обработка.

Кукловод (синхронизация на устните)

Дълбокият фалшификат „Puppet Master“ е техника, при която образът на движенията на устата на дадено лице се манипулира, за да изглежда, че лицето казва нещо, което всъщност не е казало. В сравнение с размяната на лица, при която се обучава модел на новото, сменено лице, при „Puppet Master“ се обучава модел на лицето от оригиналното изображение и по-специално на движенията на устата.

Ето как изглежда това:

ВИДЕО

 

Технологията, която стои зад „Puppet Master“, се основава на синтезиране на маската, т.е. оригиналното изображение, и поставянето му върху модела на лицето, което се превъплъщава, и синхронизиране на устните му.

Аудио

Третият известен тип дълбоки фалшификации е базиран на аудио. Звуковите дълбоки фалшификати са аудиофайлове, които използват гласа на истински човек и го карат да звучи така, сякаш казва нещо, което никога не е казвал. Аудио  фалшификати се създават, като се вземат аудио файлове, към звуците се добавят анотации, въз основа на анотациите се обучава ML модел, който свързва звуците с текста, и след това се генерира нов аудио файл.

Ето как звучи това:

ВИДЕО

Дълбоки фалшификати срещу евтини поправки

Не всички модифицирани изображения или аудиоклипове са дълбоки фалшификати. Докато дълбоките фалшификати са медии, синтезирани или модифицирани с помощта на изкуствен интелект, евтините поправки са медии, синтезирани или модифицирани с помощта на нискотехнологични методи, които са лесни за откриване. Често те имат изкривявания и са явно манипулирани. Ето как изглежда един евтин фалшификат:

 

Киберрискът от дълбоките фалшификации

Дълбоките фалшификати са станали по-реалистични и достъпни, а освен това се създават по-бързо от всякога. Това ги превръща в мощен инструмент за въоръжаване. В резултат на това те представляват риск за бизнеса и за държавите. Те могат да се използват за киберпрестъпления, социално инженерство, измами, от държави, които представляват заплаха, за да повлияят на чуждестранни операции и др.

Например дълбокият фалшификат е използван за имитиране на гласа на главен изпълнителен директор и за убеждаване на изпълнителен директор да преведе 243 000 долара по измамна сметка. Етай Маор от Cato Networks казва: „Компрометирането на бизнес имейли и фишинг атаките стават все по-трудни за откриване въз основа на прост анализ на използвания език. Необходим е цялостен подход, като например този, предлаган от решението SASE на един доставчик, който може да открива атаката в различни многобройни точки на задушаване, а не да разчита на изолирани точкови продукти, които са обречени на неуспех“. В друг случай дълбоко фалшифицирана информация е била представена като доказателство по дело за попечителство над деца.

Дълбоките фалшификати могат да се използват и за разпространение на дезинформация, т.е. невярно разпространение на информация с цел да се повлияе на общественото мнение или да се замъгли истината. Например дълбоките фалшификати могат да се използват за представяне на световни лидери и разпалване на атака или за представяне на главен изпълнителен директор и манипулиране на цената на акциите на дадена компания. В други случаи дълбоките фалшификати дават възможност за правдоподобно отричане, при което хората биха могли да отрекат всички медийни източници, като твърдят, че те са дълбоки фалшификати, което създава социален пробив в доверието.

И накрая, дълбоките фалшификати могат да се използват за клевета, т.е. за накърняване на нечия добра репутация. Например чрез създаване на порнография за отмъщение.

 

Как да откриваме deep fake

Съществуват два основни вида методи за точно откриване на deep fake:

  • Методи за откриване на ниско ниво
  • Методи за откриване на високо ниво

Методи за откриване на ниско ниво

Методите за откриване на ниско ниво разчитат на ML модели, които са обучени да идентифицират артефакти или пикселации, въведени в процеса на генериране на дълбоки фалшификати. Тези артефакти може да са незабележими за човешкото око, но моделите, които са обучени върху реални изображения и изображения на дълбоки фалшификати, са в състояние да ги открият.

 

Методи за откриване на високо ниво

Методите за откриване на високо ниво използват модели, които могат да идентифицират семантично значими характеристики. Те включват неестествени движения, като мигане, позиция на главата или уникални маниери, както и несъответствия между фонеми и виземи.

Днес тези методи за откриване се считат за точни. С усъвършенстването  на технологията за дълбоки фалшификации обаче се очаква те да станат по-малко ефективни и ще трябва да бъдат актуализирани и подобрени. В допълнение към тези техники всеки от нас може да помогне за откриването на дълбоки фалшификати, като проверява медийния източник на видеоклиповете и изображенията, които получава.

Източник: The Hacker News

Подобни публикации

27 септември 2023

Нов ZeroFont фишинг подвежда Outlook да показва...

Хакерите използват нов трик за използване на нулеви шрифтове в имей...
27 септември 2023

Google присвоява нов максимален рейтинг CVE на ...

Google е определила нов CVE ID (CVE-2023-5129) за уязвимостта в сиг...
27 септември 2023

Нова киберпрестъпна група е свързана със 7 фам...

Експерти по киберсигурност разкриха нова група за киберпрестъпления...
27 септември 2023

Microsoft разпространява Passkeys в Windows 11

Днес Microsoft официално въвежда поддръжка на клавишите passskeys в...
27 септември 2023

Излязоха резултатите от оценката на MITRE ATT&a...

Задълбочените, независими тестове са жизненоважен ресурс за анализи...
26 септември 2023

WatchGuard получи най-високото признание

WatchGuard е обявена за лидер в последния доклад на G2 Grid и е отл...
26 септември 2023

WatchGuard с награда за отлични постижения в об...

Имаме удоволствието да споделим, че WatchGuard е обявена за победит...
26 септември 2023

Рансъмуерът Akira мутира и се насочва към систе...

Откакто се появи като заплаха през март, рансъмуерът Arika продължи...
26 септември 2023

Разликите между локалната и облачната киберсигу...

Разликата между управлението на киберсигурността в локални и облачн...
Бъдете социални
Още по темата
07/06/2023

Секс изнудвачите вече създ...

Федералното бюро за разследване (ФБР) предупреждава...
01/11/2022

Deepfake в реално време - е...

Видеоразговорите между водещи политици и дълбоко...
19/09/2022

Как да отличите фалшиво видео

Фалшивите видеоклипове събират милиони гледания в...
Последно добавени
27/09/2023

Нов ZeroFont фишинг подвежд...

Хакерите използват нов трик за използване...
27/09/2023

Google присвоява нов максим...

Google е определила нов CVE ID...
27/09/2023

Нова киберпрестъпна група е...

Експерти по киберсигурност разкриха нова група...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!