Търсене
Close this search box.

От дезинформация до deep fake: Как се манипулира реалността

Очаква се deep fake да се превърнат в по-значим вектор на атаки. Ето как да ги разпознавате.

Какво представляват deep fake?

Дълбокият фалшификат е акт на злонамерено заместване на реални изображения и видеоклипове с изфабрикувани такива, за да се извърши манипулация на информацията. За да се създадат изображения, видео и аудио, които са достатъчно качествени, за да се използват като deep fake, са необходими изкуствен интелект и ML. Такова използване на ИИ, МЛ и заместване на изображения се различава от други видове манипулиране на информация, при които се използват не толкова крайни техники за манипулиране, като изопачаване на информацията, изолиране на части от нея или редактирането ѝ по измамен начин. Етай Маор, старши директор „Стратегия за сигурност“ в Cato Networks, добавя: „За да се добавят усложнения, неотдавнашният напредък и достъпност до текст, генериран от ИИ, като GPT3, вече е използван в комбинация с deep fake (като доказателство за концепция) за създаване на интерактивни, изглеждащи като човешки ботове за разговори“.

Как изглеждат дълбоките фалшификати?

Дълбоките фалшификати са с различни форми и размери. Някои са по-прости, а други – по-усъвършенствани. Някои от най-популярните примери за дълбоки фалшификати са:

Размяна на лица

Подмяната на лица е заместване на лицето във видеоклип или изображение на едно лице с друго. Замяната на лица изисква специализиран софтуер, но не е задължително той да се основава на усъвършенствана технология – днес могат да се намерят дори мобилни приложения, които поддържат смяна на лица. Смяната на лица, която е налична в мобилните приложения, обикновено е ограничена до прости случаи на употреба, като например смяна на снимки на потребителя с лица на актьори във филмови сцени.

Съществува и по-усъвършенствано разменяне на лица, но то изисква повече обучение на модели и код, а в резултат – и графични процесори, което е скъпо и изисква много ресурси. Пример за по-усъвършенстван deep fake за размяна на лица може да се види в този видеоклип, в който Том Круз се разменя с лицето на водещия

Тази подмяна на лицето на Том Круз изисква два часа обучение на графичен процесор, както и дни на професионална обработка на видео след монтажа. Това може да звучи като много сложно и трудоемко, но също така се счита, че тази подмяна е по-проста от други, тъй като водещият е с подобна на Круз прическа и може да имитира гласа му, което означава, че са били необходими по-малко обучение и последваща обработка.

Кукловод (синхронизация на устните)

Дълбокият фалшификат „Puppet Master“ е техника, при която образът на движенията на устата на дадено лице се манипулира, за да изглежда, че лицето казва нещо, което всъщност не е казало. В сравнение с размяната на лица, при която се обучава модел на новото, сменено лице, при „Puppet Master“ се обучава модел на лицето от оригиналното изображение и по-специално на движенията на устата.

Ето как изглежда това:

ВИДЕО

 

Технологията, която стои зад „Puppet Master“, се основава на синтезиране на маската, т.е. оригиналното изображение, и поставянето му върху модела на лицето, което се превъплъщава, и синхронизиране на устните му.

Аудио

Третият известен тип дълбоки фалшификации е базиран на аудио. Звуковите дълбоки фалшификати са аудиофайлове, които използват гласа на истински човек и го карат да звучи така, сякаш казва нещо, което никога не е казвал. Аудио  фалшификати се създават, като се вземат аудио файлове, към звуците се добавят анотации, въз основа на анотациите се обучава ML модел, който свързва звуците с текста, и след това се генерира нов аудио файл.

Ето как звучи това:

ВИДЕО

Дълбоки фалшификати срещу евтини поправки

Не всички модифицирани изображения или аудиоклипове са дълбоки фалшификати. Докато дълбоките фалшификати са медии, синтезирани или модифицирани с помощта на изкуствен интелект, евтините поправки са медии, синтезирани или модифицирани с помощта на нискотехнологични методи, които са лесни за откриване. Често те имат изкривявания и са явно манипулирани. Ето как изглежда един евтин фалшификат:

 

Киберрискът от дълбоките фалшификации

Дълбоките фалшификати са станали по-реалистични и достъпни, а освен това се създават по-бързо от всякога. Това ги превръща в мощен инструмент за въоръжаване. В резултат на това те представляват риск за бизнеса и за държавите. Те могат да се използват за киберпрестъпления, социално инженерство, измами, от държави, които представляват заплаха, за да повлияят на чуждестранни операции и др.

Например дълбокият фалшификат е използван за имитиране на гласа на главен изпълнителен директор и за убеждаване на изпълнителен директор да преведе 243 000 долара по измамна сметка. Етай Маор от Cato Networks казва: „Компрометирането на бизнес имейли и фишинг атаките стават все по-трудни за откриване въз основа на прост анализ на използвания език. Необходим е цялостен подход, като например този, предлаган от решението SASE на един доставчик, който може да открива атаката в различни многобройни точки на задушаване, а не да разчита на изолирани точкови продукти, които са обречени на неуспех“. В друг случай дълбоко фалшифицирана информация е била представена като доказателство по дело за попечителство над деца.

Дълбоките фалшификати могат да се използват и за разпространение на дезинформация, т.е. невярно разпространение на информация с цел да се повлияе на общественото мнение или да се замъгли истината. Например дълбоките фалшификати могат да се използват за представяне на световни лидери и разпалване на атака или за представяне на главен изпълнителен директор и манипулиране на цената на акциите на дадена компания. В други случаи дълбоките фалшификати дават възможност за правдоподобно отричане, при което хората биха могли да отрекат всички медийни източници, като твърдят, че те са дълбоки фалшификати, което създава социален пробив в доверието.

И накрая, дълбоките фалшификати могат да се използват за клевета, т.е. за накърняване на нечия добра репутация. Например чрез създаване на порнография за отмъщение.

 

Как да откриваме deep fake

Съществуват два основни вида методи за точно откриване на deep fake:

  • Методи за откриване на ниско ниво
  • Методи за откриване на високо ниво

Методи за откриване на ниско ниво

Методите за откриване на ниско ниво разчитат на ML модели, които са обучени да идентифицират артефакти или пикселации, въведени в процеса на генериране на дълбоки фалшификати. Тези артефакти може да са незабележими за човешкото око, но моделите, които са обучени върху реални изображения и изображения на дълбоки фалшификати, са в състояние да ги открият.

 

Методи за откриване на високо ниво

Методите за откриване на високо ниво използват модели, които могат да идентифицират семантично значими характеристики. Те включват неестествени движения, като мигане, позиция на главата или уникални маниери, както и несъответствия между фонеми и виземи.

Днес тези методи за откриване се считат за точни. С усъвършенстването  на технологията за дълбоки фалшификации обаче се очаква те да станат по-малко ефективни и ще трябва да бъдат актуализирани и подобрени. В допълнение към тези техники всеки от нас може да помогне за откриването на дълбоки фалшификати, като проверява медийния източник на видеоклиповете и изображенията, които получава.

Източник: The Hacker News

Подобни публикации

27 февруари 2024

Севернокорейските хакери атакуват разработчици ...

Нови данни на Phylum показват, че набор от фалшиви пакети npm, откр...
27 февруари 2024

Защо автоматизацията е от съществено значение з...

Областта на киберсигурността се разширява, което води след себе си ...
27 февруари 2024

Киберсигурност - четки за зъби, дронове и джуджета

Звучи като виц, но всички тези истории са станали популярни през по...
27 февруари 2024

САЩ и НАТО: Руските хакери преминават към облач...

Членовете на разузнавателния алианс „Пет очи“ (FVEY) пр...
27 февруари 2024

ThyssenKrupp потвърждава кибератака

Стоманодобивният гигант ThyssenKrupp потвърждава, че миналата седми...
27 февруари 2024

SubdoMailing - развива се агресивна измамна кам...

Мащабна кампания за рекламни измами, наречена „SubdoMailing&#...
27 февруари 2024

Реакция на пробива в сигурността на AnyDesk с р...

Нарушението и реакцията на AnyDesk На 2 февруари приложението за от...
26 февруари 2024

Организациите са изправени пред големи санкции ...

Това може да се превърне в кошмар за правоприлагащите органи –...
Бъдете социални
Още по темата
22/02/2024

Зловреден софтуер за iOS и ...

Югоизточна Азия научава по трудния начин,...
21/02/2024

Adobe, Google, Meta, Micros...

Споразумението обхваща инициативи за създаване на...
14/02/2024

Deepfake демокрация: Технол...

Неотдавнашните събития, включително генерираното от изкуствен...
Последно добавени
27/02/2024

Севернокорейските хакери ат...

Нови данни на Phylum показват, че...
27/02/2024

Защо автоматизацията е от с...

Областта на киберсигурността се разширява, което...
27/02/2024

Киберсигурност - четки за з...

Звучи като виц, но всички тези...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!