Очаква се deep fake да се превърнат в по-значим вектор на атаки. Ето как да ги разпознавате.
Дълбокият фалшификат е акт на злонамерено заместване на реални изображения и видеоклипове с изфабрикувани такива, за да се извърши манипулация на информацията. За да се създадат изображения, видео и аудио, които са достатъчно качествени, за да се използват като deep fake, са необходими изкуствен интелект и ML. Такова използване на ИИ, МЛ и заместване на изображения се различава от други видове манипулиране на информация, при които се използват не толкова крайни техники за манипулиране, като изопачаване на информацията, изолиране на части от нея или редактирането ѝ по измамен начин. Етай Маор, старши директор „Стратегия за сигурност“ в Cato Networks, добавя: „За да се добавят усложнения, неотдавнашният напредък и достъпност до текст, генериран от ИИ, като GPT3, вече е използван в комбинация с deep fake (като доказателство за концепция) за създаване на интерактивни, изглеждащи като човешки ботове за разговори“.
Дълбоките фалшификати са с различни форми и размери. Някои са по-прости, а други – по-усъвършенствани. Някои от най-популярните примери за дълбоки фалшификати са:
Подмяната на лица е заместване на лицето във видеоклип или изображение на едно лице с друго. Замяната на лица изисква специализиран софтуер, но не е задължително той да се основава на усъвършенствана технология – днес могат да се намерят дори мобилни приложения, които поддържат смяна на лица. Смяната на лица, която е налична в мобилните приложения, обикновено е ограничена до прости случаи на употреба, като например смяна на снимки на потребителя с лица на актьори във филмови сцени.
Съществува и по-усъвършенствано разменяне на лица, но то изисква повече обучение на модели и код, а в резултат – и графични процесори, което е скъпо и изисква много ресурси. Пример за по-усъвършенстван deep fake за размяна на лица може да се види в този видеоклип, в който Том Круз се разменя с лицето на водещия
Тази подмяна на лицето на Том Круз изисква два часа обучение на графичен процесор, както и дни на професионална обработка на видео след монтажа. Това може да звучи като много сложно и трудоемко, но също така се счита, че тази подмяна е по-проста от други, тъй като водещият е с подобна на Круз прическа и може да имитира гласа му, което означава, че са били необходими по-малко обучение и последваща обработка.
Дълбокият фалшификат „Puppet Master“ е техника, при която образът на движенията на устата на дадено лице се манипулира, за да изглежда, че лицето казва нещо, което всъщност не е казало. В сравнение с размяната на лица, при която се обучава модел на новото, сменено лице, при „Puppet Master“ се обучава модел на лицето от оригиналното изображение и по-специално на движенията на устата.
Ето как изглежда това:
Технологията, която стои зад „Puppet Master“, се основава на синтезиране на маската, т.е. оригиналното изображение, и поставянето му върху модела на лицето, което се превъплъщава, и синхронизиране на устните му.
Третият известен тип дълбоки фалшификации е базиран на аудио. Звуковите дълбоки фалшификати са аудиофайлове, които използват гласа на истински човек и го карат да звучи така, сякаш казва нещо, което никога не е казвал. Аудио фалшификати се създават, като се вземат аудио файлове, към звуците се добавят анотации, въз основа на анотациите се обучава ML модел, който свързва звуците с текста, и след това се генерира нов аудио файл.
Ето как звучи това:
Не всички модифицирани изображения или аудиоклипове са дълбоки фалшификати. Докато дълбоките фалшификати са медии, синтезирани или модифицирани с помощта на изкуствен интелект, евтините поправки са медии, синтезирани или модифицирани с помощта на нискотехнологични методи, които са лесни за откриване. Често те имат изкривявания и са явно манипулирани. Ето как изглежда един евтин фалшификат:
Дълбоките фалшификати са станали по-реалистични и достъпни, а освен това се създават по-бързо от всякога. Това ги превръща в мощен инструмент за въоръжаване. В резултат на това те представляват риск за бизнеса и за държавите. Те могат да се използват за киберпрестъпления, социално инженерство, измами, от държави, които представляват заплаха, за да повлияят на чуждестранни операции и др.
Например дълбокият фалшификат е използван за имитиране на гласа на главен изпълнителен директор и за убеждаване на изпълнителен директор да преведе 243 000 долара по измамна сметка. Етай Маор от Cato Networks казва: „Компрометирането на бизнес имейли и фишинг атаките стават все по-трудни за откриване въз основа на прост анализ на използвания език. Необходим е цялостен подход, като например този, предлаган от решението SASE на един доставчик, който може да открива атаката в различни многобройни точки на задушаване, а не да разчита на изолирани точкови продукти, които са обречени на неуспех“. В друг случай дълбоко фалшифицирана информация е била представена като доказателство по дело за попечителство над деца.
Дълбоките фалшификати могат да се използват и за разпространение на дезинформация, т.е. невярно разпространение на информация с цел да се повлияе на общественото мнение или да се замъгли истината. Например дълбоките фалшификати могат да се използват за представяне на световни лидери и разпалване на атака или за представяне на главен изпълнителен директор и манипулиране на цената на акциите на дадена компания. В други случаи дълбоките фалшификати дават възможност за правдоподобно отричане, при което хората биха могли да отрекат всички медийни източници, като твърдят, че те са дълбоки фалшификати, което създава социален пробив в доверието.
И накрая, дълбоките фалшификати могат да се използват за клевета, т.е. за накърняване на нечия добра репутация. Например чрез създаване на порнография за отмъщение.
Съществуват два основни вида методи за точно откриване на deep fake:
Методите за откриване на ниско ниво разчитат на ML модели, които са обучени да идентифицират артефакти или пикселации, въведени в процеса на генериране на дълбоки фалшификати. Тези артефакти може да са незабележими за човешкото око, но моделите, които са обучени върху реални изображения и изображения на дълбоки фалшификати, са в състояние да ги открият.
Методите за откриване на високо ниво използват модели, които могат да идентифицират семантично значими характеристики. Те включват неестествени движения, като мигане, позиция на главата или уникални маниери, както и несъответствия между фонеми и виземи.
Днес тези методи за откриване се считат за точни. С усъвършенстването на технологията за дълбоки фалшификации обаче се очаква те да станат по-малко ефективни и ще трябва да бъдат актуализирани и подобрени. В допълнение към тези техники всеки от нас може да помогне за откриването на дълбоки фалшификати, като проверява медийния източник на видеоклиповете и изображенията, които получава.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.