ОПАСНА ЛИ Е DEEPFAKE ТЕХНОЛОГИЯТА?

Технологията deepfake съществува от десетки години. През 1994г. филмовата индустрия стана свидетел на това как  Брандън Лий „завършва“ снимките на хит-филма The Crow, дори след като трагично загина на снимачната площадка – продуцентите използваха CGI. Холивуд също така включи Пол Уокър в „Бързи и яростни 7“, където deepfake беше използван, за да може брат му да имитира починалия актьор. Така че възможността да поставите нечий образ на съществуващо видео или цифрово изображение не е нова, но напоследък стана много по- евтина и следователно по- широко достъпна.

Deepfake вече не е скъпа технология, достъпна само за филмовата индустрия. Напредъкът в производството на синтетични медии през последните 4-5 години направи хората по-способни да се възползват от нея. Още през 2017г., когато технологията започна да се разпространява, хората произвеждаха забавни видеоклипове и колажи на знаменитости. Колкото по-популярни стават дълбоките фалшификати, толкова повече хора започват да ги използват за лоши цели. Докато публичните фигури са свикнали да привличат много внимание както по позитивен, така и по негативен начин, технологията deepfake започва да се използва по някои плашещи начини, които могат да навредят на обикновените хора.

Дълбоките фалшификати се използват активно при опити за подкопаване на демокрацията в САЩ. Фалшиви видеоклипове на политици циркулираха в социалните медии, което доведе до решението на Facebook да забрани използването на deepfake. Те оставиха няколко вратички, като например да позволят на сатиричните видеоклипове и изображения да останат, но да се направи граница между сатирата и управляваното от дневния ред съдържание не е лесно. Facebook позволи на дълбоките фалшификати, създадени с по-малко сложни инструменти, също да останат в платформата.

Deepfakes започнаха да се използват и от онлайн хищници. С възможността да заменят лицето на всеки в изображение или видео, хората започнаха да го използват за създаване на порнографско съдържание без съгласие. Например MIT Technology Review публикува диаграма, показваща, че  64% от хората, участвали в проучване, направено в приложението за съобщения Telegram, биха искали да съблекат познати момичета от реалния живот. И технологията deepfake им дава точно тази възможност, изображение на профила, публикувано в социалните медии, е достатъчно, за да генерира такова съдържание.

Технологията deepfake внезапно беше използвана за създаване на явно порно съдържание като отмъщение  и помогна на кибер хулиганите  да намерят нови и иновативни начини за тормоз на хората. Например, жена в Пенсилвания е обвинена за използване на deepfakes за тормоз на мажоретки в училището на дъщеря си. Майката използва променени видеоклипове, за да осъществи кампания за кибертормоз, насочена към момичета, които тя смятала за съперници на дъщеря си.

Изследванията показват, че deepfakes ще продължат да разширяват границите на цифровите медии. Някои хора вярват, че най-добрият начин за борба с дълбоките фалшификати е приемането на NFT. Обаче тези незаменими символи, налични в блокчейн като Ethereum, са на години далеч от това да се превърнат в норма.

Дълбоките фалшификати могат да бъдат опасни и няма лечение за всички. Но трябва да имате предвид, че шансовете да станете жертва на deepfakes се увеличават значително, ако не сте подготвени. Всичко, което трябва да направите, е да преразгледате настройките за поверителност на вашите профили в социалните медии, да инсталирате антивирусен софтуер на всичките си свързани устройства и да се уверите, че имате доверие само на политическо съдържание, идващо от проверени източници.

Panda Media Center

Подобни

DeepSeek V3.2: Най-евтиният висококласов ИИ модел разклаща глобалната надпревара
4.12.2025
DeepSeek
Кибер Коледа 2025 – киберсигурността като мултидисциплинарна екосистема
3.12.2025
thumbnail_e-sec-christmas
Cyber Christmas ’25 показа реалните рискове, които носим в джоба си
3.12.2025
янко
Anthropic: ИИ експлойтите вече са реалност
3.12.2025
Ai4DiAVrpDttefnJnUpnvh-970-80.jpg
Kакво спира прехода към Windows 11 след края на поддръжката на Windows 10
3.12.2025
windows-10-1535765_1280
„Rage bait“ е думата на годината за 2025 според Oxford University Press
2.12.2025
fish-2006060_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Kак да разпознаем и реагираме на фишинг имейл
9.10.2025
phishing-6573326_1280
Черният петък - реални сделки или маркетингов мираж?
27.11.2025
black_cat_Saro_o_Neal_Alamy
Опасен фишинг под прикритието на Ямболския окръжен съд
5.11.2025
phishing

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.