Ето как да разпознавате дълбоките фалшификати

Експертът В.С. Субрахманян споделя пет съвета, за да избегнете измама с модифицирани цифрови артефакти

 

Не всички deepfakes са лоши.

Дълбоките фалшификати – цифрови артефакти, включително снимки, видеоклипове и аудио, които са генерирани или модифицирани с помощта на софтуер с изкуствен интелект – често изглеждат и звучат истински. Съдържанието на дълбоките фалшификати се използва за заблуждаване на зрители, разпространение на фалшиви новини, насаждане на дезинформация и разпространяване на мистификации в интернет.

По-малко известно е, че технологията, която стои зад дълбоките фалшификати, може да се използва и за добро. Тя може да се използва за възпроизвеждане на гласа на изгубен близък, например, или за поставяне на фалшиви карти или комуникации, за да се заблудят потенциални терористи. Тя може също така да забавлява, например като симулира как би изглеждал човек със странна коса на лицето или със смешна шапка.

„Има много положителни приложения на дълбоките фалшификати, въпреки че те не са получили толкова много гласност, колкото отрицателните приложения“, казва В. С. Субрахманян, професор по компютърни науки в Северозападния университет и преподавател в Северозападния институт „Бъфет“ за глобални въпроси.

Все пак негативните или опасните приложения трябва да бъдат издирени.

Субрахманян, който се фокусира върху пресечната точка на изкуствения интелект и проблемите на сигурността, разработва модели, базирани на машинно обучение, за анализ на данни, изучаване на поведенчески модели от данните, прогнозиране на действия и влияние върху резултатите. В средата на 2024 г. той стартира Глобалната онлайн система за откриване на дълбоки фалшификати (GODDS) – нова платформа за откриване на дълбоки фалшификати, която вече е достъпна за ограничен брой проверени журналисти.

За тези, които нямат достъп до GODDS, Субрахманян предложи пет съвета, които да ви помогнат да избегнете да бъдете измамени от фалшификати.

Поставяйте под въпрос това, което виждате и чувате

Всеки, който има достъп до интернет, може да създаде фалшификат. Това означава, че всеки, който има достъп до интернет, може да се превърне в мишена за дълбоки фалшификати.

„Вместо да се опитвате да откриете дали нещо е deepfake или не, елементарното задаване на въпроси може да ви помогне да стигнете до правилния извод“, казва Субрахманян, директор-основател на Лабораторията за сигурност и изкуствен интелект в Северозападния университет.

Търсене на несъответствия

За добро или за лошо, технологията за дълбоки фалшификации и изкуственият интелект продължават да се развиват с бързи темпове. В крайна сметка софтуерните програми ще могат да откриват дълбоките фалшификати по-добре от хората, прогнозира Субрахманян.

Засега в технологията за дълбоки фалшификации има някои недостатъци, които хората могат да открият. ИИ все още се бори с основите на човешкото тяло, като понякога добавя допълнителна цифра или изкривява части по неестествен или невъзможен начин. Физиката на светлината също може да накара генераторите на изкуствен интелект да се спънат.

„Ако не виждате отражение, което изглежда в съответствие с това, което бихме очаквали, или съвместимо с това, което бихме очаквали, трябва да бъдете предпазливи“, каза той.

Освободете се от предразсъдъците

В човешката природа е да се вкореняваме толкова дълбоко в мненията и предубежденията си, че да започнем да ги приемаме за истина. Всъщност хората често търсят източници, които потвърждават собствените им схващания, а измамниците създават дълбоки фалшификати, които подсилват и утвърждават предишни убеждения, за да постигнат собствените си цели.

Субрахманян предупреждава, че когато хората пренебрегват логическата част на мозъка си, защото възприетият факт съвпада с техните убеждения, е по-вероятно да станат жертва на дълбоки фалшификации.

„Вече наблюдаваме нещо, наречено филтриращ балон, при което хората четат новини само от канали, които представят това, което вече мислят, и засилват предразсъдъците, които имат“, казва той. „Някои хора са по-склонни да консумират информация от социалните медии, която потвърждава техните предразсъдъци. Подозирам, че този феномен на филтърния балон ще се задълбочава, освен ако хората не се опитат да намерят по-разнообразни източници на информация.“

Създаване на мерки за удостоверяване

Вече се появиха случаи, в които измамниците използват звукови фалшификати, за да се опитат да подмамят хората да не гласуват за определени политически кандидати, като симулират гласа на кандидата, който казва нещо подстрекателско в обаждания по телефона. Този трик обаче може да стане много по-личен. Аудиофалшификатите могат да се използват и за измама на хора с пари. Ако някой, който звучи като близък приятел или роднина, се обади и каже, че се нуждае от пари, за да се измъкне бързо от затруднение, това може да е дълбоко подправен фалшификат.

За да не се хващате на тази измама, Субрахманян предлага да се установят методи за удостоверяване на самоличността на близките. Това не означава да им задавате въпроси за сигурност като името на първия домашен любимец или първата кола. Вместо това задавайте конкретни въпроси, които само този човек би знаел, като например къде е обядвал наскоро или парка, в който някога е играл футбол. Това може да бъде дори кодова дума, която знаят само роднините.

„Можете да измислите какъвто и да е въпрос, на който е много по-вероятно реален човек да знае отговора, а лице, което иска да извърши измама, използвайки генеративен ИИ, да не знае“, казва Субрахманян.

Едно наум за  платформите на социалните медии

Социалните медии промениха начина, по който хората общуват помежду си. Те могат да споделят актуализации и да поддържат връзка само с няколко натискания на клавиши, но техните канали могат да бъдат изпълнени и с фалшиви видеоклипове и изображения.

Субрахманян заяви, че някои платформи за социални медии са положили изключителни усилия, за да премахнат дълбоките фалшификати. За съжаление, потискането на дълбоките фалшификати може да се окаже акт на потискане на свободата на словото. Субрахманян препоръчва да се проверяват уебсайтове като PolitiFact, за да се получи допълнителна информация дали даден цифров артефакт е дълбоко фалшив или не.

 

По материали от Интернет

Подобни

Практическо ръководство за защита срещу фишинг, рансъмуер и АТО
20.01.2026
hook-111316_640
Преходът от Windows 10 към Linux: Как Flatpak и Fedora променят гейминг и ежедневната работа
15.01.2026
linux
Kак да намалим дигиталния си отпечатък в епохата на постоянна видимост
12.01.2026
virtual-identity-69996_640
Фалшиви уебсайтове: как работят, как да ги разпознаем и как да се защитим
7.01.2026
fake-5205183_640
3ащо надценяваме токсичността в социалните мрежи
23.12.2025
toxic-145897_640
7 новогодишни решения, за да е киберсигурно цялото семейство
22.12.2025
year-9968855_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
ClickFix кампания атакува хотели и туристически компании в България и ЕС
6.01.2026
Blue_screen_of_death-Maurice_Savage-Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.