Експертът В.С. Субрахманян споделя пет съвета, за да избегнете измама с модифицирани цифрови артефакти

 

Не всички deepfakes са лоши.

Дълбоките фалшификати – цифрови артефакти, включително снимки, видеоклипове и аудио, които са генерирани или модифицирани с помощта на софтуер с изкуствен интелект – често изглеждат и звучат истински. Съдържанието на дълбоките фалшификати се използва за заблуждаване на зрители, разпространение на фалшиви новини, насаждане на дезинформация и разпространяване на мистификации в интернет.

По-малко известно е, че технологията, която стои зад дълбоките фалшификати, може да се използва и за добро. Тя може да се използва за възпроизвеждане на гласа на изгубен близък, например, или за поставяне на фалшиви карти или комуникации, за да се заблудят потенциални терористи. Тя може също така да забавлява, например като симулира как би изглеждал човек със странна коса на лицето или със смешна шапка.

„Има много положителни приложения на дълбоките фалшификати, въпреки че те не са получили толкова много гласност, колкото отрицателните приложения“, казва В. С. Субрахманян, професор по компютърни науки в Северозападния университет и преподавател в Северозападния институт „Бъфет“ за глобални въпроси.

Все пак негативните или опасните приложения трябва да бъдат издирени.

Субрахманян, който се фокусира върху пресечната точка на изкуствения интелект и проблемите на сигурността, разработва модели, базирани на машинно обучение, за анализ на данни, изучаване на поведенчески модели от данните, прогнозиране на действия и влияние върху резултатите. В средата на 2024 г. той стартира Глобалната онлайн система за откриване на дълбоки фалшификати (GODDS) – нова платформа за откриване на дълбоки фалшификати, която вече е достъпна за ограничен брой проверени журналисти.

За тези, които нямат достъп до GODDS, Субрахманян предложи пет съвета, които да ви помогнат да избегнете да бъдете измамени от фалшификати.

Поставяйте под въпрос това, което виждате и чувате

Всеки, който има достъп до интернет, може да създаде фалшификат. Това означава, че всеки, който има достъп до интернет, може да се превърне в мишена за дълбоки фалшификати.

„Вместо да се опитвате да откриете дали нещо е deepfake или не, елементарното задаване на въпроси може да ви помогне да стигнете до правилния извод“, казва Субрахманян, директор-основател на Лабораторията за сигурност и изкуствен интелект в Северозападния университет.

Търсене на несъответствия

За добро или за лошо, технологията за дълбоки фалшификации и изкуственият интелект продължават да се развиват с бързи темпове. В крайна сметка софтуерните програми ще могат да откриват дълбоките фалшификати по-добре от хората, прогнозира Субрахманян.

Засега в технологията за дълбоки фалшификации има някои недостатъци, които хората могат да открият. ИИ все още се бори с основите на човешкото тяло, като понякога добавя допълнителна цифра или изкривява части по неестествен или невъзможен начин. Физиката на светлината също може да накара генераторите на изкуствен интелект да се спънат.

„Ако не виждате отражение, което изглежда в съответствие с това, което бихме очаквали, или съвместимо с това, което бихме очаквали, трябва да бъдете предпазливи“, каза той.

Освободете се от предразсъдъците

В човешката природа е да се вкореняваме толкова дълбоко в мненията и предубежденията си, че да започнем да ги приемаме за истина. Всъщност хората често търсят източници, които потвърждават собствените им схващания, а измамниците създават дълбоки фалшификати, които подсилват и утвърждават предишни убеждения, за да постигнат собствените си цели.

Субрахманян предупреждава, че когато хората пренебрегват логическата част на мозъка си, защото възприетият факт съвпада с техните убеждения, е по-вероятно да станат жертва на дълбоки фалшификации.

„Вече наблюдаваме нещо, наречено филтриращ балон, при което хората четат новини само от канали, които представят това, което вече мислят, и засилват предразсъдъците, които имат“, казва той. „Някои хора са по-склонни да консумират информация от социалните медии, която потвърждава техните предразсъдъци. Подозирам, че този феномен на филтърния балон ще се задълбочава, освен ако хората не се опитат да намерят по-разнообразни източници на информация.“

Създаване на мерки за удостоверяване

Вече се появиха случаи, в които измамниците използват звукови фалшификати, за да се опитат да подмамят хората да не гласуват за определени политически кандидати, като симулират гласа на кандидата, който казва нещо подстрекателско в обаждания по телефона. Този трик обаче може да стане много по-личен. Аудиофалшификатите могат да се използват и за измама на хора с пари. Ако някой, който звучи като близък приятел или роднина, се обади и каже, че се нуждае от пари, за да се измъкне бързо от затруднение, това може да е дълбоко подправен фалшификат.

За да не се хващате на тази измама, Субрахманян предлага да се установят методи за удостоверяване на самоличността на близките. Това не означава да им задавате въпроси за сигурност като името на първия домашен любимец или първата кола. Вместо това задавайте конкретни въпроси, които само този човек би знаел, като например къде е обядвал наскоро или парка, в който някога е играл футбол. Това може да бъде дори кодова дума, която знаят само роднините.

„Можете да измислите какъвто и да е въпрос, на който е много по-вероятно реален човек да знае отговора, а лице, което иска да извърши измама, използвайки генеративен ИИ, да не знае“, казва Субрахманян.

Едно наум за  платформите на социалните медии

Социалните медии промениха начина, по който хората общуват помежду си. Те могат да споделят актуализации и да поддържат връзка само с няколко натискания на клавиши, но техните канали могат да бъдат изпълнени и с фалшиви видеоклипове и изображения.

Субрахманян заяви, че някои платформи за социални медии са положили изключителни усилия, за да премахнат дълбоките фалшификати. За съжаление, потискането на дълбоките фалшификати може да се окаже акт на потискане на свободата на словото. Субрахманян препоръчва да се проверяват уебсайтове като PolitiFact, за да се получи допълнителна информация дали даден цифров артефакт е дълбоко фалшив или не.

 

Източник: По материали от Интернет

Подобни публикации

22 април 2025

3дравни организации станаха жертва на мащабни п...

Две здравни организации в САЩ потвърдиха, че са станали обект на се...
22 април 2025

Културата – почвата на киберсигурността, а не о...

Когато става въпрос за киберсигурност, хората често си представят с...
22 април 2025

Microsoft извършва най-мащабната реформа в кибе...

Microsoft обяви, че е завършила „най-големия проект за инжене...
22 април 2025

Севернокорейски хакери използват Zoom за кражба...

Севернокорейски киберпрестъпници са усъвършенствали тактиките си за...
22 април 2025

Exaforce с амбиция да преосмисли SOC: 75 милион...

Сан Франсиско се превръща във все по-важен хъб за иновации в киберс...
21 април 2025

Kenzo Security: Иновативна платформа за киберси...

Стартъпът Kenzo Security обяви излизането си от скрит режим, съобща...
21 април 2025

Нарастващата заплаха от злонамерени ботове с ИИ

Интернет вече не е предимно човешко пространство. През 2024 г. авто...
Бъдете социални
Още по темата
07/04/2025

КиберКЛУБ отбелязва третият...

Издание № 35 на  Cyber Security...
02/04/2025

Серийни предприемачи набира...

Списък от известни инвеститори, сред които...
03/03/2025

Microsoft залавя хакери, пр...

При операцията LLMjacking е използван незаконен...
Последно добавени
22/04/2025

3дравни организации станаха...

Две здравни организации в САЩ потвърдиха,...
22/04/2025

Културата – почвата на кибе...

Когато става въпрос за киберсигурност, хората...
22/04/2025

Microsoft извършва най-маща...

Microsoft обяви, че е завършила „най-големия проект...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!