Не всички deepfakes са лоши.
Дълбоките фалшификати – цифрови артефакти, включително снимки, видеоклипове и аудио, които са генерирани или модифицирани с помощта на софтуер с изкуствен интелект – често изглеждат и звучат истински. Съдържанието на дълбоките фалшификати се използва за заблуждаване на зрители, разпространение на фалшиви новини, насаждане на дезинформация и разпространяване на мистификации в интернет.
По-малко известно е, че технологията, която стои зад дълбоките фалшификати, може да се използва и за добро. Тя може да се използва за възпроизвеждане на гласа на изгубен близък, например, или за поставяне на фалшиви карти или комуникации, за да се заблудят потенциални терористи. Тя може също така да забавлява, например като симулира как би изглеждал човек със странна коса на лицето или със смешна шапка.
„Има много положителни приложения на дълбоките фалшификати, въпреки че те не са получили толкова много гласност, колкото отрицателните приложения“, казва В. С. Субрахманян, професор по компютърни науки в Северозападния университет и преподавател в Северозападния институт „Бъфет“ за глобални въпроси.
Все пак негативните или опасните приложения трябва да бъдат издирени.
Субрахманян, който се фокусира върху пресечната точка на изкуствения интелект и проблемите на сигурността, разработва модели, базирани на машинно обучение, за анализ на данни, изучаване на поведенчески модели от данните, прогнозиране на действия и влияние върху резултатите. В средата на 2024 г. той стартира Глобалната онлайн система за откриване на дълбоки фалшификати (GODDS) – нова платформа за откриване на дълбоки фалшификати, която вече е достъпна за ограничен брой проверени журналисти.
За тези, които нямат достъп до GODDS, Субрахманян предложи пет съвета, които да ви помогнат да избегнете да бъдете измамени от фалшификати.
Всеки, който има достъп до интернет, може да създаде фалшификат. Това означава, че всеки, който има достъп до интернет, може да се превърне в мишена за дълбоки фалшификати.
„Вместо да се опитвате да откриете дали нещо е deepfake или не, елементарното задаване на въпроси може да ви помогне да стигнете до правилния извод“, казва Субрахманян, директор-основател на Лабораторията за сигурност и изкуствен интелект в Северозападния университет.
За добро или за лошо, технологията за дълбоки фалшификации и изкуственият интелект продължават да се развиват с бързи темпове. В крайна сметка софтуерните програми ще могат да откриват дълбоките фалшификати по-добре от хората, прогнозира Субрахманян.
Засега в технологията за дълбоки фалшификации има някои недостатъци, които хората могат да открият. ИИ все още се бори с основите на човешкото тяло, като понякога добавя допълнителна цифра или изкривява части по неестествен или невъзможен начин. Физиката на светлината също може да накара генераторите на изкуствен интелект да се спънат.
„Ако не виждате отражение, което изглежда в съответствие с това, което бихме очаквали, или съвместимо с това, което бихме очаквали, трябва да бъдете предпазливи“, каза той.
В човешката природа е да се вкореняваме толкова дълбоко в мненията и предубежденията си, че да започнем да ги приемаме за истина. Всъщност хората често търсят източници, които потвърждават собствените им схващания, а измамниците създават дълбоки фалшификати, които подсилват и утвърждават предишни убеждения, за да постигнат собствените си цели.
Субрахманян предупреждава, че когато хората пренебрегват логическата част на мозъка си, защото възприетият факт съвпада с техните убеждения, е по-вероятно да станат жертва на дълбоки фалшификации.
„Вече наблюдаваме нещо, наречено филтриращ балон, при което хората четат новини само от канали, които представят това, което вече мислят, и засилват предразсъдъците, които имат“, казва той. „Някои хора са по-склонни да консумират информация от социалните медии, която потвърждава техните предразсъдъци. Подозирам, че този феномен на филтърния балон ще се задълбочава, освен ако хората не се опитат да намерят по-разнообразни източници на информация.“
Вече се появиха случаи, в които измамниците използват звукови фалшификати, за да се опитат да подмамят хората да не гласуват за определени политически кандидати, като симулират гласа на кандидата, който казва нещо подстрекателско в обаждания по телефона. Този трик обаче може да стане много по-личен. Аудиофалшификатите могат да се използват и за измама на хора с пари. Ако някой, който звучи като близък приятел или роднина, се обади и каже, че се нуждае от пари, за да се измъкне бързо от затруднение, това може да е дълбоко подправен фалшификат.
За да не се хващате на тази измама, Субрахманян предлага да се установят методи за удостоверяване на самоличността на близките. Това не означава да им задавате въпроси за сигурност като името на първия домашен любимец или първата кола. Вместо това задавайте конкретни въпроси, които само този човек би знаел, като например къде е обядвал наскоро или парка, в който някога е играл футбол. Това може да бъде дори кодова дума, която знаят само роднините.
„Можете да измислите какъвто и да е въпрос, на който е много по-вероятно реален човек да знае отговора, а лице, което иска да извърши измама, използвайки генеративен ИИ, да не знае“, казва Субрахманян.
Социалните медии промениха начина, по който хората общуват помежду си. Те могат да споделят актуализации и да поддържат връзка само с няколко натискания на клавиши, но техните канали могат да бъдат изпълнени и с фалшиви видеоклипове и изображения.
Субрахманян заяви, че някои платформи за социални медии са положили изключителни усилия, за да премахнат дълбоките фалшификати. За съжаление, потискането на дълбоките фалшификати може да се окаже акт на потискане на свободата на словото. Субрахманян препоръчва да се проверяват уебсайтове като PolitiFact, за да се получи допълнителна информация дали даден цифров артефакт е дълбоко фалшив или не.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.