Видеоразговорите между водещи политици и дълбоко фалшифицираният образ на кмета на Киев,, Виталий Кличко ще повдигнат нови въпроси за доверието

Когато през юни кметът на Берлин, Франциска Гифи, се обади на кмета на Киев, Виталий Кличко, двамата обсъдиха няколко важни въпроса, включително статута на украинските бежанци в Германия. Предвид обстоятелствата това беше напълно нормален разговор между политици. С изключение на това, че Кличко не беше истински.

Въпреки че кметът виждаше лицето на бившия боксьор, превърнал се в политик, и разговаряше с него в реално време, тя всъщност говореше с измамник. Дълбоките фалшификати – технология, която създава реалистични изображения на известни лица с помощта на изкуствен интелект (ИИ) – вече са достатъчно усъвършенствани, за да работят в реално време.

Все още не е ясно кои са измамниците, които стоят зад инцидента, нито какви са били техните намерения, но според съобщенията същата група е измамила кметовете на Виена и Мадрид, използвайки същия deepfake на Кличко.

Откакто дълбоките фалшификати се появиха за пръв път през 2017г., постоянната тревога е, че те могат да бъдат използвани за намеса в политиката и за предизвикване на хаос. Както при много други неща в последно време, тези опасения бяха заменени от студена, тежка реалност.

Признаци за фалшификация

Д-р Матю Стам, който се занимава с мултимедийна криминалистика в университета Дрексел във Филаделфия, твърди, че с помощта на съвременните технологии е напълно възможно да се заблудят хората, дори ако фалшификатите се разкриват при внимателна проверка.

„Ако погледнете [дълбокия фалшификат] наистина отблизо, много пъти има физически признаци като непоследователни или странни модели на движение, или нещо, което изглежда нередно в лицето“, казва той. „Мисля, че все още сме далеч от създаването на нещо, което да е много убедително от визуална гледна точка и да издържи на дълготраен контрол.“

Дори и видеото да изглежда малко странно, то има един важен фактор на своя страна: човешката психология. „Ако трябва да вземем бързо решение, информацията се съгласува с нашите предварителни предубеждения, така че често сме склонни просто да й повярваме“, казва Стам.

Не е задължително дълбоките фалшификати да са перфектни като пиксели – те просто трябва да са достатъчно добри. Затова е още по-важно да разпознавате отличителните знаци на дълбокия фалшификат.

„За да направите наистина добър deepfake, обикновено трябва да имате актьор, който прилича на човека, когото се опитвате да фалшифицирате“, продължава Стам. „Дълбоките фалшификати обикновено фалшифицират лицето ви, в момента те не променят формата на главата ви. Виждате странни прекъсвания отстрани и около лицето, защото на практика се поставя маска върху вас.“

Може би най-голямата изненада е оклузията – моментите, в които лицето е частично покрито от махаща отпред ръка, или когато лицата се движат бързо или гледат твърде настрани. Софтуерът все още не знае как да се справя с това, затова за момент прекъсва илюзията. Но като се има предвид темпото на иновациите, трябва да очакваме разработчиците да разберат това с течение на времето.

„Един изследовател на име Сивей Лю откри, че дълбоките фалшификати не мигат“, казва Стам. „Той публикува статия и в рамките на една седмица започнахме да виждаме дълбоки фалшификати, които мигат. Хората [вече] бяха разбрали как да моделират това поведение.“

Неизбежно е фалшификациите да продължат да се усъвършенстват, затова Стам вместо това насочва собствените си изследвания в търсене на други „криминалистични“ улики. „Има и статистически следи, които се появяват и които очите ни не могат да видят“, казва той. „Ако престъпник проникне в дома ви, той ще остави след себе си пръстови отпечатъци или косми. При цифровите сигнали обработката оставя свои собствени следи. Те са само статистически и обикновено са невидими по своята същност, но изследователи като мен работят, за да ги уловят.“

Той сравнява това с начина, по който подобни техники могат да се използват за откриване на изображения, които са били манипулирани в софтуер като Photoshop, но обяснява, че видеото умножава сложността.

Количествено определяне на заплахата от deepfake

Трябва ли да разглеждаме измамата с Кличко като зловещ знак за бъдещето? Може би, смята Стам, но все още не. „Дълбоките фалшификати не са основният проблем“, казва той. „Не е необходимо да правите дълбоки фалшификати, за да заблуждавате хората.“

Той посочва, че една от най-разпространените форми на дезинформация са реконтекстуализираните изображения – снимки, лишени от надпис и използвани подвеждащо, без да е необходима цифрова манипулация. „[Представете си] протест отпреди пет години в САЩ и твърдете, че това е протест, който се е състоял вчера в Лондон“, казва Стам. „Това е истинско изображение, което е извадено от контекста. И хората, които искат да повярват в това, ще го направят, защото можете дори да ги конфронтирате с доказателства, че е фалшиво, но до този момент то вече е повлияло на техния мироглед.“

Източник: itpro.co.uk

Подобни публикации

23 април 2025

Азиатски престъпни мрежи разширяват дейността с...

Престъпни синдикати от Източна и Югоизточна Азия пренасят доходонос...
22 април 2025

3дравни организации станаха жертва на мащабни п...

Две здравни организации в САЩ потвърдиха, че са станали обект на се...
22 април 2025

Културата – почвата на киберсигурността, а не о...

Когато става въпрос за киберсигурност, хората често си представят с...
22 април 2025

Microsoft извършва най-мащабната реформа в кибе...

Microsoft обяви, че е завършила „най-големия проект за инжене...
22 април 2025

Севернокорейски хакери използват Zoom за кражба...

Севернокорейски киберпрестъпници са усъвършенствали тактиките си за...
22 април 2025

Exaforce с амбиция да преосмисли SOC: 75 милион...

Сан Франсиско се превръща във все по-важен хъб за иновации в киберс...
21 април 2025

Kenzo Security: Иновативна платформа за киберси...

Стартъпът Kenzo Security обяви излизането си от скрит режим, съобща...
Бъдете социални
Още по темата
22/04/2025

Севернокорейски хакери изпо...

Севернокорейски киберпрестъпници са усъвършенствали тактиките си...
17/04/2025

Китайска APT група използва...

Нови версии на бекдора BrickStorm, използван...
14/04/2025

Мароко още разследва изтича...

Националния фонд за социална сигурност на...
Последно добавени
23/04/2025

Азиатски престъпни мрежи ра...

Престъпни синдикати от Източна и Югоизточна...
22/04/2025

3дравни организации станаха...

Две здравни организации в САЩ потвърдиха,...
22/04/2025

Културата – почвата на кибе...

Когато става въпрос за киберсигурност, хората...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!