Дийпфейковете, генерирани и усъвършенствани чрез ИИ, се превръщат в едно от най-опасните средства за атаки срещу компании и държавни институции. Макар повечето организации да са наясно с мащаба на заплахата, експертите предупреждават, че мнозина изостават в инвестициите в технологии за защита – дори когато вярват, че са подготвени.
Новата вълна от ИИ-базирани атаки
На 7 октомври OpenAI публикува изследване, според което все повече престъпни и държавно спонсорирани групи използват големи езикови модели (LLM), за да подобрят фишинг кампаниите и създават по-усъвършенстван зловреден код. Два дни по-късно Ironscales представи данни, че 85% от средните по размер компании вече са се сблъсквали с опити за измама чрез дийпфейкове и синтетични гласове, а 55% са понесли реални финансови загуби.
Според Еял Бенищи, изпълнителен директор на Ironscales, заплахата е динамична и се развива с тревожно темпо:
„Докато фишинг атаките и статичните изображения остават най-често срещани, броят на аудио и видео дийпфейковете расте експоненциално. Виждаме все повече примери от всички категории.“
От фалшиви гласове до реалистични дигитални двойници
Киберпрестъпниците вече използват комбинация от техники – от създаване на дигитални „близнаци“ на реални хора до имитации на гласове и поведение. Това позволява изключително достоверни измами, при които жертвите вярват, че общуват с реален колега или ръководител. Подобни рискове накараха Microsoft да прекрати проект за технология за клониране на глас, която можеше да бъде интегрирана в Teams и други приложения.
Според доклада на CrowdStrike „2025 Threat Hunting Report“ броят на аудио дийпфейковете, срещани в бизнеса, ще се удвои през 2025 г. Най-често се откриват фалшиви изображения и фишинг атаки, подсилени с ИИ – такива са докладвани от 59% от организациите, анкетирани от Ironscales.
Финансовите щети растат
Средната стойност на загубите от дийпфейкови атаки е 167 000 долара годишно, като при някои компании щетите надвишават 1 милион долара. Над 40% от анкетираните съобщават за инциденти с имитации на видео или глас през последните 12 месеца.
Въпреки това повечето организации вярват, че са готови да се защитят. Почти 90% вече провеждат обучения по темата, а 71% планират допълнителни инвестиции в следващите 18 месеца. Реалността обаче показва друго – две трети от компаниите все още не са внедрили ефективни решения срещу ИИ-подсилени заплахи.
Защитата изисква комбинация от обучение, процедури и технологии
„ИИ понижава прага на умения, нужни за атака, и ускорява създаването на по-качествени фалшификации. Тъй като откриването на дийпфейкове става все по-трудно, трябва да използваме също ИИ, за да ги разпознаваме – човек вече не може да е последната защитна линия“, предупреждава Никол Кариган, старши вицепрезидент по сигурност и стратегия в Darktrace.
Експертите препоръчват комбинация от няколко подхода:
-
Обучение и осведоменост – служителите трябва да могат да разпознават признаци на фалшиви съобщения или гласови обаждания.
-
Добри вътрешни политики – нито едно финансово действие (например банков превод или плащане) не трябва да зависи от решение на един човек.
-
Технологични инструменти – системи за откриване на фишинг и анализ на аномалии могат да блокират заплахите, преди да достигнат до служителите.
„Разработете политики, които да направят невъзможно една грешна преценка да доведе до компрометиране“, съветва Бенищи. „Изисквайте многостепенно одобрение при плащания и вътрешни трансакции.“









