Кибер експертите предупреждават, че c изкуствения интелект (ИИ) все по-често се злоупотребява от престъпници за извършване на сложни атаки. Докато първоначално концепцията за „vibe coding“ се е използвала за продуктивни задачи, сега се появява тъмната ѝ страна – „vibe hacking“.
Според доклад на ET, разработчикът на ИИ Anthropic е открил, че неговият модел за кодиране Claude Code е бил експлоатиран за кражба на лични данни от 17 организации, като от жертвите са изисквани почти по 500 000 долара от всяка.
Тъмната страна на ИИ – „Evil LLMs“ и автономни агенти
Форумите в тъмната мрежа вече предлагат готови ИИ инструменти за киберпрестъпления на цени от около 100 долара. Сред тях са FraudGPT и WormGPT, създадени за измами, които могат да заобиколят защитните мерки и да извлекат чувствителна информация или да генерират опасно съдържание.
Новият ИИ агент PromptLock може да генерира код по заявка и да решава кои файлове да копира, криптира или достъпва, увеличавайки риска.
Според Хозефа Мотивала от Palo Alto Networks, „Генеративният ИИ понижи бариерата за навлизане на киберпрестъпниците. Престъпниците лесно използват публични ИИ услуги, за да създават убедителни фишинг имейли, зловреден код или да маскират малуер.“
В симулации на екипа Unit 42 на Palo Alto Networks ИИ е извършвал пълна рансъмуер атака за 25 минути, което е 100 пъти по-бързо от традиционните методи. Т.нар. prompt injection позволява на нападателите да заобиколят правилата за безопасност и да изтекат чувствителни данни.
Възход на автономните ИИ агенти и нови вектори на атаки
Автономните ИИ агенти могат да помнят задачи, да разсъждават независимо и да действат без човешка намеса. Експерти предупреждават за нови вектори, като:
-
tool poisoning и context poisoning, при които злонамерен код в отворени репозитории компрометира чувствителни данни и API ключове;
-
zero-click атаки, при които злонамерени prompt-и са вградени във споделени файлове.
Според Тарун Уиг, CEO на Innefu Labs, тези инструменти позволяват на престъпниците да:
-
генерират deepfake аудио и видео,
-
персонализират рансъмуер,
-
финно настройват експлойти спрямо конкретни цели.
Какво се прави срещу заплахата
Експертите призовават разработчиците на ИИ – OpenAI, Anthropic, Meta и Google – да засилят мерките за безопасност. Това включва:
-
непрекъснат мониторинг на моделите,
-
строг red teaming и симулации на атаки,
-
структурирани оценки за безопасност преди публично разпространение.
„Подобно на фармацевтичните продукти, ИИ моделите трябва да преминават през изпитания за безопасност преди широкото им пускане“, добавя Уиг.









