„Vibe hacking“ – новата заплаха в ерата на ИИ

Кибер експертите предупреждават, че c изкуствения интелект (ИИ) все по-често се злоупотребява от престъпници за извършване на сложни атаки. Докато първоначално концепцията за „vibe coding“ се е използвала за продуктивни задачи, сега се появява тъмната ѝ страна – „vibe hacking“.

Според доклад на ET, разработчикът на ИИ Anthropic е открил, че неговият модел за кодиране Claude Code е бил експлоатиран за кражба на лични данни от 17 организации, като от жертвите са изисквани почти по 500 000 долара от всяка.

Тъмната страна на ИИ – „Evil LLMs“ и автономни агенти

Форумите в тъмната мрежа вече предлагат готови ИИ инструменти за киберпрестъпления на цени от около 100 долара. Сред тях са FraudGPT и WormGPT, създадени за измами, които могат да заобиколят защитните мерки и да извлекат чувствителна информация или да генерират опасно съдържание.

Новият ИИ агент PromptLock може да генерира код по заявка и да решава кои файлове да копира, криптира или достъпва, увеличавайки риска.

Според Хозефа Мотивала от Palo Alto Networks, „Генеративният ИИ понижи бариерата за навлизане на киберпрестъпниците. Престъпниците лесно използват публични ИИ услуги, за да създават убедителни фишинг имейли, зловреден код или да маскират малуер.“

В симулации на екипа Unit 42 на Palo Alto Networks ИИ е извършвал пълна рансъмуер атака за 25 минути, което е 100 пъти по-бързо от традиционните методи. Т.нар. prompt injection позволява на нападателите да заобиколят правилата за безопасност и да изтекат чувствителни данни.

Възход на автономните ИИ агенти и нови вектори на атаки

Автономните ИИ агенти могат да помнят задачи, да разсъждават независимо и да действат без човешка намеса. Експерти предупреждават за нови вектори, като:

  • tool poisoning и context poisoning, при които злонамерен код в отворени репозитории компрометира чувствителни данни и API ключове;

  • zero-click атаки, при които злонамерени prompt-и са вградени във споделени файлове.

Според Тарун Уиг, CEO на Innefu Labs, тези инструменти позволяват на престъпниците да:

  • генерират deepfake аудио и видео,

  • персонализират рансъмуер,

  • финно настройват експлойти спрямо конкретни цели.

Какво се прави срещу заплахата

Експертите призовават разработчиците на ИИ – OpenAI, Anthropic, Meta и Google – да засилят мерките за безопасност. Това включва:

  • непрекъснат мониторинг на моделите,

  • строг red teaming и симулации на атаки,

  • структурирани оценки за безопасност преди публично разпространение.

„Подобно на фармацевтичните продукти, ИИ моделите трябва да преминават през изпитания за безопасност преди широкото им пускане“, добавя Уиг.

e-security.bg

Подобни

Рансъмуер атаките нараснаха с 50% през 2025 г.
10.03.2026
ransomware3
Израелски потребители стават жертви на фалшива версия на Red Alert
9.03.2026
thedigitalartist-dont-panic-1067044_640
900 000 потребители са инсталирали зловредни ИИ разширения за браузър
8.03.2026
adrozek-malware-firefox-chrome-yandex-edge-browser-1
Китайска хакерска група атакува телекоми
8.03.2026
china
Фалшиви инсталатори на OpenClaw в GitHub
8.03.2026
GitHub___headpic (1)
JavaScript „червей“ предизвика инцидент със сигурността в Wikimedia
8.03.2026
Wikipedia

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Българските торент сайтове продължават да изчезват
27.02.2026
pirate-flag-7541041_640
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.