Американската компания Anthropic разкри, че през юли 2025 г. е прекъснала сложна кибероперация, при която нейният ИИ чатбот Claude е бил използван за кражба и изнудване на лични данни в големи мащаби.
Според официалната информация, атаката е засегнала поне 17 организации, сред които здравни институции, структури на спешна помощ, държавни и религиозни организации. Вместо да криптира информацията чрез класически методи на рансъмуер, престъпната група е заплашвала с публично разкриване на откраднатите данни, за да изнуди жертвите да платят откуп, който в някои случаи е надхвърлял 500 000 долара.
Claude Code като „платформа за атаки“
Злоумишлениците са използвали Claude Code върху Kali Linux като пълноценна среда за атаки. В специален файл CLAUDE.md са били зададени постоянни инструкции, които чатботът е следвал във всяко взаимодействие.
ИИ е бил използван в почти всички фази на атаката – от разузнаване и сканиране на VPN крайни точки, през извличане на потребителски данни и пароли, до внедряване на бекдори и създаване на устойчив достъп. Claude Code е генерирал дори модифицирани версии на инструмента Chisel за тунелиране, с които са били заобикаляни системите за откриване на злонамерена активност. Част от зловредните файлове са били маскирани като легитимни инструменти на Microsoft.
Особено тревожен е фактът, че Claude е бил използван не само за техническа подкрепа, но и за тактически и стратегически решения – избор на данни за извличане, анализ на финансови отчети на жертвите и изчисляване на „подходящ“ размер на откупа (от 75 000 до 500 000 долара в биткойн).
Масово източване и изнудване
След проникването в мрежите, Claude е автоматизирал сортирането и обработката на огромни масиви откраднати данни – лични идентификатори, адреси, финансови сведения и медицински досиета. Създадени са били индивидуализирани съобщения за изнудване и многостепенни стратегии за натиск върху жертвите.
Anthropic определя кампанията, с кодово име GTG-2002, като пример за новото поколение киберзаплахи, в които „агентни ИИ инструменти“ могат да заменят цели екипи от оператори, да се адаптират към защитни механизми в реално време и да улесняват престъпници без сериозни технически познания.
Други случаи на злоупотреба с Claude
Компанията разкри и редица други инциденти, при които нейният чатбот е бил използван:
-
Севернокорейски групи са се опитвали да създават фалшиви професионални идентичности в схеми с дистанционни ИТ работници.
-
Британски киберпрестъпник (GTG-5004) е разработвал и продавал версии на рансъмуер във форуми в даркнет.
-
Китайски актьори са насочвали атаки срещу критична инфраструктура във Виетнам.
-
Руски разработчици са използвали Claude за създаване на зловреден софтуер с усъвършенствани механизми за заобикаляне на защити.
-
В Telegram е бил изграждан бот за измами с романтични схеми, рекламиран като „модел с високо емоционално ниво“.
-
Неизвестна група е използвала Claude за стартиране на услуга със синтетични идентичности и валидиране на откраднати кредитни карти.
Anthropic твърди, че е предприела мерки – разработен е специален класификатор за откриване на подобни „vibe hacking“ атаки и е споделена техническа информация с ключови партньори в сектора.
Случаят показва как инструменти с изкуствен интелект могат да бъдат трансформирани от помощни технологии в оръжия за мащабни престъпни операции. Според експертите от Anthropic, престъпници с минимални умения вече са в състояние да извършват сложни кибератаки, които преди са изисквали години обучение.
Това подчертава необходимостта от нови подходи в киберзащитата, засилен международен обмен на информация и още по-строга регулация върху използването на ИИ в критични среди.









