ESET съобщи, че е идентифицирала нов вариант на рансъмуер, задвижван от изкуствен интелект (ИИ), наречен PromptLock.
Зловредният код е разработен на Golang и използва локално чрез Ollama API езиковия модел gpt-oss:20b на OpenAI, за да генерира в реално време зловредни Lua скриптове. Това е един от първите известни случаи, в които езиков модел с отворени тегла се интегрира директно в механизма за създаване на зловреден софтуер.
Как работи PromptLock
Според анализа на ESET, рансъмуерът:
-
генерира Lua скриптове от предварително зададени промптове;
-
инвентаризира файловата система, проверява и селектира файлове;
-
експортира чувствителни данни и извършва шифриране;
-
създава персонализирани бележки за откуп според типа на засегнатите файлове и средата (личен компютър, корпоративен сървър, дори индустриален контролер за енергийно разпределение).
Използваният алгоритъм за криптиране е SPECK 128-bit, което потвърждава, че става въпрос за по-скоро експериментален proof-of-concept (PoC), а не за напълно завършено оръжие. Все пак изследователите подчертават, че софтуерът би могъл да бъде надграден и с функционалности за пълно унищожаване на данни.
Интересен детайл е, че PromptLock не изисква изтегляне на целия езиков модел, който е с голям обем (няколко гигабайта). Вместо това атакуващите могат да използват прокси или тунел към външен сървър с работеща версия на Ollama API и gpt-oss-20b.
Опасности за защитата
Според ESET една от най-големите заплахи е, че индикаторите за компрометиране (IoCs) варират при всяко изпълнение на зловредния код, тъй като скриптовете се генерират динамично. Това значително усложнява откриването и анализа от страна на защитните системи.
Компанията посочва, че подобен подход „ако бъде приложен правилно, може сериозно да затрудни работата на защитниците и да направи идентифицирането на заплахата далеч по-сложно“.
Контекст и тенденции
Случаят с PromptLock е част от по-широка тенденция: престъпници без дълбоки технически умения вече могат бързо да стартират нови кампании, да създават зловреден софтуер и да изработват убедителни фишинг съобщения, благодарение на възможностите на съвременните ИИ инструменти.
По-рано днес Anthropic обяви, че е блокирала акаунти на две групи заплахи, които са използвали чатбота Claude, за да извършват кражби и изнудвания, да разработват нови варианти на рансъмуер с механизми за укриване и блокиране на възстановяване на данни.
Допълнително, редица водещи ИИ системи – сред които Amazon Q Developer, Claude Code, GitHub Copilot, OpenAI ChatGPT Deep Research и други – се оказаха уязвими към prompt injection атаки. Те могат да доведат до изтичане на данни, неоторизирано изпълнение на код или промяна на конфигурации.
Ново изследване описва и метод, наречен PROMISQROUTE („Prompt-based Router Open-Mode Manipulation Induced via SSRF-like Queries“), който може да принуди чатботи да преминат в по-стара и по-малко защитена версия на моделите, заобикаляйки милиони долари вложени в безопасност.
Появата на PromptLock подчертава новата ера в еволюцията на рансъмуера, в която изкуственият интелект се използва не само за автоматизация, но и за повишаване на сложността и непредвидимостта на атаките. Това изисква от киберсигурностната общност нови методи за защита, които да могат да се справят с динамичния характер на ИИ-базираните заплахи.









