Държави все по-често използват ИИ за фишинг, зловреден код и пропаганда

Чужди правителства и киберпрестъпни групи интегрират изкуствен интелект (ИИ) в своите операции – от разработване на фишинг кампании и усъвършенстване на зловреден софтуер до разпространение на пропаганда и автоматизиране на киберверигата на атака. Това става ясно от новия тримесечен доклад на OpenAI, озаглавен „Disrupting malicious uses of AI: an update“, който проследява най-новите случаи на злоупотреба с моделите ChatGPT и други генеративни инструменти.

ИИ в служба на познатите тактики

Докладът показва, че по-голямата част от чуждите злонамерени групировки и отделни лица не създават напълно нови методи на атака, а използват ИИ, за да ускорят и усъвършенстват вече познати тактики, техники и процедури (TTPs). Според OpenAI, хакерите „надграждат старите си схеми чрез ИИ, за да се движат по-бързо, а не за да открият нови офанзивни възможности“.

От февруари 2024 г. компанията активно следи използването на своите модели и вече е идентифицирала и блокирала над 40 мрежи, които са нарушавали политиките ѝ за етично използване. Сред тях има участници, свързани с Русия, Северна Корея и Китайската народна република, както и престъпни групи от Камбоджа, Мианмар и Нигерия.

Примери за злоупотреба с генеративни модели

OpenAI описва редица конкретни случаи, в които хакери са използвали ChatGPT и други ИИ системи за криминални цели:

  • Руски групи са използвали модела, за да създават и оптимизират компоненти на зловреден код – включително отдалечен достъп (RAT), кражба на идентификационни данни и механизми за избягване на засичане.

  • Севернокорейски оператори са експериментирали с ИИ при изграждане на C2 инфраструктури, фишинг страници и скриптове за автоматизация.

  • Китайски акаунти, управлявани от технически компетентни, но не особено опитни лица, са използвали ChatGPT за създаване на фишинг шаблони и за проучване на методи за контрол на процеси, криптирани комуникации и изпълнение на отдалечен код.

Компанията уточнява, че не е открита доказателствена връзка между достъпа до моделите и появата на нови офанзивни способности, които не биха могли да бъдат постигнати чрез публично достъпни източници.

Пропаганда и политическо влияние

Докладът обръща внимание и на опитите за използване на ИИ при операции за влияние. Китайски акаунти, например, са опитвали да накарат модела да създава предложения за „системи за наблюдение на социални медии“ – с потенциална цел да се следи общественото мнение и дисидентската активност.

В други случаи руски кампании, като вече познатата „Stop News“, са използвали ChatGPT за генериране на съдържание за фалшиви новинарски сайтове и скриптове за кратки пропагандни видеа, публикувани в социалните мрежи.

Любопитна подробност е, че някои лица вече премахват ем тирета (—) от генерираните от ChatGPT текстове, за да прикрият произхода на съдържанието – признак, че се адаптират към стилистичните особености на модела.

От фишинг до финансови измами

Освен държавните оператори, OpenAI наблюдава и масово използване на ИИ от международни измамни мрежи, които се представят за финансови консултанти или работодатели. Тези групи създават фалшиви профили в социалните мрежи, реклами и сайтове на несъществуващи компании, за да примамват жертви към лични чатове или фалшиви инвестиционни платформи.

Повечето от тези измами използват ChatGPT за елементарни задачи като превод, проверка на текст или формулиране на съобщения, което доказва, че престъпният „репертоар“ остава същият – просто се автоматизира.

Как реагира OpenAI

OpenAI подчертава, че когато засече дейност, нарушаваща нейните политики, незабавно блокира съответните акаунти и в някои случаи споделя информация с партньори и служби за сигурност. Целта е да се повиши осведомеността за злоупотребите и да се подобрят защитите за крайните потребители.

Компанията уверява, че е „посветена на откриването, предотвратяването и прекъсването на опитите за злоупотреба с моделите ѝ за злонамерени цели“.

Докладът е поредното напомняне, че генеративният ИИ се превръща в инструмент не само за иновации, но и за киберпрестъпност. Въпреки че засега повечето атакуващи използват технологиите по познати пътища, експертите предупреждават, че в бъдеще автоматизацията може да направи злонамерените кампании още по-мащабни, персонализирани и трудни за засичане.

e-security.bg

Подобни

Новата доктрина на Токио за активна киберотбрана
13.02.2026
japan_tokyo
CISA предупреждава енергийния сектор: сменете незабавно фабричните пароли
12.02.2026
power-station-374097_640
Zero Trust отвъд мита: #44 Cyber Security Talks Bulgaria събра технологиите, културата и отговорността в едно
11.02.2026
4 янко
Дипломата вече не е достатъчна
11.02.2026
little-girl-4288526_640.jpg
„Паролите по подразбиране са покана за пробив“: инж. Янко Спасов в БНР Стара Загора
11.02.2026
Yanko Spasov
DNS сигурността - ключов фронт в съвременната киберзащита
10.02.2026
dns

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.