Търсене
Close this search box.

OpenAI блокира използването на ChatGPT от държавни хакери

В продължение на действията от вчера, OpenAI е премахнала акаунти, използвани от държавно спонсорирани групи за заплахи от Иран, Северна Корея, Китай и Русия, които са злоупотребявали с чатбота с изкуствен интелект ChatGPT.

Изследователската организация за изкуствен интелект предприе действия срещу конкретни акаунти, свързани с хакерските групи, които злоупотребяваха с нейните услуги за големи езикови модели (LLM) за злонамерени цели, след като получи ключова информация от екипа за разузнаване на заплахите на Microsoft, за който скоро писахме.

.

В отделен доклад Microsoft предоставя повече подробности за това как и защо тези напреднали заплахи са използвали ChatGPT.

Дейността, свързана със следните групи за заплахи, беше прекратена в платформата:

  • Forest Blizzard (Strontium) [Русия]: Използвала ChatGPT за провеждане на изследвания на сателитни и радарни технологии, свързани с военни операции, и за оптимизиране на кибернетичните си операции с помощта на подобрения в скриптовете.
  • Emerald Sleet (Talium) [Северна Корея]: Използва ChatGPT за проучване на Северна Корея и генериране на съдържание за spear-phishing, както и за разбиране на уязвимости (като CVE-2022-30190 „Follina“) и отстраняване на проблеми с уеб технологии.
  • Crimson Sandstorm (Curium) [Иран]: Свързана с ChatGPT за подпомагане на социалния инженеринг, отстраняване на грешки, разработване на .NET и разработване на техники за избягване.
  • Charcoal Typhoon (Chromium) [Китай]: Взаимодействие с ChatGPT за подпомагане на разработването на инструменти, скриптове, разбиране на инструменти за киберсигурност и генериране на съдържание за социално инженерство.
  • Salmon Typhoon (Sodium) [Китай]: Използваше LLM за проучвателни запитвания по широк кръг от теми, включително чувствителна информация, високопоставени лица и киберсигурност, за да разшири инструментите си за събиране на разузнавателна информация и да оцени потенциала на новите технологии за набавяне на информация.

Като цяло  заплахите използваха големите езикови модели, за да подобрят своите стратегически и оперативни възможности, включително разузнаване, социално инженерство, тактики за избягване и събиране на обща информация.

Нито един от наблюдаваните случаи не включва използването на LLM за директно разработване на зловреден софтуер или цялостни персонализирани инструменти за експлоатация.

Вместо това действителната помощ за кодиране се отнасяше до задачи от по-ниско ниво, като например искане на съвети за избягване, писане на скриптове, изключване на антивирусната програма и като цяло оптимизиране на техническите операции.

През януари в доклад на Националния център за киберсигурност (NCSC) на Обединеното кралство се прогнозира, че до 2025 г. операциите на сложните напреднали устойчиви заплахи (APT) ще се ползват от инструментите на ИИ във всички области, особено при разработването на уклончив персонализиран зловреден софтуер.

Миналата година обаче, според констатациите на OpenAI и Microsoft, е имало повишение в сегментите на APT атаките като фишинг/социално инженерство, но останалите са били по-скоро проучвателни.

OpenAI заявява, че ще продължи да следи и да прекъсва дейността на хакерите, подкрепяни от държавата, като използва специализирани технологии за наблюдение, информация от индустриални партньори и специални екипи, натоварени с идентифицирането на подозрителни модели на използване.

„Вземаме поуки от злоупотребите на тези групи и ги използваме, за да информираме нашия повтарящ се подход към безопасността“, се казва в публикацията на OpenAI.

„Разбирането на начина, по който най-усъвършенстваните злонамерени киберпрестъпници се опитват да използват нашите системи за нанасяне на вреди, ни дава сигнал за практики, които могат да станат по-разпространени в бъдеще, и ни позволява непрекъснато да развиваме нашите предпазни мерки“, допълват от компанията.

 

Източник: e-security.bg

Подобни публикации

21 април 2024

Как OpenAI и Microsoft събудиха заспал софтуере...

Само преди десетилетие най-големият технологичен звяр в света беше ...
20 април 2024

Готви се нова методика за удостоверяване на съо...

Актуализирането на методиката за удостоверяване на съответствието н...
20 април 2024

Критична уязвимост на Forminator за WordPress и...

Плъгинът Forminator за WordPress, използван в над 500 000 сайта, е ...
20 април 2024

Бандата "Медуза" нанася нов удар

Въпреки че общинската агенция уверява обществеността, че малцина са...
19 април 2024

Пробиха MITRE чрез нулевите дни на Ivanti

Корпорацията MITRE твърди, че подкрепяна от държавата хакерска груп...
19 април 2024

Замбия арестува 77 души в операция за киберпрес...

Компанията за фалшиви телефонни центрове извършва онлайн  и други и...
18 април 2024

Платформата за фишинг LabHost е закрита от прав...

LabHost, голяма платформа за фишинг като услуга, е била затворена к...
18 април 2024

Компания за управление на киберриска набра 21 м...

В сряда компанията за риск мениджмънт CyberSaint обяви, че е набрал...
Бъдете социални
Още по темата
21/04/2024

Как OpenAI и Microsoft събу...

Само преди десетилетие най-големият технологичен звяр...
06/04/2024

Abstract Security въвежда A...

Задвижваната от изкуствен интелект платформа за...
25/03/2024

ООН прие резолюция за гара...

В четвъртък Общото събрание одобри първата...
Последно добавени
21/04/2024

Как OpenAI и Microsoft събу...

Само преди десетилетие най-големият технологичен звяр...
20/04/2024

Готви се нова методика за у...

Актуализирането на методиката за удостоверяване на...
20/04/2024

Критична уязвимост на Formi...

Плъгинът Forminator за WordPress, използван в...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!