Търсене
Close this search box.

Хакерите умишлено „тровят“ системите за изкуствен интелект

NIST предупреди, че няма сигурен начин за защита от атаки за „отравяне“ на модели на изкуствен интелект, които стават все по-интензивни и мащабни.

Заплахите използват неправилно функциониращи системи с изкуствен интелект, причинени от „ненадеждни данни“, предупреждава нова консултация на Националния институт по стандартизация и технологии (NIST).

Новият доклад на NIST относно надеждния и отговорен ИИ разкрива как хакерите могат умишлено да „отровят“ системите с ИИ и да предизвикат тяхното неправилно функциониране, което след това могат да използват.

Тревожно е, че в доклада се отбелязва също, че разработчиците нямат сигурен начин да се предпазят от подобни атаки.

Един от авторите на доклада, компютърният учен от NIST Апостол Василев, заяви, че настоящите стратегии за смекчаване на последиците, използвани за борба с подобни атаки, не могат да гарантират защита.

„Описваме и настоящите стратегии за смекчаване на последиците, за които се съобщава в литературата, но тези налични защити понастоящем нямат солидни гаранции, че напълно намаляват рисковете“, каза той. „Насърчаваме общността да предложи по-добри защити.“

Към проблемите, с които се сблъскват организациите, внедряващи изкуствен интелект, се добавя и фактът, че методите за атака, описани в доклада на NIST, изискват малко предварителни познания за самата система и не се ограничават до най-сложните атаки.

Съавторът, професор Алина Опря от Североизточния университет, отбеляза: „най-малко от тези атаки са сравнително лесни за осъществяване и изискват минимални познания за системата на ИИ и ограничени възможности на противника“.

Четири основни типа атаки, използвани за атакуване на уязвими системи с изкуствен интелект

Докладът на NIST очертава четирите основни типа атаки, използвани за компрометиране на технологиите на ИИ: атаки за отравяне, избягване, защита на личните данни и злоупотреба.

Атаките с отравяне изискват хакери да получат достъп до модела по време на фазата на обучение, като използват повредени данни, за да променят из основи изводите на системата. Като подават на системата за изкуствен интелект непроверени данни, нападателите могат да повлияят на нейното поведение след внедряването ѝ.

Например чатботът може да бъде накаран да генерира обидни или заплашителни отговори на подкани, като се инжектира злонамерено съдържание в модела, докато той се обучава.

Подобно на атаките за отравяне, атаките за злоупотреба се извършват и когато данните, използвани за обучение, се използват за създаване на уязвимости в системата. Злоупотребата се различава по това, че вместо вмъкване на злонамерено съдържание, използвано за предизвикване на нежелано поведение от ИИ, при атаките за злоупотреба се използва невярна информация, която идва от уж легитимен източник, за да се компрометира системата.

Атаките за заобикаляне се извършват след внедряването на система с изкуствен интелект и включват  заплахи, които използват фини промени във входящите данни, за да се опитат да изкривят предвидената функция на модела.

Един от примерите, посочени в доклада, включва използването на малки промени в пътните знаци, за да накара автономното превозно средство да ги изтълкува погрешно и да реагира по потенциално опасен, непредписан начин.

Атаките срещу неприкосновеността на личния живот се случват и по време на фазата на внедряване на системите с изкуствен интелект. Атаката срещу неприкосновеността на личния живот включва заплахи, които взаимодействат със системата за ИИ, за да получат информация за ИИ, която след това могат да използват, за да открият слабости, които могат да кешират.

Чатботовете са ясен пример за този вид вектор на атака, при който нападателите могат да задават на ИИ легитимни, на пръв поглед безобидни въпроси и да използват отговорите, за да подобрят разбирането си за данните, използвани за обучение на модела.

Както и при атаките за отравяне и злоупотреба, възможността да се влияе върху данните, върху които се обучават моделите, в крайна сметка води до възможност да се влияе върху системата на ИИ, така че атаките за защита на личните данни също се основават на тази концепция, като се опитват да накарат самия ИИ да предаде важна информация, която може да се използва за компрометиране на системата.

 

 

 

Източник: itpro.co.uk

Подобни публикации

18 април 2024

Вариант на LockBit 3.0 генерира персонализиран,...

Изследователите на Kaspersky са открили новия вариант, след като са...
18 април 2024

Групата "Sandworm" е основното звено за киберат...

Но дори и да се е фокусирала върху това, сложната група за заплахи ...
18 април 2024

Apple предупреждава потребителите в 150 държави...

В ново уведомление за заплахи Apple посочва доставчика на Pegasus N...
17 април 2024

Приложението Copilot на Windows Server е добаве...

Microsoft твърди, че новото приложение Copilot, погрешно добавено в...
17 април 2024

Последни тенденции при зловредния софтуер

В днешната дигитална ера киберсигурността се превърна в постоянна г...
17 април 2024

FTC налага глоби на стартъпа за психично здраве...

Федералната търговска комисия на САЩ (FTC) разпореди на компанията ...
Бъдете социални
Още по темата
18/04/2024

Групата "Sandworm" е основн...

Но дори и да се е...
17/04/2024

Последни тенденции при злов...

В днешната дигитална ера киберсигурността се...
12/04/2024

Oracle увеличава усилията с...

Техническият директор и председател на Oracle...
Последно добавени
18/04/2024

Вариант на LockBit 3.0 гене...

Изследователите на Kaspersky са открили новия...
18/04/2024

Групата "Sandworm" е основн...

Но дори и да се е...
18/04/2024

Apple предупреждава потреби...

В ново уведомление за заплахи Apple...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!