NIST предупреди, че няма сигурен начин за защита от атаки за „отравяне“ на модели на изкуствен интелект, които стават все по-интензивни и мащабни.
Заплахите използват неправилно функциониращи системи с изкуствен интелект, причинени от „ненадеждни данни“, предупреждава нова консултация на Националния институт по стандартизация и технологии (NIST).
Новият доклад на NIST относно надеждния и отговорен ИИ разкрива как хакерите могат умишлено да „отровят“ системите с ИИ и да предизвикат тяхното неправилно функциониране, което след това могат да използват.
Тревожно е, че в доклада се отбелязва също, че разработчиците нямат сигурен начин да се предпазят от подобни атаки.
Един от авторите на доклада, компютърният учен от NIST Апостол Василев, заяви, че настоящите стратегии за смекчаване на последиците, използвани за борба с подобни атаки, не могат да гарантират защита.
„Описваме и настоящите стратегии за смекчаване на последиците, за които се съобщава в литературата, но тези налични защити понастоящем нямат солидни гаранции, че напълно намаляват рисковете“, каза той. „Насърчаваме общността да предложи по-добри защити.“
Към проблемите, с които се сблъскват организациите, внедряващи изкуствен интелект, се добавя и фактът, че методите за атака, описани в доклада на NIST, изискват малко предварителни познания за самата система и не се ограничават до най-сложните атаки.
Съавторът, професор Алина Опря от Североизточния университет, отбеляза: „най-малко от тези атаки са сравнително лесни за осъществяване и изискват минимални познания за системата на ИИ и ограничени възможности на противника“.
Докладът на NIST очертава четирите основни типа атаки, използвани за компрометиране на технологиите на ИИ: атаки за отравяне, избягване, защита на личните данни и злоупотреба.
Атаките с отравяне изискват хакери да получат достъп до модела по време на фазата на обучение, като използват повредени данни, за да променят из основи изводите на системата. Като подават на системата за изкуствен интелект непроверени данни, нападателите могат да повлияят на нейното поведение след внедряването ѝ.
Например чатботът може да бъде накаран да генерира обидни или заплашителни отговори на подкани, като се инжектира злонамерено съдържание в модела, докато той се обучава.
Подобно на атаките за отравяне, атаките за злоупотреба се извършват и когато данните, използвани за обучение, се използват за създаване на уязвимости в системата. Злоупотребата се различава по това, че вместо вмъкване на злонамерено съдържание, използвано за предизвикване на нежелано поведение от ИИ, при атаките за злоупотреба се използва невярна информация, която идва от уж легитимен източник, за да се компрометира системата.
Атаките за заобикаляне се извършват след внедряването на система с изкуствен интелект и включват заплахи, които използват фини промени във входящите данни, за да се опитат да изкривят предвидената функция на модела.
Един от примерите, посочени в доклада, включва използването на малки промени в пътните знаци, за да накара автономното превозно средство да ги изтълкува погрешно и да реагира по потенциално опасен, непредписан начин.
Атаките срещу неприкосновеността на личния живот се случват и по време на фазата на внедряване на системите с изкуствен интелект. Атаката срещу неприкосновеността на личния живот включва заплахи, които взаимодействат със системата за ИИ, за да получат информация за ИИ, която след това могат да използват, за да открият слабости, които могат да кешират.
Чатботовете са ясен пример за този вид вектор на атака, при който нападателите могат да задават на ИИ легитимни, на пръв поглед безобидни въпроси и да използват отговорите, за да подобрят разбирането си за данните, използвани за обучение на модела.
Както и при атаките за отравяне и злоупотреба, възможността да се влияе върху данните, върху които се обучават моделите, в крайна сметка води до възможност да се влияе върху системата на ИИ, така че атаките за защита на личните данни също се основават на тази концепция, като се опитват да накарат самия ИИ да предаде важна информация, която може да се използва за компрометиране на системата.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.