Google обяви, че разширява своята програма за възнаграждение за уязвимост (VRP), за да компенсира изследователите за намирането на сценарии за атаки, съобразени с генеративните системи за изкуствен интелект (ИИ), в опит да засили безопасността и сигурността на ИИ.

„Генериращият ИИ поражда нови и различни от традиционната цифрова сигурност опасения, като например възможността за несправедливи пристрастия, манипулиране на моделите или неправилно тълкуване на данните (халюцинации)“, заявиха Лори Ричардсън и Роял Хансен от Google.

Някои от категориите, които попадат в обхвата, включват подбудителни инжекции, изтичане на чувствителни данни от набори от данни за обучение, манипулиране на модели, атаки с недоброжелателни смущения, които предизвикват неправилна класификация, и кражба на модели.

Струва си да се отбележи, че по-рано този юли Google създаде червен екип за изкуствен интелект, който да помага за справяне със заплахите за системите за изкуствен интелект като част от своята рамка за сигурен изкуствен интелект (SAIF).

Като част от ангажимента си за сигурен ИИ са обявени и усилията за укрепване на веригата за доставки на ИИ чрез съществуващите инициативи за сигурност с отворен код, като например Supply Chain Levels for Software Artifacts (SLSA) и Sigstore.

Artificial Intelligence Threats

„Цифрови подписи, като например тези от Sigstore, които позволяват на потребителите да проверят дали софтуерът не е бил подправен или заменен“, заяви Google.

„Метаданни като SLSA provenance, които ни казват какво има в софтуера и как е създаден, което позволява на потребителите да гарантират съвместимост с лиценза, да идентифицират известни уязвимости и да откриват по-напреднали заплахи.“

Разработката идва в момент, когато OpenAI представи нов вътрешен екип за готовност, който да „следи, оценява, прогнозира и защитава“ от катастрофални рискове за генеративния ИИ, обхващащи киберсигурността, химическите, биологичните, радиологичните и ядрените (ХБРЯ) заплахи.

Двете компании, наред с Anthropic и Microsoft, обявиха и създаването на фонд за безопасност на ИИ на стойност 10 млн. долара, насочен към насърчаване на научните изследвания в областта на безопасността на ИИ.

 

Източник: The Hacker News

Подобни публикации

15 юли 2025

Критични уязвимости в над 240 модела дънни плат...

Изследователи по фърмуерна сигурност алармираха, че десетки модели ...
15 юли 2025

Американски дипломати предупредени за ИИ фалшиф...

Държавният департамент на САЩ предупреди всички американски посолст...

Ще останат ли смартфоните в миналото?

С разширяването на възможностите на изкуствения интелект и стремежа...
14 юли 2025

Злонамерено разширение за Cursor AI IDE доведе ...

Фалшиво разширение за средата за разработка Cursor AI IDE, базирана...
14 юли 2025

Актуализация за Windows 10 нарушава функцията з...

След инсталиране на юлската актуализация KB5062554 за Windows 10, п...
14 юли 2025

Google Gemini податлив на скрити фишинг атаки ч...

Изследване, представено чрез програмата за уязвимости 0din на Mozil...

Защо традиционният HAZOP не е достатъчен

HAZOP (Hazard and Operability Study) е утвърден метод за идентифици...

Преосмисляне на OT киберсигурността

Въпреки че оперативните технологии (OT) стоят в основата на критичн...
13 юли 2025

Големите езикови модели съветват жените да иска...

Ново изследване разкри сериозни признаци на полова дискриминация в ...
Бъдете социални
Още по темата
10/07/2025

Четирима арестувани във връ...

Британската Национална агенция за борба с...
09/07/2025

Европейски медии пускат Cha...

Група от водещи европейски медии обяви...
08/07/2025

Арест в Бразилия за мащабна...

Бразилската полиция арестува служител на софтуерна...
Последно добавени
15/07/2025

Критични уязвимости в над 2...

Изследователи по фърмуерна сигурност алармираха, че...
15/07/2025

Американски дипломати преду...

Държавният департамент на САЩ предупреди всички...
15/07/2025

Ще останат ли смартфоните в...

С разширяването на възможностите на изкуствения...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!