Google разширява програмата си за възнаграждения за грешки заради заплахите, свързани с ИИ

Google обяви, че разширява своята програма за възнаграждение за уязвимост (VRP), за да компенсира изследователите за намирането на сценарии за атаки, съобразени с генеративните системи за изкуствен интелект (ИИ), в опит да засили безопасността и сигурността на ИИ.

„Генериращият ИИ поражда нови и различни от традиционната цифрова сигурност опасения, като например възможността за несправедливи пристрастия, манипулиране на моделите или неправилно тълкуване на данните (халюцинации)“, заявиха Лори Ричардсън и Роял Хансен от Google.

Някои от категориите, които попадат в обхвата, включват подбудителни инжекции, изтичане на чувствителни данни от набори от данни за обучение, манипулиране на модели, атаки с недоброжелателни смущения, които предизвикват неправилна класификация, и кражба на модели.

Струва си да се отбележи, че по-рано този юли Google създаде червен екип за изкуствен интелект, който да помага за справяне със заплахите за системите за изкуствен интелект като част от своята рамка за сигурен изкуствен интелект (SAIF).

Като част от ангажимента си за сигурен ИИ са обявени и усилията за укрепване на веригата за доставки на ИИ чрез съществуващите инициативи за сигурност с отворен код, като например Supply Chain Levels for Software Artifacts (SLSA) и Sigstore.

Artificial Intelligence Threats

„Цифрови подписи, като например тези от Sigstore, които позволяват на потребителите да проверят дали софтуерът не е бил подправен или заменен“, заяви Google.

„Метаданни като SLSA provenance, които ни казват какво има в софтуера и как е създаден, което позволява на потребителите да гарантират съвместимост с лиценза, да идентифицират известни уязвимости и да откриват по-напреднали заплахи.“

Разработката идва в момент, когато OpenAI представи нов вътрешен екип за готовност, който да „следи, оценява, прогнозира и защитава“ от катастрофални рискове за генеративния ИИ, обхващащи киберсигурността, химическите, биологичните, радиологичните и ядрените (ХБРЯ) заплахи.

Двете компании, наред с Anthropic и Microsoft, обявиха и създаването на фонд за безопасност на ИИ на стойност 10 млн. долара, насочен към насърчаване на научните изследвания в областта на безопасността на ИИ.

 

The Hacker News

Подобни

Рекламите в ChatGPT
5.12.2025
chatgpt-bug-bounty
Русия блокира Roblox
5.12.2025
kids-4937854_1280
Международна операция: арестувани петима за вътрешна търговия с акции
5.12.2025
car-1531273_640
Кибератака блокира компютърната система на Саутхолд
4.12.2025
ransomware
Украински партизани от Atesh изключиха ключова руска система за мобилизация
4.12.2025
cyber-security-3400723_960_720
НАТО : Русия може да стои зад разрушителни кибератаки във Великобритания
4.12.2025
Russia-flag

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Kак да разпознаем и реагираме на фишинг имейл
9.10.2025
phishing-6573326_1280
Черният петък - реални сделки или маркетингов мираж?
27.11.2025
black_cat_Saro_o_Neal_Alamy
Опасен фишинг под прикритието на Ямболския окръжен съд
5.11.2025
phishing

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.