Търсене
Close this search box.

Google разширява програмата си за възнаграждения за грешки заради заплахите, свързани с ИИ

Google обяви, че разширява своята програма за възнаграждение за уязвимост (VRP), за да компенсира изследователите за намирането на сценарии за атаки, съобразени с генеративните системи за изкуствен интелект (ИИ), в опит да засили безопасността и сигурността на ИИ.

„Генериращият ИИ поражда нови и различни от традиционната цифрова сигурност опасения, като например възможността за несправедливи пристрастия, манипулиране на моделите или неправилно тълкуване на данните (халюцинации)“, заявиха Лори Ричардсън и Роял Хансен от Google.

Някои от категориите, които попадат в обхвата, включват подбудителни инжекции, изтичане на чувствителни данни от набори от данни за обучение, манипулиране на модели, атаки с недоброжелателни смущения, които предизвикват неправилна класификация, и кражба на модели.

Струва си да се отбележи, че по-рано този юли Google създаде червен екип за изкуствен интелект, който да помага за справяне със заплахите за системите за изкуствен интелект като част от своята рамка за сигурен изкуствен интелект (SAIF).

Като част от ангажимента си за сигурен ИИ са обявени и усилията за укрепване на веригата за доставки на ИИ чрез съществуващите инициативи за сигурност с отворен код, като например Supply Chain Levels for Software Artifacts (SLSA) и Sigstore.

Artificial Intelligence Threats

„Цифрови подписи, като например тези от Sigstore, които позволяват на потребителите да проверят дали софтуерът не е бил подправен или заменен“, заяви Google.

„Метаданни като SLSA provenance, които ни казват какво има в софтуера и как е създаден, което позволява на потребителите да гарантират съвместимост с лиценза, да идентифицират известни уязвимости и да откриват по-напреднали заплахи.“

Разработката идва в момент, когато OpenAI представи нов вътрешен екип за готовност, който да „следи, оценява, прогнозира и защитава“ от катастрофални рискове за генеративния ИИ, обхващащи киберсигурността, химическите, биологичните, радиологичните и ядрените (ХБРЯ) заплахи.

Двете компании, наред с Anthropic и Microsoft, обявиха и създаването на фонд за безопасност на ИИ на стойност 10 млн. долара, насочен към насърчаване на научните изследвания в областта на безопасността на ИИ.

 

Източник: The Hacker News

Подобни публикации

19 април 2024

Замбия арестува 77 души в операция за киберпрес...

Компанията за фалшиви телефонни центрове извършва онлайн  и други и...
18 април 2024

Платформата за фишинг LabHost е закрита от прав...

LabHost, голяма платформа за фишинг като услуга, е била затворена к...
18 април 2024

Компания за управление на киберриска набра 21 м...

В сряда компанията за риск мениджмънт CyberSaint обяви, че е набрал...
18 април 2024

Болница в Кан с 869 легла и 2100 служителя прет...

Болница „Симон Вейл“ в Кан (CHC-SV) обяви, че във вторн...
18 април 2024

Akira ransomware е събрала 42 млн. долара от ре...

Според съвместна препоръка на ФБР, CISA, Европейския център за кибе...
18 април 2024

Вариант на LockBit 3.0 генерира персонализиран,...

Изследователите на Kaspersky са открили новия вариант, след като са...
Бъдете социални
Още по темата
18/04/2024

Компания за управление на к...

В сряда компанията за риск мениджмънт...
08/04/2024

NIS2: От риск към възможност

На 02.04.2024 г. в столичния ИНТЕР...
28/03/2024

Защо измамите с некролози с...

Измамниците вече използват изкуствен интелект, за...
Последно добавени
19/04/2024

Замбия арестува 77 души в о...

Компанията за фалшиви телефонни центрове извършва...
18/04/2024

Платформата за фишинг LabHo...

LabHost, голяма платформа за фишинг като...
18/04/2024

Компания за управление на к...

В сряда компанията за риск мениджмънт...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!