Доброволните препоръки на Министерството на вътрешната сигурност обхващат начините за използване на изкуствен интелект в електропреносната мрежа, водоснабдителната система, мрежата за въздушен транспорт, здравеопазването и други елементи на критичната инфраструктура.

Министерството на вътрешната сигурност на САЩ (DHS) публикува препоръки, които очертават как безопасно да се разработва и внедрява изкуствен интелект (ИИ) в критичната инфраструктура. Препоръките се отнасят за всички участници във веригата за доставки на ИИ, като се започне от доставчиците на облачна и изчислителна инфраструктура, през разработчиците на ИИ и се стигне до собствениците и операторите на критична инфраструктура. Представени са и препоръки за гражданското общество и организациите от публичния сектор.

Доброволните препоръки в „Рамка за ролите и отговорностите за изкуствения интелект в критичната инфраструктура“ разглеждат всяка от ролите в пет ключови области: осигуряване на среда, стимулиране на отговорно проектиране на модели и системи, прилагане на управление на данните, осигуряване на безопасно и сигурно внедряване и мониторинг на ефективността и въздействието. Съществуват и технически и процесни препоръки за повишаване на безопасността, сигурността и надеждността на системите с изкуствен интелект.

В съобщението на DHS се казва, че ИИ вече се използва за устойчивост и намаляване на риска в различни сектори, като например приложения на ИИ за откриване на земетресения, стабилизиране на електропреносната мрежа и сортиране на пощата.

В рамката се разглеждат отговорностите на всяка роля:

  • Доставчиците на облачна и изчислителна инфраструктура трябва да проверяват веригата си за доставка на хардуер и софтуер, да прилагат надеждно управление на достъпа и да защитават физическата сигурност на центровете за данни, които захранват системите с ИИ. Рамката съдържа и препоръки за подпомагане на клиентите и процесите надолу по веригата чрез наблюдение за аномални дейности и създаване на ясни процеси за докладване на подозрителни и вредни дейности.
  • Разработчиците на ИИ трябва да възприемат подход за сигурност още при проектирането, да оценяват опасните възможности на моделите на ИИ и да „осигурят съответствие на модела с ценностите, ориентирани към човека“. Рамката освен това насърчава разработчиците на ИИ да прилагат силни практики за защита на личните данни; да извършват оценки, които тестват възможни пристрастия, начини на отказ и уязвимости; и да поддържат независими оценки за модели, които представляват повишен риск за системите на критичната инфраструктура и техните потребители.
  • Собствениците и операторите на критични инфраструктури следва да внедряват системите с ИИ по сигурен начин, включително да поддържат силни практики за киберсигурност, които отчитат рисковете, свързани с ИИ, да защитават данните на потребителите при фината настройка на продуктите с ИИ и да осигуряват значима прозрачност по отношение на използването на ИИ за предоставяне на стоки, услуги или ползи за обществото.
  • Гражданското общество, включително университетите, изследователските институти и защитниците на потребителите, ангажирани с въпросите на безопасността и сигурността на ИИ, следва да продължи да работи по разработването на стандарти заедно с правителството и индустрията, както и по изследвания за оценка на ИИ, които разглеждат случаите на използване на критичната инфраструктура.
  • Субектите от публичния сектор, включително федералните, щатските, местните, племенните и териториалните правителства, следва да развиват стандартите за практика за безопасност и сигурност на ИИ чрез законови и регулаторни действия.

„Рамката, ако бъде широко приета, ще допринесе за по-доброто гарантиране на безопасността и сигурността на критичните услуги, които осигуряват чиста вода, постоянно електрозахранване, достъп до интернет и др.“, заяви в изявление секретарят на DHS Алехандро Н. Майоркас.

Рамката на DHS предлага модел на споделени и отделни отговорности за безопасното и сигурно използване на ИИ в критичната инфраструктура. Тя също така разчита на съществуващите рамки за риск, за да даде възможност на субектите да преценят дали използването на ИИ за определени системи или приложения носи сериозни рискове, които биха могли да причинят вреди.

„Честно казано, възнамеряваме рамката да бъде жив документ и да се променя в зависимост от развитието на индустрията“, заяви Майоркас по време на разговор с медиите.

Източник: DARKReading

Подобни публикации

22 май 2025

Руската хакерска група APT28 шпионира междунаро...

Мащабна кибершпионска кампания, провеждана от подкрепяната от руска...
22 май 2025

Русия въвежда задължително приложение за просле...

В началото на май 2025 г. руското правителство обяви ново законодат...
22 май 2025

3 a.m. рансъмуер: нова вълна от таргетирани ат...

През първото тримесечие на 2025 г. специалисти по киберсигурност от...
22 май 2025

Mеждународна операция унищожи инфраструктурата ...

Microsoft, правоприлагащи органи и водещи технологични компании с к...
22 май 2025

ЕС наложи санкции на Stark Industries заради ру...

Европейският съюз официално наложи строги санкции на хостинг достав...
21 май 2025

M&S очаква загуби от над £300 милиона след ...

Британската търговска верига Marks & Spencer (M&S) се изпра...
21 май 2025

19-годишен студент се призна за виновен за атак...

Американският департамент по правосъдието (DOJ) обяви, че 19-годишн...
Бъдете социални
Още по темата
21/05/2025

19-годишен студент се призн...

Американският департамент по правосъдието (DOJ) обяви,...
20/05/2025

GPT-5: Следващата голяма ст...

OpenAI официално потвърди, че работи върху...
18/05/2025

OpenAI представя Codex

OpenAI започва постепенното внедряване на Codex...
Последно добавени
22/05/2025

Руската хакерска група APT2...

Мащабна кибершпионска кампания, провеждана от подкрепяната...
22/05/2025

Русия въвежда задължително ...

В началото на май 2025 г....
22/05/2025

3 a.m. рансъмуер: нова въл...

През първото тримесечие на 2025 г....
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!