Търсене
Close this search box.

Доброволните препоръки на Министерството на вътрешната сигурност обхващат начините за използване на изкуствен интелект в електропреносната мрежа, водоснабдителната система, мрежата за въздушен транспорт, здравеопазването и други елементи на критичната инфраструктура.

Министерството на вътрешната сигурност на САЩ (DHS) публикува препоръки, които очертават как безопасно да се разработва и внедрява изкуствен интелект (ИИ) в критичната инфраструктура. Препоръките се отнасят за всички участници във веригата за доставки на ИИ, като се започне от доставчиците на облачна и изчислителна инфраструктура, през разработчиците на ИИ и се стигне до собствениците и операторите на критична инфраструктура. Представени са и препоръки за гражданското общество и организациите от публичния сектор.

Доброволните препоръки в „Рамка за ролите и отговорностите за изкуствения интелект в критичната инфраструктура“ разглеждат всяка от ролите в пет ключови области: осигуряване на среда, стимулиране на отговорно проектиране на модели и системи, прилагане на управление на данните, осигуряване на безопасно и сигурно внедряване и мониторинг на ефективността и въздействието. Съществуват и технически и процесни препоръки за повишаване на безопасността, сигурността и надеждността на системите с изкуствен интелект.

В съобщението на DHS се казва, че ИИ вече се използва за устойчивост и намаляване на риска в различни сектори, като например приложения на ИИ за откриване на земетресения, стабилизиране на електропреносната мрежа и сортиране на пощата.

В рамката се разглеждат отговорностите на всяка роля:

  • Доставчиците на облачна и изчислителна инфраструктура трябва да проверяват веригата си за доставка на хардуер и софтуер, да прилагат надеждно управление на достъпа и да защитават физическата сигурност на центровете за данни, които захранват системите с ИИ. Рамката съдържа и препоръки за подпомагане на клиентите и процесите надолу по веригата чрез наблюдение за аномални дейности и създаване на ясни процеси за докладване на подозрителни и вредни дейности.
  • Разработчиците на ИИ трябва да възприемат подход за сигурност още при проектирането, да оценяват опасните възможности на моделите на ИИ и да „осигурят съответствие на модела с ценностите, ориентирани към човека“. Рамката освен това насърчава разработчиците на ИИ да прилагат силни практики за защита на личните данни; да извършват оценки, които тестват възможни пристрастия, начини на отказ и уязвимости; и да поддържат независими оценки за модели, които представляват повишен риск за системите на критичната инфраструктура и техните потребители.
  • Собствениците и операторите на критични инфраструктури следва да внедряват системите с ИИ по сигурен начин, включително да поддържат силни практики за киберсигурност, които отчитат рисковете, свързани с ИИ, да защитават данните на потребителите при фината настройка на продуктите с ИИ и да осигуряват значима прозрачност по отношение на използването на ИИ за предоставяне на стоки, услуги или ползи за обществото.
  • Гражданското общество, включително университетите, изследователските институти и защитниците на потребителите, ангажирани с въпросите на безопасността и сигурността на ИИ, следва да продължи да работи по разработването на стандарти заедно с правителството и индустрията, както и по изследвания за оценка на ИИ, които разглеждат случаите на използване на критичната инфраструктура.
  • Субектите от публичния сектор, включително федералните, щатските, местните, племенните и териториалните правителства, следва да развиват стандартите за практика за безопасност и сигурност на ИИ чрез законови и регулаторни действия.

„Рамката, ако бъде широко приета, ще допринесе за по-доброто гарантиране на безопасността и сигурността на критичните услуги, които осигуряват чиста вода, постоянно електрозахранване, достъп до интернет и др.“, заяви в изявление секретарят на DHS Алехандро Н. Майоркас.

Рамката на DHS предлага модел на споделени и отделни отговорности за безопасното и сигурно използване на ИИ в критичната инфраструктура. Тя също така разчита на съществуващите рамки за риск, за да даде възможност на субектите да преценят дали използването на ИИ за определени системи или приложения носи сериозни рискове, които биха могли да причинят вреди.

„Честно казано, възнамеряваме рамката да бъде жив документ и да се променя в зависимост от развитието на индустрията“, заяви Майоркас по време на разговор с медиите.

Източник: DARKReading

Подобни публикации

13 декември 2024

Silent Push набра 10 млн. долара за платформа з...

Фирмата за разузнаване на заплахи Silent Push е депозирала 10 млн. ...
13 декември 2024

Фишинг - тихият предвестник на пробивите

Фишингът е една от най-разпространените тактики, техники и процедур...
13 декември 2024

Фалшиви ИТ работници превеждат милиони на Север...

В четвъртък Министерството на правосъдието на САЩ обяви обвиненията...
12 декември 2024

Изследователи разбиват Microsoft Azure MFA за е...

Изследователи разбиха метод за многофакторно удостоверяване (MFA) в...
12 декември 2024

Apple пусна големи актуализации на сигурността ...

В Купертино денят на кръпките е сряда тихоокеанско време. Екипът за...
12 декември 2024

27 услуги за DDoS атаки са свалени от Европол

Международна операция на правоприлагащите органи, насочена срещу ра...
Бъдете социални
Още по темата
13/12/2024

Фалшиви ИТ работници превеж...

В четвъртък Министерството на правосъдието на...
08/12/2024

„Стачка“ на роботи поражда ...

Тест в Шанхай разкрива способността на...
04/12/2024

Производителят на водки Sto...

Компаниите на Stoli Group в САЩ...
Последно добавени
13/12/2024

Silent Push набра 10 млн. д...

Фирмата за разузнаване на заплахи Silent...
13/12/2024

Фишинг - тихият предвестник...

Фишингът е една от най-разпространените тактики,...
13/12/2024

Фалшиви ИТ работници превеж...

В четвъртък Министерството на правосъдието на...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!