CISA, ACSC и международни партньори представиха стратегически насоки за безопасното внедряване на ИИ в OT системи, включително машинно обучение, LLM модели и автономни агенти.
Глобална инициатива за сигурна ИИ интеграция в OT инфраструктурата
Американската агенция CISA и Австралийският център за киберсигурност(ACSC), заедно с редица международни партньори, публикуваха първия по рода си документ, който задава рамка за сигурна интеграция на изкуствен интелект (ИИ) в оперативните технологии (OT).
Ръководството “Principles for the Secure Integration of Artificial Intelligence in Operational Technology” цели да помогне на операторите на критична инфраструктура да внедряват ИИ безопасно, без да компрометират надеждността, безопасността или регулаторната съвместимост на средата.
Документът покрива три основни направления на ИИ технологията:
-
машинно обучение (ML),
-
модели с големи езикови параметри (LLM),
-
ИИ агенти,
както и традиционни автоматизирани решения, базирани на статистически модели.
ИИ по Purdue модела: къде и как се прилага
Ръководството използва класическия Purdue модел, за да покаже как ИИ вече се внедрява в различни OT нива:
-
Ниво 0 – полеви устройства: датчици, задвижващи механизми и сензори, които генерират OT данни за ML модели и ранно откриване на аномалии.
-
Ниво 1 – локални контролери: PLC и RTU устройства, които вече поддържат вградени ML модели за локална детекция и управление.
-
Ниво 2 – локален надзор: SCADA, DCS и HMI системи, които използват ML за ранно откриване на отклонения и поддръжка.
-
Ниво 3 – заводско ниво: MES системи и исторически бази данни, които използват ML за прогнозна поддръжка и оптимизация на процеси.
-
Нива 4–5 – IT и бизнес слоеве: тук ИИ, включително агенти и LLM модели, подкрепя анализ, киберзащита, приоритизиране на рискове и автоматизиране на бизнес операции.
Четирите принципа за сигурна интеграция на ИИ в OT
1. Разбиране на ИИ и неговите рискове
Първият принцип изисква организациите да осъзнаят:
-
специфичните заплахи при внедряване на ИИ в OT,
-
въздействието върху процеси, безопасност и надеждност,
-
нуждата от обучение на персонала и осигуряване на сигурен development lifecycle.
Документът подчертава, че рисковете са динамични и често уникални за всяка OT среда.
2. Оценка дали ИИ е подходящ за OT задачата
Преди внедряване операторите трябва да определят:
-
дали ИИ е най-доброто решение,
-
дали по-прости технологии не могат да дадат същия резултат,
-
какъв е реалният ефект върху сигурността, разходите, сложността и безопасността.
Важно е и да се оцени способността на организацията да поддържа подобна технология, включително нуждата от нов хардуер, допълнителна защита и разширена повърхност за атаки.
3. Създаване на силна структура за управление на ИИ
Ефективното управление включва:
-
ясен процес за вземане на решения,
-
включване на ключови заинтересовани страни (CEO, CISO, OT/IT експерти),
-
политики за защита на чувствителни OT данни,
-
взаимодействие с вендори и изискване на прозрачност, включително SBOM за ИИ модели.
Оператори трябва да знаят как ИИ е вграден в OT устройството, какви данни използва и какви рискове носи.
4. Осигуряване на непрекъснат мониторинг и failsafe поведение
Принципът подчертава, че:
-
човешкият контрол остава водещ,
-
AI решения трябва да могат да бъдат проверени, наблюдавани и коригирани,
-
организациите трябва да водят инвентар на всички ИИ компоненти,
-
да установят “known-good state” и прагове за безопасно поведение,
-
да извършват непрекъснато тестване, мониторинг, одит и валидиране на модели.
Регулярните срещи със заинтересованите страни допринасят за ранно откриване на проблеми, модели на отклонение и риск от „AI drift“.
Какво казва индустрията: реакции и анализи
Fortinet:
Глобалната координация между САЩ, Великобритания, Австралия и Канада показва колко критичен е въпросът. Fortinet подчертава нуждата от ясни принципи за защита на OT средата в ера, в която ИИ все повече участва в киберфизичните системи.
Darktrace Federal:
Фокусът върху поведенческа аналитика и ранно откриване на отклонения е ключов. Използването на LLM модели за решения, влияещи на безопасността, трябва да бъде ограничено поради непредсказуемост.
NCC Group:
OT средите са структурирани, детерминистични и често несъвместими с модерни ИИ решения. Ръководството е важно, защото адресира OT специфичните рискове, а не само IT предизвикателствата.
ИИ в OT – потенциал и отговорности
Интеграцията на ИИ в OT може да донесе значителни ползи:
-
по-добра ефективност,
-
прогнозна поддръжка,
-
ускорени реакции при инциденти,
-
по-висока устойчивост.
Но тя въвежда и сериозни нови рискове – от непредвидимо поведение на модели, до увеличена повърхност за атаки и зависимости от доставчици.
Документът очертава четири стабилни принципа:
-
Разбиране на ИИ,
-
Оценка на употребата в OT,
-
Управление и прозрачност,
-
Непрекъсната сигурност и наблюдение.
Следването им позволява безопасно, контролирано и устойчиво внедряване на ИИ в критична инфраструктура.









