Инструментите, базирани на изкуствен интелект (ИИ) – включително големите езикови модели (LLMs) като ChatGPT – се превръщат в мощен двигател на производителност, иновации и ефективност в бизнеса. Но тяхната полза и безопасност зависят изцяло от това колко отговорно се използват. Ново проучване на LayerX Security показва сериозен риск: цели 77% от корпоративните данни се споделят с ИИ инструменти от служители, често без те да осъзнават потенциалните последици.
Скритата заплаха в офисите
Докладът LayerX Security Enterprise AI and SaaS Data Security Report 2025 очертава тревожна тенденция – значителна част от поверителната информация на компаниите се излага неволно чрез взаимодействия с платформи като ChatGPT и други големи езикови модели.
Според данните:
-
50% от служителите признават, че са въвеждали чувствителна бизнес информация в генеративни ИИ инструменти.
-
18% дори са споделяли силно конфиденциални данни, включително информация за вътрешни разработки и интелектуална собственост.
След като подобна информация попадне в ИИ платформа, компанията губи контрол върху начина, по който тя се съхранява, анализира или дори използва повторно. Това създава потенциални заплахи от интелектуални кражби, изтичане на данни, щети върху репутацията и дори правни последици.
Парадоксът на продуктивността
Въпреки рисковете, много служители продължават да използват ИИ инструменти, за да оптимизират работата си. 45% от корпоративните служители признават, че разчитат на тях за по-голяма ефективност, а почти половината от тях използват ChatGPT.
Това показва, че бизнесът е изправен пред двоен проблем – от една страна, ИИ носи значителни ползи, а от друга, липсата на регулации и осведоменост създава опасност от сериозни пробиви в сигурността.
Кризата на управлението на данните
Резултатите сочат към нарастваща криза в управлението на идентичности и данни. Ако не бъде овладяна, тя може да доведе до катастрофални последици. Компаниите рискуват да изгубят контрол върху вътрешна информация, докато служителите, често в добронамерен опит да си помогнат, несъзнателно подлагат фирмените системи на опасност.
Култура на отговорно използване на ИИ
Експертите подчертават, че организациите трябва спешно да изградят култура на отговорна употреба на ИИ. Това включва:
-
Въвеждане на ясни политики за управление на данни и достъп;
-
Обучение на служителите относно рисковете и добрите практики при работа с ИИ инструменти;
-
Използване на сигурни корпоративни версии на платформи като ChatGPT;
-
Наблюдение и одитиране на обмена на данни, за да се предотврати неволно изтичане на чувствителна информация.
ИИ инструментите безспорно могат да променят начина, по който компаниите функционират – да увеличат продуктивността и да стимулират иновациите. Но без ясни правила и контрол върху данните, тези предимства могат бързо да се превърнат в рискове, способни да подкопаят самите основи на една организация. Отговорното и осъзнато използване на ИИ е ключът към бъдеще, в което технологичният напредък върви ръка за ръка със сигурността.









