OpenAI заяви, че ще засили значително механизмите си за безопасност, след като стана ясно, че извършителят на масовата стрелба в Тъмблър Ридж е използвал втори акаунт в ChatGPT, въпреки че първият е бил блокиран за нарушения на правилата – без информацията да бъде предадена на канадските власти.
Трагедията, при която бяха убити осем души, включително шестима в Tumbler Ridge Secondary School, предизвика остра обществена реакция и постави под въпрос ролята и отговорността на ИИ платформите при откриване на сигнали за предстоящо насилие.
Пропуснатият сигнал и обществената реакция
След разкритията, че вторият акаунт на извършителя е останал незасечен, срещу OpenAI бяха отправени сериозни критики. Основното обвинение е, че компанията не е уведомила полицията за първоначалния акаунт, въпреки нарушенията.
Премиерът на Британска Колумбия Дейвид Иби заяви, че трагедията е могла да бъде предотвратена:
По думите му, ако информацията за тревожните заявки беше споделена навреме с полицията, „последиците нямаше да бъдат понасяни от семействата на Тъмблър Ридж до края на живота им“.
Позицията на OpenAI: защо не е подаден сигнал
В открито писмо до канадските власти Aн O’Лиъри, вицепрезидент по глобалната политика на OpenAI, обяснява, че акаунтът е бил закрит още през юни 2025 г., около седем месеца преди атаката.
Компанията признава, че не е идентифицирала „достоверно и непосредствено планиране на насилие“, което по тогавашните ѝ протоколи да изисква сигнализиране на органите на реда.
OpenAI подчертава, че през последните месеци е инвестирала сериозно в подобряване на методите за откриване на рискови модели, без да нарушава поверителността на потребителите.
Какво се променя след трагедията
Компанията заявява, че днес би докладвала подобен акаунт, тъй като вече прилага по-гъвкави критерии, които не изискват потребителят изрично да посочва:
-
конкретна цел;
-
средства;
-
точен момент за извършване на насилие.
OpenAI ще:
-
изгради директни канали за комуникация с канадските правоохранителни органи;
-
подобри системите за откриване на повтарящи се нарушители;
-
засили насочването на рискови потребители към ресурси за психично здраве и подкрепа.
Политическа оценка и следващи стъпки
Според BBC, канадският министър по ИИ Еван Соломон е заявил, че OpenAI демонстрира готовност за подобрения, но подчертава, че липсва ясен и детайлен план за практическото им прилагане.
Той ще се срещне с главния изпълнителен директор на OpenAI Сам Алтман, за да получи повече яснота относно реалните защитни механизми, които компанията възнамерява да въведе.
ИИ и отговорността за ранно предупреждение
Случаят от Тъмблър Ридж изостря глобалния дебат за това къде минава границата между защита на личните данни и обществената сигурност. Докато ИИ системите все по-често се използват като източник на информация, подкрепа и насоки, обществото очаква от разработчиците им по-ясни правила, прозрачност и активна роля при предотвратяване на тежки престъпления.









