Президентът на САЩ Доналд Тръмп разпореди на всички федерални агенции незабавно да прекратят използването на технологиите на Anthropic, след като министърът на отбраната Пийт Хегсет обяви намерение компанията да бъде обозначена като риск за веригата на доставки за националната сигурност.
Решението беше взето около час преди крайния срок 5:01 ч. ET в петък, поставен на компанията да реши дали да премахне определени ограничения върху използването на своите ИИ системи.
Остра политическа реакция
В публикация в платформата Truth Social Тръмп обвини Anthropic, че се опитва да наложи собствените си условия върху Министерството на отбраната, като според него това застрашава националната сигурност и живота на американските военнослужещи.
Президентът заяви, че започва 6-месечен преходен период, в който агенциите трябва да прекратят използването на продуктите на компанията. Той предупреди, че ако Anthropic не съдейства в процеса, може да се стигне до сериозни граждански и наказателни последици.
Същината на спора – масово наблюдение и автономни оръжия
Конфликтът произтича от отказа на Anthropic да разхлаби етичните и защитни ограничения на своя модел Claude, за което вчера писахме.
Компанията категорично забранява използването на технологията си за:
-
масово вътрешно наблюдение на граждани
-
напълно автономни оръжейни системи без човешки контрол
Главният изпълнителен директор на Anthropic, Дарио Амодей, заяви, че компанията „не може с чиста съвест“ да се съгласи на изискването за „всякаква законна употреба“, тъй като това би премахнало ключови защитни механизми.
Безпрецедентно обозначаване като „риск за веригата на доставки“
След изтичането на крайния срок, Пийт Хегсет потвърди, че ще инициира процедура по обозначаване на Anthropic като supply-chain risk – термин, който традиционно се използва за компании, свързани с противникови държави, а не за американски технологични фирми.
Министерството на отбраната настоява за пълен и неограничен достъп до моделите на Anthropic за всяка законна отбранителна цел, като определя отказа на компанията като опит за натиск върху американската армия.
Подкрепа от технологичния сектор
Главният изпълнителен директор на OpenAI, Сам Алтман, изрази позиция, че компанията му споделя сходни „червени линии“ – ИИ не трябва да се използва за масово наблюдение или автономни смъртоносни системи без човешки контрол.
Допълнително, стотици служители на OpenAI и Google са подписали петиция за солидарност, насочена срещу натиска от страна на Министерството на отбраната.
Финансови и стратегически последици
Договорът на Anthropic с Пентагона – оценяван на до 200 млн. долара – представлява сравнително малка част от приблизително 14 млрд. долара приходи на компанията. Въпреки това решението може да повлияе сериозно на бъдещите ѝ държавни договори и на плановете за излизане на борсата.
Случаят поставя по-широк въпрос: кой определя границите на използване на ИИ – държавата или разработчикът? Конфликтът между националната сигурност и етичните стандарти на технологичните компании очертава нов фронт в глобалния дебат за управлението на ИИ.









