Според публикация на The Wall Street Journal, езиковият модел Anthropic Claude е бил използван в рамките на американска военната операция, свързана със залавянето на президента на Венецуела – факт, който предизвика сериозни въпроси относно границите между корпоративните политики за етично използване на ИИ и практическите нужди на отбранителните структури.
Операцията, насочена срещу бившия венецуелски президент Николас Мадуро, според официални източници на венецуелското министерство на отбраната, е включвала въздушни удари в района на Каракас и е довела до десетки жертви. Макар детайлите около ролята на ИИ да не са публично разкрити, самото му споменаване в подобен контекст е безпрецедентно за Anthropic.
Партньорството с Palantir – ключовият посредник
Използването на Claude не е било директно, а чрез платформи на Palantir Technologies – компания, която от години работи тясно с Министерство на отбраната на САЩ и други американски служби за сигурност. Именно това партньорство позволява модели на Anthropic да бъдат внедрявани и в класифицирани среди – нещо, което отличава компанията от повечето ѝ конкуренти.
Този модел на индиректен достъп обаче поставя Anthropic в сложна позиция: макар компанията формално да поддържа строги правила за употреба, реалният контрол върху начина, по който моделът се използва от трети страни, остава ограничен.
Политики срещу реалност: къде е границата?
Официалните правила на Anthropic ясно забраняват използването на Claude за:
-
улесняване на насилие,
-
разработване или подпомагане на оръжия,
-
масово наблюдение.
Компанията настоява, че две области остават напълно „червени линии“ – автономните оръжия и масовото следене на граждани. Именно тази позиция, според публикации в Axios и Reuters, е в основата на напрежението между Anthropic и Пентагона.
Американското министерство на отбраната настоява водещи ИИ компании, включително OpenAI, Google и xAI, да предоставят инструментите си за „всички законни цели“, включително бойни операции и разузнаване. Anthropic е единствената от тези компании, която открито отказва да разшири обхвата си до подобни сценарии без строги ограничения.
Потенциални последици и по-широкият дебат
Случаят Венецуела показва нарастващото напрежение между:
-
етиката на ИИ,
-
геополитическите реалности,
-
военните нужди на държавите.
Дори и без пълна яснота как точно е използван моделът, самият факт, че езиков ИИ се появява в контекста на реална военна операция, бележи нов етап в развитието на технологиите. Това вече не е теоретичен дебат за бъдещето, а практически въпрос за настоящето – кой контролира ИИ, при какви условия и с каква отговорност.









