Claude на Anthropic и военните операции на САЩ

Според публикация на The Wall Street Journal, езиковият модел Anthropic Claude е бил използван в рамките на американска военната операция, свързана със залавянето на президента на  Венецуела – факт, който предизвика сериозни въпроси относно границите между корпоративните политики за етично използване на ИИ и практическите нужди на отбранителните структури.

Операцията, насочена срещу бившия венецуелски президент Николас Мадуро, според официални източници на венецуелското министерство на отбраната, е включвала въздушни удари в района на Каракас и е довела до десетки жертви. Макар детайлите около ролята на ИИ да не са публично разкрити, самото му споменаване в подобен контекст е безпрецедентно за Anthropic.

Партньорството с Palantir – ключовият посредник

Използването на Claude не е било директно, а чрез платформи на Palantir Technologies – компания, която от години работи тясно с Министерство на отбраната на САЩ и други американски служби за сигурност. Именно това партньорство позволява модели на Anthropic да бъдат внедрявани и в класифицирани среди – нещо, което отличава компанията от повечето ѝ конкуренти.

Този модел на индиректен достъп обаче поставя Anthropic в сложна позиция: макар компанията формално да поддържа строги правила за употреба, реалният контрол върху начина, по който моделът се използва от трети страни, остава ограничен.

Политики срещу реалност: къде е границата?

Официалните правила на Anthropic ясно забраняват използването на Claude за:

  • улесняване на насилие,

  • разработване или подпомагане на оръжия,

  • масово наблюдение.

Компанията настоява, че две области остават напълно „червени линии“ – автономните оръжия и масовото следене на граждани. Именно тази позиция, според публикации в Axios и Reuters, е в основата на напрежението между Anthropic и Пентагона.

Американското министерство на отбраната настоява водещи ИИ компании, включително OpenAI, Google и xAI, да предоставят инструментите си за „всички законни цели“, включително бойни операции и разузнаване. Anthropic е единствената от тези компании, която открито отказва да разшири обхвата си до подобни сценарии без строги ограничения.

Потенциални последици и по-широкият дебат

Случаят  Венецуела показва нарастващото напрежение между:

  • етиката на ИИ,

  • геополитическите реалности,

  • военните нужди на държавите.

Дори и без пълна яснота как точно е използван моделът, самият факт, че езиков ИИ се появява в контекста на реална военна операция, бележи нов етап в развитието на технологиите. Това вече не е теоретичен дебат за бъдещето, а практически въпрос за настоящето – кой контролира ИИ, при какви условия и с каква отговорност.

e-security.bg

Подобни

Луксозната марка Helen Kaminski в прицела на Play ransomware
10.03.2026
Ransomware is relentless
Масивна атака срещу Roblox
10.03.2026
DreamHack Leipzig 2019 Gamers Convention
xAI под огън заради въглеродни емисии
10.03.2026
ai-generated-8223753_640
Apple въвежда Transparency Tags за AI-създадена музика
10.03.2026
music
Alphabet обвърза заплащането на Сундар Пичай с бъдещето на Waymo и Wing
10.03.2026
sundar
ФБР потвърди киберпробив, засегнал системи за наблюдение
9.03.2026
FBI

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Българските торент сайтове продължават да изчезват
27.02.2026
pirate-flag-7541041_640
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.