На тлі конфлікту довкола військового застосування ШІ президент США Дональд Трамп наказав федеральним агентствам припинити використання технологій Anthropic. Рішення вже називають таким, що здатне ускладнити роботу розвідки та оборонних структур.
Ключовою причиною стала суперечка між Anthropic і Пентагоном щодо умов доступу до моделі Claude у класифікованих системах. Після зриву дедлайну міністр оборони Піт Гегсет позначив компанію як “supply-chain risk”, фактично відрізаючи її від держзамовлень.
Anthropic наполягала на двох винятках: забороні використання Claude для масового стеження за американцями та для автономної зброї без людини “в циклі”. У відповідь Пентагон вимагав формули “для всіх законних цілей”, без технічних обмежень від підрядника.
За підрахунками редакції Дейком, це зіткнення виходить за межі контракту: держава демонструє, що етичні рамки приватної компанії не можуть конкурувати з її трактуванням національної безпеки. Прецедент небезпечний тим, що “важіль закупівель” перетворюють на дисциплінарний інструмент.
Найболючіше питання — практичні наслідки. Claude, за оцінками нинішніх і колишніх посадовців, уже вбудований у частину процесів аналітики, зокрема в допомогу при перегляді великих масивів даних. Швидка заміна ШІ в таких контурах неминуче дає “провал продуктивності”.
Трамп, втім, залишив Пентагону шестимісячний період на “phase out”, тоді як іншим агентствам наказано зупиняти використання негайно. Це водночас і запобіжник від миттєвого колапсу, і сигнал: політичне рішення вже прийнято, але техніка не встигає за риторикою.
Anthropic пообіцяла оскаржити “supply-chain risk” у суді, назвавши це безпрецедентним кроком, який раніше застосовували переважно до іноземних компаній. Якщо суд зупинить дію заборони, уряд опиниться у пастці власної ескалації.
Паралельно OpenAI оголосила про угоду з Пентагоном щодо роботи в класифікованих системах. Її конструкція виглядає парадоксально: доступ “для законних цілей” поєднується з технічними запобіжниками, які формально віддзеркалюють вимоги Anthropic. Це підриває аргумент, що “обмеження неможливі”.
У цій схемі важливий і третій гравець — Grok від xAI. Пентагон показує ринку, що має альтернативи, навіть якщо їхня якість або зрілість у класифікованих середовищах викликає сумніви у практиків. Конкуренція постачальників перетворюється на метод тиску.
Формула “supply-chain risk” особливо чутлива, бо чіпляє не лише Anthropic, а й усіх підрядників, які працюють із військовими. У термінах ланцюга постачання це означає: партнерства стають токсичними, а ризик “випадкового порушення” — юридично й фінансово дорогим.
Друга площина — технологічна. “Технічні guardrails” у класифікованих системах — це не пресреліз, а контроль доступів, аудит запитів, журнали подій, сегментація контурів і процедури, які не можна тихо “вимкнути” під тиском оперативної потреби. Саме тут і ховається реальна ціна компромісу.
Третя — юридична. “Для всіх законних цілей” звучить чітко, але “законність” рухома: змінюються директиви, трактування, політичні пріоритети. Тому виробники ШІ бояться не сьогоднішніх обіцянок, а завтрашніх наказів — коли модель можуть підштовхнути до межі допустимого.
Політична складова стала головним прискорювачем. Сенатор Марк Ворнер прямо заявив, що поєднання наказу й образливої риторики створює підозру: чи не керують рішенням політичні міркування замість зваженого аналізу ризиків для обороноздатності.
У Кремнієвій долині відповіддю стала нетипова солідарність: працівники конкурентів, зокрема OpenAI та Google, публічно підтримували позицію щодо недопущення масового стеження та автономної зброї. Це сигнал, що “AI safety” — не лише бренд, а й внутрішній соціальний контракт у командах.
Та солідарність має межі: коли на столі — доступ до Пентагону, ринок винагороджує тих, хто знаходить “правильні слова” і “правильну архітектуру” угоди. Саме тому нинішня історія — про те, як корпоративна етика стикається з логікою державної сили.
Для США ризик двоїстий. З одного боку, прискорення військового ШІ обіцяє перевагу в плануванні та аналізі. З іншого — поспіх і примус створюють імовірність помилок, витоків і рішень, де відповідальність розмивається між моделлю, оператором і чиновником.
Для союзників Вашингтона це теж маркер: як саме Америка визначатиме правила використання штучного інтелекту в обороні та розвідці. Якщо запобіжники ставитимуться лише “постфактум”, інші столиці можуть копіювати підхід — і так само політизувати технічні стандарти.
Найближчі тижні, ймовірно, принесуть два паралельні процеси: судову атаку Anthropic і практичну міграцію частини державних користувачів на альтернативи. Навіть якщо заборону частково “заморозять”, інерція переходу вже запущена — і її важко зупинити.
Довший горизонт — стандартизація. Пентагону доведеться або запропонувати всім постачальникам однакові рамки (включно з “людським контролем” над застосуванням сили), або готуватися до повторення таких конфліктів щоразу, коли модель ставатиме потужнішою.
У цій історії є непомітний герой — аналітик, який завтра відкриє робочий інтерфейс і побачить, що звичний інструмент зник. Для нього суперечка “Anthropic — Пентагон” не про політичні ярлики, а про те, чи стане розвідка швидшою без втрати запобіжників — і чи не доведеться платити за швидкість помилками.