Завантаження публікації
Трамп “вимикає” Anthropic: Пентагон і ШІ стають інструментом політики

Трамп “вимикає” Anthropic: Пентагон і ШІ стають інструментом політики

Заборона Anthropic для уряду США після спору про Claude оголила ключове: хто встановлює запобіжники для військового ШІ — держава чи розробник.


Даріо Амодей, виконавчий директор Anthropic, заявив у четвер, що погрози Пентагону «не змінюють нашої позиції: ми не можемо з чистою совістю задовольнити їхнє прохання» — Теа Трафф
Стасова Вікторія
Стасова Вікторія
Газета Дейком | 28.02.2026, 11:45 GMT+3; 04:45 GMT-4

На тлі конфлікту довкола військового застосування ШІ президент США Дональд Трамп наказав федеральним агентствам припинити використання технологій Anthropic. Рішення вже називають таким, що здатне ускладнити роботу розвідки та оборонних структур.

Ключовою причиною стала суперечка між Anthropic і Пентагоном щодо умов доступу до моделі Claude у класифікованих системах. Після зриву дедлайну міністр оборони Піт Гегсет позначив компанію як “supply-chain risk”, фактично відрізаючи її від держзамовлень.

Anthropic наполягала на двох винятках: забороні використання Claude для масового стеження за американцями та для автономної зброї без людини “в циклі”. У відповідь Пентагон вимагав формули “для всіх законних цілей”, без технічних обмежень від підрядника.

За підрахунками редакції Дейком, це зіткнення виходить за межі контракту: держава демонструє, що етичні рамки приватної компанії не можуть конкурувати з її трактуванням національної безпеки. Прецедент небезпечний тим, що “важіль закупівель” перетворюють на дисциплінарний інструмент.

Найболючіше питання — практичні наслідки. Claude, за оцінками нинішніх і колишніх посадовців, уже вбудований у частину процесів аналітики, зокрема в допомогу при перегляді великих масивів даних. Швидка заміна ШІ в таких контурах неминуче дає “провал продуктивності”.

Трамп, втім, залишив Пентагону шестимісячний період на “phase out”, тоді як іншим агентствам наказано зупиняти використання негайно. Це водночас і запобіжник від миттєвого колапсу, і сигнал: політичне рішення вже прийнято, але техніка не встигає за риторикою.

Anthropic пообіцяла оскаржити “supply-chain risk” у суді, назвавши це безпрецедентним кроком, який раніше застосовували переважно до іноземних компаній. Якщо суд зупинить дію заборони, уряд опиниться у пастці власної ескалації.

Паралельно OpenAI оголосила про угоду з Пентагоном щодо роботи в класифікованих системах. Її конструкція виглядає парадоксально: доступ “для законних цілей” поєднується з технічними запобіжниками, які формально віддзеркалюють вимоги Anthropic. Це підриває аргумент, що “обмеження неможливі”.

У цій схемі важливий і третій гравець — Grok від xAI. Пентагон показує ринку, що має альтернативи, навіть якщо їхня якість або зрілість у класифікованих середовищах викликає сумніви у практиків. Конкуренція постачальників перетворюється на метод тиску.

Формула “supply-chain risk” особливо чутлива, бо чіпляє не лише Anthropic, а й усіх підрядників, які працюють із військовими. У термінах ланцюга постачання це означає: партнерства стають токсичними, а ризик “випадкового порушення” — юридично й фінансово дорогим.

Друга площина — технологічна. “Технічні guardrails” у класифікованих системах — це не пресреліз, а контроль доступів, аудит запитів, журнали подій, сегментація контурів і процедури, які не можна тихо “вимкнути” під тиском оперативної потреби. Саме тут і ховається реальна ціна компромісу.

Третя — юридична. “Для всіх законних цілей” звучить чітко, але “законність” рухома: змінюються директиви, трактування, політичні пріоритети. Тому виробники ШІ бояться не сьогоднішніх обіцянок, а завтрашніх наказів — коли модель можуть підштовхнути до межі допустимого.

Політична складова стала головним прискорювачем. Сенатор Марк Ворнер прямо заявив, що поєднання наказу й образливої риторики створює підозру: чи не керують рішенням політичні міркування замість зваженого аналізу ризиків для обороноздатності.

У Кремнієвій долині відповіддю стала нетипова солідарність: працівники конкурентів, зокрема OpenAI та Google, публічно підтримували позицію щодо недопущення масового стеження та автономної зброї. Це сигнал, що “AI safety” — не лише бренд, а й внутрішній соціальний контракт у командах.

Та солідарність має межі: коли на столі — доступ до Пентагону, ринок винагороджує тих, хто знаходить “правильні слова” і “правильну архітектуру” угоди. Саме тому нинішня історія — про те, як корпоративна етика стикається з логікою державної сили.

Для США ризик двоїстий. З одного боку, прискорення військового ШІ обіцяє перевагу в плануванні та аналізі. З іншого — поспіх і примус створюють імовірність помилок, витоків і рішень, де відповідальність розмивається між моделлю, оператором і чиновником.

Для союзників Вашингтона це теж маркер: як саме Америка визначатиме правила використання штучного інтелекту в обороні та розвідці. Якщо запобіжники ставитимуться лише “постфактум”, інші столиці можуть копіювати підхід — і так само політизувати технічні стандарти.

Найближчі тижні, ймовірно, принесуть два паралельні процеси: судову атаку Anthropic і практичну міграцію частини державних користувачів на альтернативи. Навіть якщо заборону частково “заморозять”, інерція переходу вже запущена — і її важко зупинити.

Довший горизонт — стандартизація. Пентагону доведеться або запропонувати всім постачальникам однакові рамки (включно з “людським контролем” над застосуванням сили), або готуватися до повторення таких конфліктів щоразу, коли модель ставатиме потужнішою.

У цій історії є непомітний герой — аналітик, який завтра відкриє робочий інтерфейс і побачить, що звичний інструмент зник. Для нього суперечка “Anthropic — Пентагон” не про політичні ярлики, а про те, чи стане розвідка швидшою без втрати запобіжників — і чи не доведеться платити за швидкість помилками.


Стасова Вікторія — Кореспондент, який спеціалізується на суспільно важливих темах, пише про політику, економікку, фінансові ринки та бізнес. Вона проживає та працює в Лондоні, Великобританія.

Цей матеріал є частиною розгорнутої теми: Другий термін Трампа розпочався, яка охоплює численні цікаві аспекти цієї події. Газета «Дейком» ретельно відстежує події, проводячи перевірку джерел та інформації, щоб забезпечити нашим читачам найбільш точне та актуальне інформування.

Цей матеріал опубліковано 28.02.2026 року о 11:45 GMT+3 Київ; 04:45 GMT-4 Вашингтон, розділ: Світові новини, Сполучені Штати, із заголовком: "Трамп “вимикає” Anthropic: Пентагон і ШІ стають інструментом політики". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції