Суперечка між Пентагоном і Anthropic назовні виглядає як торг за контракт на $200 млн для класифікованих систем. Насправді це тест, хто встановлює межі використання штучного інтелекту у війні — держава чи виробник моделей.
До дедлайну 27 лютого сторони підійшли з різними тезами: Anthropic хоче вбудувати обмеження, Пентагон — право застосування «для всіх законних цілей». У відповідь адміністрація Трампа заговорила мовою ультиматумів і «ризиків ланцюга постачання».
Трамп особисто вкинув у конфлікт культурну війну, назвавши Anthropic «woke»-компанією, яка не має диктувати, як воює армія. Для оборонного відомства це зручна рамка: рішення про національну безпеку — суверенна прерогатива.
За попереднім аналізом «Дейком», тут важливіше не слово «woke», а механіка примусу: загроза блокування держзамовлень і натяк на Defense Production Act роблять «добровільні» запобіжники предметом торгу, а не принципу.
Anthropic наполягає на двох червоних лініях: недопущення масового стеження за американцями та автономної зброї без людини «в циклі». Пентагон відповідає: приватний підрядник не може визначати, як держава законно застосує інструмент.
Ця логіка нагадує аналогію з виробником ракет: завод не обирає цілі. Але ШІ — не «залізо», а гнучке програмне забезпечення, яке змінює правила гри: від планування операцій до аналізу розвідданих і прискорення «ланцюга ураження».
Пентагон вже використовує засекречену версію моделі штучного інтелекту Anthropic під назвою Claude — Андрес Кудацький
Найпоказовіше, що на тлі конфлікту OpenAI швидко домовилася з Пентагоном на формулі «будь-яка законна мета», водночас пообіцявши технічні запобіжники проти стеження та автономних летальних рішень. Ринок винагороджує гнучкість.
Для Пентагону це сигнал, що «вендор замінний»: якщо Anthropic не поступиться, є OpenAI, xAI, Google. Саме так держава перетворює конкуренцію на інструмент дисципліни — і зменшує переговорну силу будь-якої окремої компанії.
У Силіконовій долині відповідь теж інституційна: листи працівників OpenAI та Google закликають не «ділитися страхом» і не здавати принципи поодинці. Це рідкісний випадок, коли розробники говорять про межі війни мовою корпоративної солідарності.
Та головний вузол — технічний. Запобіжники в класифікованих системах — це не пресреліз, а архітектура доступів, аудит запитів, журнали подій, ізоляція контурів і чіткі правила, що вважати «забороненим застосуванням» у реальному коді.
Формула «all lawful purposes» небезпечна тим, що «lawful» рухоме: сьогодні заборонено — завтра дозволено новим наказом. У США це підкріплюється курсом на дерегуляцію ШІ: Білий дім прямо заявляє про усунення бар’єрів і тиск на регулювання штатів.
У Європі — інший маятник. ЄС ухвалив AI Act як рамку ризиків, але паралельно звучать ідеї «спрощення» та перегляду темпів імплементації під тиском бізнесу. Отже, західний світ не має єдиної відповіді на військовий ШІ.
Даріо Амодей, виконавчий директор Anthropic, заявив у четвер, що погрози Пентагону «не змінюють нашої позиції: ми не можемо з чистою совістю задовольнити їхнє прохання» — Теа Трафф
На рівні ООН дискусія про заборону або обмеження автономних летальних систем буксує роками. Саме тому Червоний Хрест наполягає: не можна пускати ШІ на поле бою без нагляду й регулювання, інакше відповідальність «розмивається».
Україна стала живою лабораторією цього спору. Аналітики фіксують, що «повна автономність» ще не стала нормою, але дрони швидко отримують функції автоматичного виявлення, супроводу, повторного захоплення цілі — і це вже впливає на тактику.
Саме бойовий досвід підсилює спокусу зняти обмеження: коли противник прискорює цикл «виявив—ударив», кожна секунда стає політичним аргументом проти «повільних» запобіжників. І тут етика програє відчуттю терміновості.
Позиція Anthropic фактично про одне: якщо держава отримує «чорний ящик» із можливістю масштабування, то межі мають бути вбудовані до контракту й перевірювані незалежно. Інакше відповідальність за наслідки перетворюється на гру в перекидання провини.
Пентагон відповідає не лише силою грошей, а й правом. Публічні натяки на використання надзвичайних повноважень і погрози «supply-chain risk» показують, що інструментарій держави ширший за будь-який корпоративний комплаєнс.
У цьому конфлікті є ще один нерв: страх домашнього стеження. Навіть якщо відомство запевняє, що не планує таких застосувань, суспільний запит — на гарантії, а не на обіцянки. Технічні запобіжники мають сенс лише тоді, коли їх не можна «тихо вимкнути».
Війна в Україні започаткувала еру війни за допомогою дронів, яка перетворила автономну зброю з футуристичної можливості на найближчу реальність — Саша Маслов
Бізнес-наслідки теж очевидні: якщо «умови постачальника» трактують як загрозу, стартапи почнуть закладати в моделі менше обмежень від самого початку. Ризик зсувається від запобігання до «постфактум-розслідувань» — тобто до вищої ціни помилки.
Військові апелюють до того, що «залізо» старіє, а перемагає військовий ШІ і софт. Це підхід «AI-first» — швидше тестування, швидше розгортання, швидша інтеграція в планування й розвідку. Але швидкість без правил — це швидкість до катастрофи.
У найближчі місяці компроміс, імовірно, піде шляхом стандартизації: «meaningful human control» як юридична норма, плюс незалежні аудити моделей і прозорі процедури ескалації інцидентів. Інакше кожен контракт перетворюватиметься на нову політичну битву.
Поза заголовками є люди: інженерка, що підписує лист, робить це не з пацифізму, а зі страху помилитися в системі, яка «радить» удар. У війні помилка моделі — це не баг у продукті, а життя, яких не повернути.
Тому «пентагонівське протистояння» — вирішальний момент не лише для США. Воно задає прецедент: чи можуть компанії нав’язувати запобіжники, чи держава вимагатиме повного суверенітету над інструментом — навіть ціною втрати довіри.
Якщо правила не закріплять зараз, вони закріпляться пізніше — через трагедії та суди. І в цьому сенсі конфлікт довкола Claude — попередження для світу: регулювання ШІ у війні не може бути «опцією», бо зброя, що вчиться, не знає пауз.
Міністр оборони Піт Хегсет хоче активно інтегрувати штучний інтелект у планування війни та розробку озброєння — Кенні Голстон