Коли у Вашингтоні заговорили мовою ультиматумів, Кремнієва долина відповіла мовою солідарності. Стартап Anthropic опинився в центрі суперечки про те, чи має Пентагон право вільно застосовувати штучний інтелект у будь-яких «законних» місіях.
Адміністрація Дональда Трампа наказала федеральним відомствам згортати використання технологій Anthropic, а міністр оборони Піт Гегсет назвав компанію «supply chain risk». Формулювання різке: фактично — сигнал «не співпрацюйте з ними».
Несподіваним стало те, хто підняв голос. Частина інженерів у великих техногігантах просуває петиції та відкриті листи, закликаючи керівництво не поступатися вимогам військових щодо ШІ для масового стеження.
За підрахунками редакції «Дейком», це не просто корпоративна сварка, а боротьба за правила ринку урядових закупівель AI: чи буде стандартом «купили — робимо що хочемо», чи «купили — але в межах запобіжників безпеки ШІ» і прав людини.
Позиція Anthropic зводиться до двох «червоних ліній»: не допомагати у масовому стеженні за американцями та не вбудовувати Claude в автономну летальну зброю, де машина ухвалює рішення про удар без людини.
Пентагон, за версією сторін, наполягав на доступі «без винятків» для всіх законних застосувань. Саме вимога тотальної гнучкості й стала нервом конфлікту: терміни служби, умови контракту і питання, хто контролює ризики.
За словами нинішніх та колишніх посадовців оборони, Пентагон недооцінив, наскільки сильними були почуття Anthropic — Кенні Голстон
Додатковий тиск створив масштаб угоди: медіа описують її як пілотний пакет приблизно на $200 млн, а уряд, водночас, говорить про перехідний період для заміни продуктів Anthropic. Тут уже видно інструмент примусу через контракти Міноборони США.
Конкуренти швидко зчитали ризик прецеденту. OpenAI повідомила про домовленість із Пентагоном щодо застосування моделей у засекречених мережах, підкресливши ті самі обмеження: без domestic mass surveillance і без автономних систем застосування сили.
Це й пояснює хвилю підтримки Anthropic: якщо сьогодні «вичавлюють» стартап, завтра таким самим важелем можуть тиснути на будь-яку лабораторію. Для індустрії це питання не симпатій, а виживання принципів — і репутації безпечного ШІ.
Усередині компаній діє ще один фактор — ринок талантів. Коли висококваліфікований дослідник легко змінює роботодавця, етика стає не плакатом, а HR-реальністю: керівник, який ігнорує цінності команди, ризикує втратити команду.
Гегсетова теза про «supply chain risk» звучить як технічний термін, але наслідки політичні: Wired і Washington Post описують її як механізм, що може відрізати підрядників Пентагону від будь-яких комерційних контактів із Anthropic. Тут і виникає правова сіра зона.
Конфлікт упирається і в філософію влади: Трамп дорікає компанії за спробу нав’язати державі власні terms of service, тоді як Anthropic відповідає, що не блокує «оборонні місії», а лише страхує два сценарії, які підривають демократію.
У ширшому контексті це суперечка про межі військового ШІ. Навіть якщо нині не йдеться про стеження чи автономні удари, технологія, закуплена «без застережень», може перейти в інші контури — з іншим керівництвом і іншою політикою.
Тому для частини техспільноти головне слово — не «зрада» чи «патріотизм», а «запобіжники»: прозорі правила, аудит, контроль людини над застосуванням сили. Інакше оборона легко перетворюється на інфраструктуру контролю.
Anthropic вже заявляла про готовність оскаржувати дії уряду в суді, називаючи їх безпрецедентними. Судовий трек може стати не менш важливим за контрактний: він визначить, як далеко може зайти держава у примусі приватних AI-лабораторій.
Сем Альтман, головний виконавчий директор OpenAI, у службовій записці повідомив співробітникам, що «ми давно вважали, що штучний інтелект не слід використовувати для масового спостереження або автономної смертельної зброї» — Бхавіка Чхабра
А інші гравці тим часом переглядають власні переговори з оборонним відомством. Axios описує «дилему фронтирних лабораторій»: або погодитися на ширший мандат військових, або ризикнути тим самим ярликом відсічення від держзамовлення.
Для союзників США ця історія теж сигнал: якщо закупівлі штучного інтелекту в обороні стають політичним батогом, партнерські екосистеми почнуть закладати в угоди жорсткіші умови комплаєнсу й прав людини — від даних до цілевказання.
Найімовірніший підсумок — поява «типових клаузул» для урядових закупівель AI: окремо про масове стеження, окремо про автономну зброю, окремо про відповідальність у ланцюгу постачання. Інакше кожен контракт вибухатиме кризою.
Для України, яка воює в епоху алгоритмів і дронів, урок очевидний: техніка, що допомагає на фронті, потребує політичних рамок у тилу. Без них «військові інновації» можуть мимохіть переписати правила свободи.
Станом на зараз Кремнієва долина зробила ставку: етика ШІ — не бонус, а частина національної безпеки. А Вашингтон перевіряє межу: чи може держава купити інструмент і забрати право визначати, ким він стане — щитом чи камерою.