Завантаження публікації
ОГОЛОШЕННЯ

OpenAI в Пентагоні: секретна угода після заборони Anthropic

Адміністрація Трампа відрізала Anthropic від держсектору й одразу відкрила двері OpenAI до класифікованих систем — із «технічними запобіжниками» проти стеження та автономної зброї.


Тетяна Федорів
Тетяна Федорів
Газета Дейком | 28.02.2026, 11:10 GMT+3; 04:10 GMT-4

П’ятничний вечір у Вашингтоні перетворився на показову дуель за контроль над військовим ШІ: OpenAI оголосила про домовленість із Пентагоном щодо використання моделей у класифікованих системах — у ті ж години, коли Anthropic наказали прибрати з федерального периметра.

Суть угоди OpenAI сформульована жорстко: Пентагон отримує право застосовувати штучний інтелект «для будь-якої законної мети», натомість компанія обіцяє вбудувати технічні запобіжники, щоб моделі не працювали на масове домашнє стеження у США та автономну зброю без людини.

Конфлікт із Anthropic виник саме навколо двох «червоних ліній»: Claude не має підживлювати тотальне спостереження за американцями й не повинен ухвалювати рішення про застосування сили без людської відповідальності. Пентагон наполягав на доступі без обмежень, і сторони зірвали дедлайн.

За попередніми висновками редакції «Дейком», це не лише суперечка про етику ШІ, а й тест на керованість оборонних закупівель: держава демонструє, що «умови користування» приватної компанії не можуть конкурувати з державною доктриною національної безпеки, навіть якщо йдеться про ризики.

Додатковий символічний шар додає те, що адміністрація наполягає на назві Department of War як «другому титулі» для Міністерства оборони США. Це оформлено окремим рішенням Білого дому й підкреслює силовий, мобілізаційний стиль у комунікаціях держави.

Для OpenAI цей момент — бізнесова «вилка» між принципами AI safety та контрактом. Сам Altman публічно визнавав важливість заборони на стеження й автономні летальні системи, але одночасно погодився на формулу «all lawful purposes», винісши межі в технічну площину.

Ключова інтрига: як саме виглядатимуть «технічні запобіжники» у класифікованих системах. У цивільних продуктах це можуть бути політики модерації, обмеження функцій, журнали доступу й контроль запитів. У секретних мережах додасться інша вага: інтеграція з внутрішніми контурами розвідки та кіберзахисту.

Удар по Anthropic був оформлений максимально принизливо: компанію назвали supply-chain risk — ярликом, який зазвичай асоціюють із противниками та шкідливими ланцюгами постачання. Трамп у соцмережах заявив: «We don’t need it, we don’t want it». Для ринку це сигнал: дисципліна важливіша за репутацію.

Водночас сама адміністрація залишила «технічне вікно» — перехідний період до шести місяців для виведення Anthropic із вбудованих військових платформ. Це натякає, що залежність від Claude уже існувала, а заборона створює ризик розриву процесів, які не вимикаються наказом.

На тлі конфлікту спливла давня тріщина в Кремнієвій долині: інженери бояться, що оборонний попит «з’їсть» етичні рамки. Понад 500 працівників у середовищі OpenAI та Google підтримали позицію про неприпустимість масового стеження й автономної зброї — і ця внутрішня політика може впливати на реальні контракти.

Паралельно Пентагон розширює «портфель» постачальників: у публічному полі вже фігурують Google та xAI, а Grok позиціонують як рішення для окремих секретних сценаріїв. Конкуренція знижує залежність від одного вендора, але підвищує ризик «гонки поступок», де перемагає той, хто менше сперечається.

Тут і з’являється друга лінія сили OpenAI — інфраструктура. Компанія та Amazon Web Services заявили про багаторічне партнерство на $38 млрд і негайний старт використання AWS-обчислень, що важливо для держави, яка традиційно покладається на стандартизовані хмарні контури.

Пентагон заявив, що приватний підрядник не може вирішувати, як його інструменти будуть законно використовуватися для національної безпеки — Тірні Кросс

Цей інфраструктурний фактор підсилюється грошима: OpenAI одночасно оголосила про гігантський раунд фінансування, де Amazon фігурує як один із ключових інвесторів. Для оборонного замовника це не дрібниця — стабільність постачальника стає частиною ризик-матриці, особливо на горизонті «кількох років».

Однак «гроші плюс оборона» не розв’язують головного вузла: що саме вважати забороненим. Масове домашнє стеження може починатися з «вузьких винятків», а автономна зброя — із «підказок для оператора», які поступово стають рішеннями замість людини. Формально human-in-the-loop легко перетворити на human-on-the-loop.

Пентагонська формула «будь-які законні цілі» також створює юридичну пастку: законність визначається політикою та тлумаченнями, які змінюються адміністраціями. Те, що сьогодні заборонено внутрішніми правилами, завтра може стати «дозволено» новою директивою. Тому технічні запобіжники мають бути верифікованими, а не декларативними.

Для Anthropic судова боротьба за зняття supply-chain risk може стати прецедентом, який зачепить усіх розробників ШІ. Якщо держава доведе можливість фактично «вимикати» компанії з ринку через етичний спротив, постачальники почнуть проєктувати продукти під вимогу мовчазної покори, а не під безпеку.

Для OpenAI короткострокова вигода очевидна: заповнення ніші, яку адміністрація сама ж оголила. Але довгостроково компанія бере на себе репутаційний борг: будь-який витік, будь-яке розширення функцій у секретних контурах, будь-який інцидент із «помилковим наведенням» вдарить по довірі до ChatGPT і до корпоративної моделі управління ризиками.

Важливий висновок для ринку — етика в оборонних контрактах більше не вирішується лише «принципами». Вона вирішується архітектурою: хто має ключі доступу, хто проводить аудит, як налаштовані журнали, як працює контроль повноважень і чи існує незалежна перевірка «червоних ліній» на практиці.

Те, що суперечка вилізла у публічний простір, означає: держава й компанії перестали вірити в «тихі протоколи». Відтепер технологічні угоди стають елементом політичної мобілізації — з лейблами «радикальні», «woke», «ризик для нацбезпеки» та з торгом навколо Claude, Grok і майбутніх моделей.

Найімовірніший сценарій на найближчі тижні — перерозподіл федерального попиту на користь OpenAI та частково xAI, тоді як Anthropic піде в суд і спробує відбитися від прецеденту. На горизонті місяців ключовим буде одне: чи з’явиться стандартизований «етичний додаток» до держконтрактів, який переживе зміну адміністрацій.

У цій історії є і «людська» сцена: інженер у підрядника, який обслуговує класифіковані системи, отримує лист із вимогою міграції та розуміє, що етика тут — це не маніфест. Це чек-лист у системі допусків, налаштування доступів і відповідальність за те, що машина не стане суддею й виконавцем одночасно.


Тетяна Федорів — Кореспондент, яка спеціалізується на політиці, економіці та технологіях, проживає у Вашингтоні, США, та висвітлює міжнародні новини.

Цей матеріал є частиною розгорнутої теми: OpenAI, яка охоплює численні цікаві аспекти цієї події. Газета «Дейком» ретельно відстежує події, проводячи перевірку джерел та інформації, щоб забезпечити нашим читачам найбільш точне та актуальне інформування.

Цей матеріал опубліковано 28.02.2026 року о 11:10 GMT+3 Київ; 04:10 GMT-4 Вашингтон, розділ: Світові новини, Сполучені Штати, Технології, Аналітика, Штучний інтелект, із заголовком: "OpenAI в Пентагоні: секретна угода після заборони Anthropic". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save
ОГОЛОШЕННЯ

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції