Ще восени OpenAI виглядав беззаперечним фаворитом ринку генеративного ШІ: компанія масштабувала ChatGPT, нарощувала корпоративні продажі й закріплювалася як інфраструктурний стандарт для масового користувача та бізнесу. Наприкінці лютого OpenAI заявила про понад 900 млн щотижневих активних користувачів і більш як 50 млн платних підписників.
Але навесні 2026 року темп зміни сил в індустрії став майже політичним. Anthropic, яку ще донедавна сприймали як більш обережного, нішевого конкурента, отримала репутаційний імпульс саме там, де ризики були найвищими, — у суперечці з Пентагоном щодо військового використання моделей Claude.
Суть конфлікту не лише в контракті. За повідомленнями медіа, Anthropic відмовлялася погодитися на формулювання, які відкривали б шлях до «всіх законних» способів застосування її моделей, включно з повністю автономними системами озброєння та масовим наглядом. Пентагон відповів жорстко: компанію позначили як supply chain risk, що фактично закриває їй частину оборонного ринку.
За попереднім аналізом Дейком, саме тут приватна корпоративна етика вперше зіткнулася не з абстрактними «ризиками ШІ», а з державною логікою сили: Вашингтон показав, що не готовий дозволити постачальнику визначати межі військового використання технології. Це вже не дискусія про безпеку моделей, а спір про суверенітет рішень.
Для OpenAI цей момент став і шансом, і пасткою. Після зриву переговорів Anthropic з урядом OpenAI швидко оголосила про власну угоду з Пентагоном. Згодом Сем Альтман сам визнав, що комунікація була надто поспішною й виглядала опортуністичною, навіть якщо компанія намагалася подати угоду як спосіб уникнути гіршого сценарію.
У стратегічному сенсі це оголило різницю двох підходів. Альтман давно робить ставку на швидке розгортання продуктів, масштаб, комерціалізацію та інтеграцію в державні й корпоративні системи. Даріо Амодеї, навпаки, позиціонує Anthropic як лабораторію, для якої обмеження на використання — не PR-декорація, а частина продукту.
Саме тому суперництво між компаніями стало особистим. Амодеї — колишній віцепрезидент із досліджень OpenAI, який пішов через незгоду з темпом комерціалізації та підходом до безпеки. Відтоді конфлікт між двома таборами набув майже ідеологічної форми: не просто «хто перший», а «хто має право встановлювати червоні лінії».
Показово, що ринок відреагував не лише через урядові новини, а й через моральний сигнал. Після загострення конфлікту Claude піднявся до першого місця в App Store в низці країн, а окремі аналітики фіксували різкий стрибок завантажень і нових реєстрацій. Це означає, що для частини аудиторії «безпечніший» бренд уже став споживчою перевагою, а не лише етичним гаслом.
Тут і проявляється парадокс ринку ШІ 2026 року. У короткій перспективі OpenAI все ще має значно більшу дистрибуцію, впізнаваність і грошову машину. Утім Anthropic довела, що етична відмова теж може монетизуватися — не миттєво через оборонний контракт, а через довіру користувачів, розробників і частини корпоративних клієнтів.
Окремий вимір — фінансовий. Раніше Reuters повідомляв, що Anthropic розраховувала вийти на близько $9 млрд річного run rate до кінця 2025 року й різко прискорити зростання у 2026-му. Водночас OpenAI, за поточними публічними оцінками та витоками, теж входить у рік із багатомільярдною виручкою та планами нового корпоративного розширення. Обидві компанії вже мислять не як стартапи, а як майбутні інституції.
І саме тому боротьба за I.P.O. стає символічною не менше, ніж фінансовою. Вихід на біржу для Anthropic означав би легітимацію моделі «обережного масштабування». Для OpenAI — підтвердження, що ставка на швидкість, масовість і державну кооперацію не зруйнувала довіру інвесторів. Біржа в такій логіці стане не просто ринком капіталу, а референдумом щодо філософії розвитку ШІ.
Важливо й те, що історія з Пентагоном виходить далеко за межі двох компаній. Financial Times повідомляла, що адміністрація Трампа просуває жорсткіші правила для цивільних AI-контрактів, зокрема вимоги щодо широкої урядової ліцензії на використання моделей для будь-яких законних цілей. Якщо цей підхід закріпиться, тиск на всіх розробників frontier-моделей лише зросте.
Це означає, що далі конфлікт розгортатиметься за трьома лініями одночасно. Перша — технологічна: хто покаже кращі моделі. Друга — політична: хто витримає тиск держави. Третя — культурна: який бренд користувачі вважатимуть не лише найзручнішим, а й найвідповідальнішим. Поки що OpenAI домінує за масштабом, але Anthropic перехоплює моральну ініціативу.
Для ширшої індустрії головний висновок жорсткіший. Дискусія про «етичний ШІ» завершилася; почалася дискусія про те, хто має владу визначати етику на практиці — компанія, держава, ринок чи користувач. Якщо Пентагон може карати за спробу обмежити автономну зброю, то всі майбутні декларації про safety доведеться перевіряти не на конференціях, а в тексті контрактів.
І саме в цьому особисте суперництво Альтмана та Амодеї стає історією про майбутнє всієї галузі. Один вважає, що масштаб і швидкість дають шанс контролювати трансформацію. Інший — що без жорстких меж саме масштаб і швидкість стають загрозою. Переможе, ймовірно, не той, хто голосніше говорить про місію, а той, чия модель співіснування з державою, ринком і суспільством виявиться життєздатнішою.