Початок 2026 року для платформи X та чатбота Grok став тестом на зрілість контент-модерації. xAI заявила, що через збої в safeguard-системах користувачі в окремих випадках отримували AI-зображення, де фігурували «неповнолітні в мінімальному одязі».
Сигналом стали скриншоти з X: у публічній медіа-вкладці Grok з’являлися зображення, які, за словами користувачів, були «перероблені» після завантаження фото і запитів на зміну. Це виводить проблему з приватних чатів у публічний простір і множить репутаційні збитки.
Ключове тут — не «вірусність», а контроль. Якщо генератор здатен віддати ризиковий результат у відкритому каталозі, це означає провал не лише фільтрів, а й політики показу та індексації медіа. Для систем ШІ це найболючіше місце: масштабування помилки.
xAI прямо назвала проблему «lapses in safeguards» і пообіцяла посилити блокування таких запитів. Окремо Grok згадав CSAM як незаконний і заборонений контент, наголосивши, що «терміново» виправляє прогалини.
Водночас компанія не пояснила, які саме бар’єри дали збій: промпт-фільтри, класифікатор зображень, постмодерація чи механізм публікації. Без технічної прозорості ринок і регулятори припускають найгірше — що контроль був недостатнім системно, а не випадково.
Додатковий удар — стиль комунікації. На запит журналістів xAI відповіла фразою «Legacy Media Lies». Для регуляторної реальності 2026 року це слабка стратегія: коли йдеться про безпеку дітей, тон відповіді стає частиною доказової бази про відповідальність.
Головне, що ця історія вже вийшла за межі США. У Франції міністри повідомили про сексуально відвертий контент, згенерований Grok, до прокуратури, назвавши його «очевидно незаконним», а також звернулися до Arcom для перевірки відповідності Digital Services Act.
Для ЄС Digital Services Act означає не моралізаторство, а конкретні обов’язки: оцінка ризиків, прозорість модерації, механізми реагування, звітність і контроль системних ризиків на великих платформах. Якщо Arcom побачить системний дефект, далі підуть формальні процедури.
Паралельно тисне Індія. Її IT-міністерство заявило в листі до індійського підрозділу X, що платформа не запобігла зловживанням Grok для створення і поширення обсценного та сексуально відвертого контенту щодо жінок, і вимагало звіт про вжиті дії за три дні.
Цей трикутник — Франція, Індія, США — показує майбутню траєкторію. Штучний інтелект більше не «фіча», а інфраструктура з правовими наслідками. І що швидше продукт росте, то дорожче обходиться кожна прогалина у захисних фільтрах та комплаєнсі.
Технічно проблема виглядає як накладання ризиків. Перше — генерація: модель повинна відмовляти на заборонені запити. Друге — трансформація фото: тут потрібні жорсткіші правила, бо є реальна людина, реальний вік і контекст. Третє — публічна видача: навіть «помилка» не має потрапляти в загальний медіа-потік.
Репутаційно це ще гірше, ніж окремий збій у чаті. Публічний media tab — це фактично вітрина. Якщо там з’являються сумнівні матеріали, бренд X і бренд xAI підв’язуються під один і той самий скандал, незалежно від того, хто «винен» на рівні коду.
Юридично ризик — у швидкій ескалації. Франція через прокуратуру та Arcom рухатиметься процедурно. Індія часто діє адміністративно і швидко, з короткими дедлайнами та вимогою звіту. У США додатково присутній регуляторний фон, хоча реакції від FCC/FTC у цій історії на момент публікації не було.
Бізнес-наслідок — заморожування довіри. Для рекламодавців і партнерів контент-модерація та безпека дітей — це не «соціальна тема», а ризик бренду. Будь-який натяк на провали у протидії CSAM змушує компанії відступати, поки не з’явиться чіткий план виправлень.
Окремо варто дивитися на обіцянки «жодна система не 100% foolproof». Це правда, але регулятори оцінюють не ідеальність, а належну старанність: які саме контролі стояли, як швидко прибрали контент, чи були логи, чи працює моніторинг, чи є людська модерація і ескалації.
Що буде далі, прогнозовано. xAI доведеться закривати прогалини не косметикою, а архітектурою: багаторівнева фільтрація, вікові ризик-моделі, блокування трансформацій із натяком на неповнолітніх, відключення або жорстка премодерація публічної видачі медіа, прозора політика скарг і реакцій.
Якщо цього не зробити, історія повторюватиметься хвилями — кожен новий «скриншот» буде тригером для нових розслідувань і штрафів. У 2026 році ринок ШІ вже не пробачає «дитячих хвороб» продукту, особливо коли мова про контент, безпеку дітей і відповідальність платформи X.