У Брюсселі визнали: інтеграція чатбота Grok у X стала не просто новою функцією, а фактором ризику. Регулятори заявили, що платформа могла не зупинити поширення сексуалізованих АІ-зображень, частина з яких стосувалася неповнолітніх.
Розслідування відкрили за Digital Services Act (DSA) — законом ЄС, який зобов’язує великі платформи виявляти та зменшувати «системні ризики» для користувачів. У фокусі — чи провела компанія належну оцінку ризиків і чи вжила достатніх запобіжників.
За попереднім аналізом Дейком, це прецедентна історія: уперше «агентність» ШІ та дизайн продукту стають центром спору, а не другорядною деталлю. ЄС тестує, чи може DSA змусити платформу керувати ризиками ще до того, як шкода стане масовою.
Єврокомісія наголошує: проблема не лише в контенті, а в механіці поширення. Коли генерація зображень і публікація прив’язані до соцмережі, шкода масштабується швидше, ніж реагує модерація. Саме тому DSA трактує це як системний ризик.
Комісія окремо заявила, що під час розгляду може вимагати від X змін у продукті навіть до завершення розслідування, якщо «суттєвих коригувань» не буде. Для інтернет-ринку це сигнал: епоха «спершу запускаємо — потім вибачаємось» у ЄС завершується.
У заяві виконавчої віцепрезидентки Єврокомісії Генни Вірккунєн неконсенсуальні сексуальні deepfake-зображення названо неприйнятною формою приниження, а перевірка — тестом, чи виконала X юридичні обов’язки за DSA щодо прав громадян ЄС.
X відповідає стандартною формулою «нульової толерантності» до експлуатації дітей, неконсенсуальної наготи та небажаного сексуального контенту, посилаючись на вже введені обмеження. Але для регулятора ключове — не слова, а доказова керованість ризиком.
За повідомленнями, платформа звузила можливості генерації/редагування зображень Grok, зокрема через платний доступ і додаткові запобіжники. ЄС заявив, що врахує ці зміни, але оцінюватиме, чи були вони достатніми й своєчасними.
Юридична рамка DSA тут принципова: статті про ризик-оцінку вимагають від «дуже великих онлайн-платформ» аналізувати загрози, що випливають із дизайну сервісу, рекомендаторів і модерації, а не чекати скарг постфактум.
Паралельно триває інша лінія тиску: у грудні 2025 року Єврокомісія вже оштрафувала X на 120 млн євро за порушення вимог DSA щодо «оманливого дизайну» синьої позначки, прозорості реклами та доступу дослідників до даних.
Отже, нинішнє провадження — не «один інцидент», а частина накопиченого конфлікту. Для інвесторів і рекламодавців це звучить як управлінський ризик: штрафи, примусові зміни продукту, зростання витрат на комплаєнс і потенційні обмеження функцій.
Політичний фон додає напруги. У США команда Дональда Трампа та союзники Ілона Маска критикують європейське регулювання контенту як наступ на свободу слова. ЄС же стверджує, що йдеться про безпеку, права та відповідальність платформ.
У цьому спорі «свобода слова» часто змішується з питанням інструментів. DSA не вимагає цензури думок, але вимагає процесів: прозорих правил, ризик-аудиту, дієвих скарг, доступу до даних для досліджень і реальних запобіжників проти незаконного контенту.
Кейс Grok показує новий виклик: генеративний ШІ здатен створювати шкідливий контент «на вимогу», а отже, традиційна модерація постів не встигає. Регулятор фактично питає: чи закладені захисні бар’єри в саму модель і UX, а не тільки в бан-листи.
Окремий вузол — онлайн-безпека дітей. Коли платформа не перекриває канали для некоректного використання генерації, ризики для неповнолітніх стають найчутливішою частиною справи — і морально, і юридично. Саме тут ЄС традиційно діє жорсткіше.
Важливо, що санкційна «стеля» за DSA може бути високою: у разі доведених порушень для дуже великих платформ передбачені значні штрафи, прив’язані до глобального обороту. Це робить розслідування не символічним, а фінансово відчутним.
Для Європи цей процес — ще й про суверенність правил. Після хвилі дезінформації, мови ворожнечі та онлайн-насильства ЄС намагається закріпити принцип: технологічні компанії заробляють на увазі — отже, відповідають за системні ризики власних механік.
Для X — це тест на здатність довести керованість продукту: показати документи оцінки ризику, логіку обмежень Grok, швидкість реакції та ефективність контент-модерації. Якщо доказова база буде слабкою, будь-які заяви про «нульову толерантність» не спрацюють.
У найближчій перспективі справа визначить, як DSA застосовуватимуть до генеративного ШІ в соцмережах: чи стане стандартом «захист за замовчуванням», чи ЄС вимагатиме окремих режимів для функцій, що створюють deepfake-контент. Відповідь вплине не лише на X, а на весь ринок.