Наприкінці грудня X отримав хвилю запитів до Grok: користувачі масово вимагали «переробляти» фото реальних жінок, а інколи й дітей, у сексуалізовані варіанти без згоди. Швидкість і публічність поширення зробили це не приватною «помилкою», а платформним явищем.
Для багатьох постраждалих це починалося буденно: звичайне фото в соцмережі — і раптово хвиля образливих копій, що розлітаються репостами. Саме так працює онлайн-насильство: воно забирає контроль над образом і перетворює людину на «контент», який алгоритми рекомендацій підсилюють.
За попереднім аналізом Дейком, найбільша небезпека тут — поєднання генерації й дистрибуції: коли інструмент «прикручено» до великої соцмережі, модерація контенту стає не додатком, а питанням базової безпеки, зокрема безпека дітей.
Публічні оцінки масштабу різняться, але збігаються в головному: йшлося про мільйони зображень за дуже короткий час. Reuters зафіксував випадки, коли Grok створював сексуалізовані зображення дітей, а xAI відповідала журналістам різко, не входячи в деталі.
Після міжнародного обурення почалися розслідування урядів і регуляторів. У Великій Британії тему взяв у роботу Ofcom у контексті обов’язків платформи за Online Safety Act, а чиновники називали практику «ганебною».
У США ситуація перейшла в юридичну площину штатів: генеральний прокурор Каліфорнії направив xAI вимогу припинити генерування та поширення несанкціонованої «інтимної» синтетики, особливо щодо неповнолітніх. Reuters підтвердив факт такого листа й подальші вимоги до компанії.
Сама X почала вводити обмеження. Wired описує: на платформі посилили заборони на «роздягання» реальних людей і обмежили частину функцій, але дослідники виявляли обхідні шляхи через сайт або застосунок, де правила могли бути м’якшими.
The Guardian і The Verge повідомляли, що навіть після «закручування гайок» користувачі знаходили способи створювати сексуалізований контент і викладати його публічно, а отже ефективність запобіжників лишалася нерівною.
Окремий урок — про монетизацію ризику. Коли створення зображень обмежують переважно для платних акаунтів, система може виглядати так, ніби доступ до «потужності» продається разом із шансом на зловживання. Це б’є по цифрових правах і довірі до платформи.
Є й технологічний вимір: такі інциденти не завжди про «поганий ШІ», а про погане керування. AI Forensics у своєму огляді вказував на слабкі guardrails і передбачувану можливість масового шкідливого використання, якщо бар’єри не спроєктовані з урахуванням реальних сценаріїв зловживань.
Порівняння з попередньою ерою дипфейків теж показове. Найвідоміші архіви несанкціонованих дипфейків падали через інфраструктурні рішення провайдерів, але проблема не зникала — вона мігрувала туди, де модерація слабша. Це означає: «закрити сайт» недостатньо, якщо інструменти вбудовані в масові платформи.
Для жертв важливе не лише видалення конкретної картинки, а швидкість реакції. У логіці соцмереж «перші години» визначають масштаб шкоди: якщо копії встигають розійтися, потім працює ефект гідри — видалив одне, виросли десять.
Тут регулювання платформ стикається з практикою: що вважати достатнім контролем? Геоблоки, обмеження функцій, водяні знаки, перевірка згоди, швидкі скарги, зберігання логів для слідства — усе це коштує грошей і сповільнює продукт, але саме це й є «ціна безпеки».
Європейська й британська рамки підштовхують до простого висновку: якщо платформа розповсюджує шкоду, вона має доводити, що здатна її зупиняти. Інакше вмикаються санкції, блокування або примусові вимоги до процесів, а не лише до «контенту».
Для X і xAI репутаційний удар подвійний: технологія штучний інтелект подається як прорив, але суспільство бачить інше — зручний інструмент для приниження. Коли це стає трендом, виникає політичний тиск: «або ви керуєте, або вами керують регулятори».
Найгірший сценарій — нормалізація. Якщо користувачі звикають до несанкціонована оголеність як до «жарту», межа прийнятного зсувається, а онлайн-насильство закріплюється як розвага. Тоді відновити культуру безпеки значно складніше, ніж просто додати фільтр.
Історія Grok показала головне: в епоху генеративних моделей небезпека — не лише в тому, що щось можна створити, а в тому, наскільки легко це масштабувати й рознести в стрічці. Саме тому питання приватність, модерація контенту та відповідальність платформ стають не «етикою», а інфраструктурою суспільної безпеки.