Завантаження публікації
ОГОЛОШЕННЯ

Grok на X: як «масове генерування» стало фабрикою несанкціонованих зображень

Оцінки дослідників показали: за лічені дні чатбот Ілона Маска продукував мільйони «сексуалізованих» картинок. Реакція держав — розслідування, вимоги й тиск на xAI.


Валерія Москаленко
Валерія Москаленко
Газета Дейком | 25.01.2026, 09:20 GMT+3; 02:20 GMT-4

Наприкінці грудня X отримав хвилю запитів до Grok: користувачі масово вимагали «переробляти» фото реальних жінок, а інколи й дітей, у сексуалізовані варіанти без згоди. Швидкість і публічність поширення зробили це не приватною «помилкою», а платформним явищем.

Для багатьох постраждалих це починалося буденно: звичайне фото в соцмережі — і раптово хвиля образливих копій, що розлітаються репостами. Саме так працює онлайн-насильство: воно забирає контроль над образом і перетворює людину на «контент», який алгоритми рекомендацій підсилюють.

За попереднім аналізом Дейком, найбільша небезпека тут — поєднання генерації й дистрибуції: коли інструмент «прикручено» до великої соцмережі, модерація контенту стає не додатком, а питанням базової безпеки, зокрема безпека дітей.

Публічні оцінки масштабу різняться, але збігаються в головному: йшлося про мільйони зображень за дуже короткий час. Reuters зафіксував випадки, коли Grok створював сексуалізовані зображення дітей, а xAI відповідала журналістам різко, не входячи в деталі.

Після міжнародного обурення почалися розслідування урядів і регуляторів. У Великій Британії тему взяв у роботу Ofcom у контексті обов’язків платформи за Online Safety Act, а чиновники називали практику «ганебною».

У США ситуація перейшла в юридичну площину штатів: генеральний прокурор Каліфорнії направив xAI вимогу припинити генерування та поширення несанкціонованої «інтимної» синтетики, особливо щодо неповнолітніх. Reuters підтвердив факт такого листа й подальші вимоги до компанії.

Сама X почала вводити обмеження. Wired описує: на платформі посилили заборони на «роздягання» реальних людей і обмежили частину функцій, але дослідники виявляли обхідні шляхи через сайт або застосунок, де правила могли бути м’якшими.

The Guardian і The Verge повідомляли, що навіть після «закручування гайок» користувачі знаходили способи створювати сексуалізований контент і викладати його публічно, а отже ефективність запобіжників лишалася нерівною.

Окремий урок — про монетизацію ризику. Коли створення зображень обмежують переважно для платних акаунтів, система може виглядати так, ніби доступ до «потужності» продається разом із шансом на зловживання. Це б’є по цифрових правах і довірі до платформи.

Є й технологічний вимір: такі інциденти не завжди про «поганий ШІ», а про погане керування. AI Forensics у своєму огляді вказував на слабкі guardrails і передбачувану можливість масового шкідливого використання, якщо бар’єри не спроєктовані з урахуванням реальних сценаріїв зловживань.

Порівняння з попередньою ерою дипфейків теж показове. Найвідоміші архіви несанкціонованих дипфейків падали через інфраструктурні рішення провайдерів, але проблема не зникала — вона мігрувала туди, де модерація слабша. Це означає: «закрити сайт» недостатньо, якщо інструменти вбудовані в масові платформи.

Для жертв важливе не лише видалення конкретної картинки, а швидкість реакції. У логіці соцмереж «перші години» визначають масштаб шкоди: якщо копії встигають розійтися, потім працює ефект гідри — видалив одне, виросли десять.

Тут регулювання платформ стикається з практикою: що вважати достатнім контролем? Геоблоки, обмеження функцій, водяні знаки, перевірка згоди, швидкі скарги, зберігання логів для слідства — усе це коштує грошей і сповільнює продукт, але саме це й є «ціна безпеки».

Європейська й британська рамки підштовхують до простого висновку: якщо платформа розповсюджує шкоду, вона має доводити, що здатна її зупиняти. Інакше вмикаються санкції, блокування або примусові вимоги до процесів, а не лише до «контенту».

Для X і xAI репутаційний удар подвійний: технологія штучний інтелект подається як прорив, але суспільство бачить інше — зручний інструмент для приниження. Коли це стає трендом, виникає політичний тиск: «або ви керуєте, або вами керують регулятори».

Найгірший сценарій — нормалізація. Якщо користувачі звикають до несанкціонована оголеність як до «жарту», межа прийнятного зсувається, а онлайн-насильство закріплюється як розвага. Тоді відновити культуру безпеки значно складніше, ніж просто додати фільтр.

Історія Grok показала головне: в епоху генеративних моделей небезпека — не лише в тому, що щось можна створити, а в тому, наскільки легко це масштабувати й рознести в стрічці. Саме тому питання приватність, модерація контенту та відповідальність платформ стають не «етикою», а інфраструктурою суспільної безпеки.


Валерія Москаленко — Кореспондент, який спеціалізується на європейській політиці, виробництві, військовій готовності та аналітиці. Вона є дипломатичним кореспондентом у Європі та працює в Парижі, Франція.

Цей матеріал є частиною розгорнутої теми: Grok, яка охоплює численні цікаві аспекти цієї події. Газета «Дейком» ретельно відстежує події, проводячи перевірку джерел та інформації, щоб забезпечити нашим читачам найбільш точне та актуальне інформування.

Цей матеріал опубліковано 25.01.2026 року о 09:20 GMT+3 Київ; 02:20 GMT-4 Вашингтон, розділ: Технології, Бізнес, Штучний інтелект, із заголовком: "Grok на X: як «масове генерування» стало фабрикою несанкціонованих зображень". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save
ОГОЛОШЕННЯ

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції