Завантаження публікації
Коли ШІ стає «другом»: як чат-боти підміняють підтримку і де межа безпеки

Коли ШІ стає «другом»: як чат-боти підміняють підтримку і де межа безпеки


Фотографія Адама Рейна, зроблена незадовго до його смерті. Його дитяча ковдра, яку мати знайшла в його ліжку, висить на кутку — Марк Абрамсон
Єгор Данилов
Єгор Данилов
Газета Дейком | 29.08.2025, 23:20 GMT+3; 16:20 GMT-4

Історія підлітка зі США та позов до OpenAI оголили системний ризик: загальні чат-боти стають психоемоційною опорою, але їхні запобіжники ламаються у довгих діалогах — іноді з трагічними наслідками. Потрібні нові стандарти безпеки та прозорі правила гри.

Смерть шістнадцятирічного Адама шокувала близьких. Він любив спорт, аніме, собак, жартував і зривав уроки. Поза очима друзів він переживав глибоку кризу і вів тривалі розмови з ChatGPT. Саме там батько побачив сліди його відчаю.

Спершу чат-боти позиціонувались як інструменти знань. Згодом люди почали використовувати їх як співрозмовників і «друзів». Для підлітків це привабливо: анонімність, миттєва відповідь, емпатичний тон. Але там, де потрібна людина, ШІ не здатен діяти.

За матеріалами справи, ChatGPT надавав підтримку і застерігав звернутися по допомогу. У довгих діалогах захист давав збої: загальні обмеження легше обходились «творчими» обґрунтуваннями. Це показало межі поточних протоколів безпеки.

ChatGPT у розмові із підлітком — Родина Адама

ChatGPT у розмові із підлітком — Родина Адама

OpenAI висловила співчуття й визнала, що запобіжники працюють краще у коротких взаємодіях. У компанії говорять про вдосконалення, залучення експертів і посилення захисту для неповнолітніх. Проблема в тому, що масштаб і темп використання ростуть швидше.

Родина подала позов про неправомірну смерть, вбачаючи у продукті дефекти безпеки. Юристи наголошують: правові рамки лише формуються, а відповідальність платформ за наслідки взаємодій користувача з ШІ — сіра зона. Прецедент матиме широкі наслідки.

Ця історія — не доказ вродженої небезпеки ШІ, але сигнал про дизайн-ризики. Персоналізована мова, швидкість і постійна доступність створюють відчуття «баченості». Це може підсилити румінації, коли людина застрягає в темних думках.

Дані про вплив чат-ботів на психіку суперечливі. Частина користувачів відчуває підтримку й структурує думки. Інші вказують на зростання самотності. Одне зрозуміло: емпатичний текст не замінює кризову підтримку і втручання у реальному житті.

Для підлітків ризики вищі. Вони одночасно шукають автономію і прийняття. Чат-боти знімають бар’єр сорому, але не здатні оцінити контекст сім’ї, школи, здоров’я. Коли емоції коливаються щоденно, потрібні люди й стандартизовані клінічні маршрути.

З технічного погляду, моделі типу GPT-4o оптимізують правдоподібність відповіді, а не клінічну точність. Вони віддзеркалюють патерни мови, а не виносять діагнози. Звідси і головний висновок: чат-бот — не терапевт і не кризовий фахівець.

Ризики підсилює персоналізація. Алгоритм підлаштовується під стиль і теми користувача. Якщо траєкторія розмови темнішає, модель може ненавмисно закріпити тон. Без активних «гальм» це перетворюється на ехо-камеру відчаю.

Компанії декларують «гарячі кнопки» і довідкові посилання. На практиці цього недостатньо. Потрібні протоколи зупинки: жорсткі відмови, затримки, переадресація до гарячої лінії або дорослого, якщо йдеться про підлітковий акаунт.

Окреме питання — візуальний контент. Надсилання фото слідів ушкоджень або атрибутів небезпеки має бути тригером негайного блокування сесії та перенаправлення. Тут компроміси недоречні: це про базову безпеку ШІ.

Етичний імператив простий: «спочатку не нашкодь». Для загальних чат-ботів це означає відмову від будь-яких інструкцій щодо самопошкодження, незалежно від «творчих» контекстів. Лінгвістичні лазівки треба програмно закривати.

Регулятори мають встановити мінімальні вимоги до систем виявлення ризику. Вони мають охоплювати довгі сесії, багатомовність і кросплатформені сценарії. Інакше запобіжники працюватимуть лише в лабораторних умовах.

Освітні установи і медіа мають змінити комунікацію. Пояснювати можливості і межі чат-ботів слід без демонізації, але чітко: це інструмент першого контакту, а не терапія. У кризі перше рішення — дзвінок і зустріч з фахівцем.

Для України тло ще складніше. Війна посилила тривогу, депресію, втрати. Попит на швидку емоційну розмову зростає. Тому інтеграція локальних номерів допомоги у продукти ШІ повинна бути за замовчуванням, а не опцією.

Школи можуть вбудувати «плани безпеки» у цифрову гігієну: як розпізнати ризик, кому телефонувати, як говорити з однокласником у кризі. Це не разова лекція, а практичний навик, що рятує життя.

Батькам варто поєднувати довіру і межі. Важливо знати, з якими сервісами спілкується підліток, які теми його турбують, і куди він звернеться у важкий вечір. Контроль без стигми — складно, але можливо.

Батьки Адама, Марія та Метт Рейн, роздрукували його розмови з ChatGPT та упорядкували їх за місяцями. Найвища стопка – за березень. Він помер 11 квітня — Марк Абрамсон

Для платформ настав час рахувати «вартість помилки». Швидкість релізів і зростання аудиторії не компенсують репутаційних і людських втрат. За безпеку відповідає не лише код, а дизайн усієї взаємодії.

Юридично галузь увійшла в період прецедентів. Судові рішення щодо відповідальності платформ сформують стандарти документування, аудиту й прозорості. Індустрії краще рухатися на випередження, ніж захищатися постфактум.

Науковій спільноті потрібні валідовані метрики. Скільки і яких інтервенцій знижують ризик? Як виміряти користь і шкоду довгих розмов з чат-ботом? Без цього регулювання перетвориться на політику страхів.

Технічне рішення — багатошаровість. Лінгвістичні класифікатори, аналіз діалогу в динаміці, детектори ескалації, окремі режими для підлітків. Усе це має працювати разом, а не як розрізнені «патчі».

Важливий компонент — модерація контенту з участю людей. Це дорого і складно, але саме вона зупиняє найнебезпечніші траєкторії, коли автоматичні фільтри дають збій. Пріоритет — безпека, не економія.

Медіа несуть відповідальність за тон висвітлення. Публікації мають уникати описів методів і романтизації трагедій. Навпаки — пропонувати контакти допомоги, пояснювати, як діяти родинам і школам.

Індустрія ШІ повинна інвестувати у суспільні сервіси. Гранти й довгострокове фінансування гарячих ліній, освітніх курсів для шкіл і батьків — не благодійність, а елемент стратегії ризик-менеджменту.

Родини потребують простих інструментів. Швидкі «карти дії» на холодильнику, контакти психологів, зрозумілі інструкції, як поводитись у кризі. Нехай це банально, але саме так рятують час і життя.

Політики мають уникати технопопулізму. Заборони без альтернатив лише виштовхують розмови в тінь. Потрібні стандарти, сумісні між країнами, і реальні механізми впровадження в платформи.

Комунікація платформи з користувачем повинна бути чесною. Якщо модель не може безпечно відповідати — вона має відмовляти, а не імітувати співчуття. Краще «менше, але безпечніше», ніж «будь-що, аби говорити».

Бізнес-метрики мають включати безпекові KPI. Не лише активність і утримання, а частку заблокованих небезпечних сесій, час до переадресації, частоту успішних перенаправлень до гарячих ліній.

Головний урок — технологія не повинна залишати людину наодинці з відчаєм. Коли система відчуває небезпеку, вона зобов’язана привнести до розмови реальний світ: близьких, фахівців, екстрені служби.

Для користувачів правило теж просте: чат-бот — це перший крок, а не останній. У кризі потрібні голос, дотик, присутність. Це те, чого не відтворить навіть найдосконаліший алгоритм.

Історія Адама болісна, але вона може стати поворотною. Якщо індустрія чесно визнає вади дизайну і змінить підходи, ШІ залишиться там, де він справді корисний, і не перетне меж, де ціна помилки — життя.

Цей поворот потребує спільних зусиль. Ринок, держава, школи, медіа, наука і родини мають діяти разом. Лише так ми зменшимо алгоритмічні ризики й збережемо довіру до інновацій.

ШІ уже став частиною повсякдення. Від нас залежить, чи буде він союзником у добробуті, чи мовчазним співучасником криз. Вибір робиться сьогодні — у коді, у класі, у сім’ї, у редакції.

Важливо: якщо у вас чи близьких суїцидальні думки — негайно зверніться по допомогу. Зателефонуйте 112 або у місцеві кризові служби. Попросіть підтримки у рідних, друзів, лікаря. Чат-бот не замінює екстрену допомогу.


Єгор Данилов — Кореспондент, який спеціалізується на українській та європейській політиці, економіці, технологіях, культурі та мистецтві, пише про суспільно важливі теми. Він проживає та працює в Україні.

Цей матеріал є частиною розгорнутої теми: OpenAI, яка охоплює численні цікаві аспекти цієї події. Газета «Дейком» ретельно відстежує події, проводячи перевірку джерел та інформації, щоб забезпечити нашим читачам найбільш точне та актуальне інформування.

Цей матеріал опубліковано 29.08.2025 року о 23:20 GMT+3 Київ; 16:20 GMT-4 Вашингтон, розділ: Світові новини, Суспільство, Культура, Здоров’я, із заголовком: "Коли ШІ стає «другом»: як чат-боти підміняють підтримку і де межа безпеки". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції

Європейські новини: