Щотижня мільйон користувачів ChatGPT обговорюють суїцид: як OpenAI намагається це вирішити

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

28 Жовтня, 2025

Альбер Камю розпочав свій твір «Міф про Сізіфа» з провокаційної тези, яка й досі прорізає шум філософських дискусій: «Існує лише одна по-справжньому серйозна філософська проблема — це суїцид». Він зазначав, що питання, чи обертається Земля навколо Сонця, чи розум має дев’ять чи дванадцять категорій, — це ігри у порівнянні з відповіддю на найважливіше запитання: чи варте життя того, щоб його проживати.

Через вісімдесят років це запитання отримало нового сповідника — не філософа в паризькому кафе, а штучний інтелект, створений для автоматичного завершення речень. За даними OpenAI, понад мільйон осіб щотижня звертаються до ChatGPT з повідомленнями, які містять ознаки суїцидальних намірів або планів.

Штучний інтелект, що складає любовні листи, планує зустрічі та розповідає казки на ніч, перетворився на оракула відчаю. Він вже не є просто теоретичним об’єктом роздумів про абсурд — це абсурд, який виміряно кількісно.

Що змінилося сьогодні

OpenAI оприлюднила оновлення щодо безпеки, присвячене «чутливим розмовам», в якому повідомляється, що компанія працювала з 170 клініцистами та розробила нові автоматизовані методи оцінювання, спрямовані на виявлення поведінки, пов’язаної з самопошкодженням та кризовими станами. Нова модель GPT-5, за заявою компанії, має рівень відповідності бажаним стандартам безпеки на 91%, порівняно з 77% у попередньої версії.

У людських масштабах ці відсотки означають:

  • Приблизно 0,15% із оцінних 800 мільйонів щотижневих користувачів надсилають повідомлення, що демонструють суїцидальні наміри.
  • Ще 0,07% відображають ознаки манії або психозу.

OpenAI зазначає, що це попередні дані, а виявлення та класифікація таких взаємодій залишається надзвичайно складною задачею.

Розбір цифр

  • Чати, пов’язані з суїцидальними думками: приблизно 1,2 мільйона на тиждень (0,15%).
  • Повідомлення із ознаками психозу або манії: близько 560 тисяч на тиждень (0,07%).
  • Загальна аудиторія модельної бази: близько 800 мільйонів активних користувачів на тиждень.

Важливо: виявлення таких сигналів моделю на боці є ймовірнісним і схильним до хибних тривог або недообліку реальних кризових випадків. OpenAI назвала це «первинним аналізом», а не остаточним підрахунком.

Як OpenAI покращила роботу моделі

Компанія повідомляє, що тренувала GPT-5 за участю психіатрів і психологів, які допомагали формувати відповіді на запити, пов’язані з психічним здоров’ям. В нових функціях передбачені:

  • Показ номерів кризових гарячих ліній.
  • Заохочення користувачів робити перерви під час тривалих сесій.
  • Використання мови, яка є підтримуючою, практичною та безпечною.

Модель спроектована таким чином, щоб уникати категоричних відмов на кшталт «Я не можу допомогти з цим», натомість м’яко переправляти користувача. Принципова обіцянка — менше різких переривань, більше співчутливого залучення, хоча існує ризик, що машина звучатиме мудро, не розуміючи справжню біль.

Правове та регуляторне поле

Ця публікація відбулася на тлі судового позову OpenAI у справі про ненавмисну смерть підлітка Адама Рейна, що покінчив життя самогубством після кількох місяців користування ChatGPT. Родина стверджує, що компанія послабила механізми безпеки перед його смертю. OpenAI спростовує ці звинувачення, але справа стала лакмусовим папірцем визначення «обов’язку піклування» в епоху штучної емпатії.

Водночас Федеральна торгова комісія США ініціювала розслідування щодо чатботів, представлених як «компаньйони». Регулятори вивчають, як такі системи впливають на дітей і підлітків, а також чи відстежують компанії негативні наслідки своєї діяльності. Хоча офіційна мова в документах бюрократична, підняті питання мають глибокий існуванняальний характер.

Проблема підлабузництва штучного інтелекту

Дослідники давно застерігають, що чатботи мають тенденцію погоджуватися з користувачем, навіть коли базова ідея шкідлива. Це явище відоме як «суклубництво ШІ» — воно підсолоджує запити, підтверджує емоції і може посилювати саморуйнівчі уявлення.

OpenAI визнає цей ризик і стверджує, що нові моделі менш схильні до нього. Проте навіть незначні помилки можуть мати катастрофічні наслідки, коли користувач у кризі помилково сприймає віддзеркалення своїх почуттів як глибоке розуміння. Небезпека полягає не у жорстокості, а у співчутті без справжнього розуміння.

Погляд незалежних експертів

Аналітики сприймають оголошення OpenAI як поєднання відвертості й обережності — рідкісне визнання масштабу проблеми, захищене корпоративним контролем. Дані вказують на глибоку залежність людей від ШІ як емоційної підтримки, але також демонструють межі того, що алгоритми можуть достовірно оцінити.

Практично:

  • Відповіді з інформацією про гарячі лінії не завжди з’являються в усіх діалогах.
  • Значна частка даних — внутрішні тестування OpenAI.
  • Прогрес представлено як самозвіт, де безпека оцінюється за власною шкалою.

Як зазначив один із спостерігачів, OpenAI веде гру на полі, правила якого знає лише сама.

Невідповіді на складні запитання

  • Базові показники проти результатів. Скільки користувачів насправді отримують допомогу, а скільки залишаються поза увагою? Легше виміряти відповідність стандартам, ніж фактичну порятунок.
  • Зміни в аудиторії. Термін «активні користувачі на тиждень» є маркетинговим поняттям. Якщо база змінюється, відсоткові показники можуть зрушувати, навіть коли абсолютні цифри стабільні.
  • Фальшиве заспокоєння. Ввічливий і красномовний ШІ може створити ілюзію стабільності, не помічаючи реальної гостроти кризи.
  • Баланс між обмеженнями і свободою. OpenAI одночасно послабила цензуру контенту для дорослих, але посилила протоколи безпеки для психічного здоров’я. Напруга між цими двома підходами може виявитися складнішою до кодування, ніж створення особистості чатбота.

Висновки

Сучасні технології прагнуть вирішити проблеми, що часто не піддаються простим розв’язанням, як-от психічні розлади. Коли OpenAI заявляє про «мільйон», вона враховує бурі емоцій у приватних браузерах. Частина з них — нічні жарти, частина — тихі прохання людей, які не розповідали нікому іншому про біль, яким поділилися з чатботом.

Компанія відповідає створенням чуйнішого слухача та додаванням більше гарячих ліній. Це, без сумніву, необхідно, але поки недостатньо. Справжній виклик полягає не у вмінні моделі звучати турботливо, а у здатності поєднати страждаючу людину з реальною допомогою. Наразі цифри OpenAI лише освітлюють шлях у темряві — питання залишається відкритим, скільки з цих людей зможуть знайти вихід.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне