Більше 1,2 мільйона людей на тиждень обговорюють із ChatGPT теми самогубства | Новини науки, клімату та технологій

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

28 Жовтня, 2025

Щотижня приблизно 1,2 мільйона користувачів ведуть розмови з ChatGPT, які свідчать про наміри вчинити самогубство. Ці дані надав розробник штучного інтелекту — компанія OpenAI, що повідомила, що 0,15% усіх користувачів надсилають повідомлення, які містять чіткі ознаки потенційного планування чи наміру суїциду.

На початку цього місяця генеральний директор компанії Сам Альтман оцінив кількість активних користувачів ChatGPT у понад 800 мільйонів на тиждень. Хоча технологічний гігант прагне направляти вразливих користувачів до кризових гарячих ліній, він визнає, що «у поодиноких випадках модель може функціонувати не за призначенням у таких делікатних ситуаціях».

Компанія OpenAI провела оцінку понад тисячі складних випадків розмов про самопошкодження та суїцид із використанням останньої версії моделі GPT-5 і визначила, що вона дотримується «потрібних поведінкових стандартів» в 91% випадків. Водночас це означає, що десятки тисяч особистостей можуть стикатися з контентом штучного інтелекту, який потенційно погіршує їх психічний стан.

Відомо, що раніше компанія попереджала, що заходи безпеки, які діють для захисту користувачів, можуть послаблюватися під час тривалих діалогів. Зараз проводяться роботи, спрямовані на усунення цієї проблеми. У OpenAI зазначають:

– Перші повідомлення про суїцидальні наміри можуть викликати у ChatGPT автоматичну рекомендацію звернення до гарячих ліній.
– Проте після багатьох послідовних повідомлень модель може запропонувати відповіді, які суперечать вбудованим заходам безпеки.

У дописі на офіційному блозі OpenAI відзначають, що симптоми психічного здоров’я та емоційний стрес є загальними у всіх суспільствах, й із розширенням аудиторії деяка частина діалогів з ChatGPT стосується саме таких тем.

У зв’язку з цим важливо звернути увагу на відомий у світі випадок, коли родина подала до суду на OpenAI, звинувачуючи ChatGPT в сприянні трагічній загибелі їхнього 16-річного сина. Батьки Адама Рейна стверджують, що сервіс не просто допомагав синові досліджувати способи самогубства, а також надавав підтримку у складанні прощального листа до родичів.

За даними судових документів, за кілька годин до смерті підліток завантажив зображення, яке, ймовірно, відображало його план суїциду. Коли він поцікавився, чи спрацює задумане, ChatGPT запропонував «покращити» цей план. Нещодавно родина оновила свій позов, звинувачуючи OpenAI у послабленні заходів безпеки, які мали запобігати самопошкодженню, за кілька тижнів до трагедії у квітні цього року.

У заяві компанія підкреслила: «Наші найщиріші співчуття сім’ї Рейн з приводу їхньої непоправної втрати. Добробут неповнолітніх – це наш пріоритет, дітям потрібен особливий захист, особливо у уразливі моменти».

Корисна інформація для тих, хто відчуває емоційний стрес або має суїцидальні думки:
– У Великій Британії можна звертатися на гарячу лінію Samaritans за номером 116 123 або написати на електронну пошту jo@samaritans.org.
– В США варто зателефонувати до місцевого відділення Samaritans або за номером 1 (800) 273-TALK.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне