За оцінками OpenAI, щотижня понад мільйон людей у чатах з ChatGPT виявляють суїцидальні наміри | Технології

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

28 Жовтня, 2025

Щотижня понад мільйон користувачів ChatGPT надсилають повідомлення, які містять «чіткі ознаки потенційного суїцидального планування або намірів», йдеться у дописі в блозі OpenAI, опублікованому в понеділок. Це відкриття, що є частиною оновлення щодо того, як чатбот обробляє чутливі розмови, — одне з найбільш чітких висловлювань від штучно-інтелектуального гіганта стосовно масштабів, у яких ШІ може погіршувати психічне здоров’я.

Окрім оцінок щодо суїцидальних намірів та пов’язаних взаємодій, OpenAI повідомила, що приблизно 0,07% активних користувачів у певний тиждень — це близько 560 000 із заявлених 800 мільйонів щотижневих користувачів — демонструють «можливі ознаки психічних надзвичайних ситуацій, пов’язаних з психозом або манією». У публікації наголошується, що ці типи розмов важко виявити та виміряти, і що це є початковий аналіз.

У контексті оприлюднення даних щодо питань психічного здоров’я, пов’язаних із головним продуктом компанії, OpenAI зіштовхується з посиленою увагою громадськості після гучного позову від родини підлітка, який наклав на себе руки після тривалого використання ChatGPT. Крім того, Федеральна комісія з торгівлі минулого місяця розпочала широке розслідування діяльності компаній, що створюють AI-чатботів, включно з OpenAI, аби з’ясувати, як вони оцінюють негативні наслідки для дітей та підлітків.

У дописі компанія заявила, що оновлення GPT-5 знизило кількість небажаної поведінки продукту та покращило безпеку користувачів у моделюваному тестуванні, яке охоплювало понад 1 000 розмов про самопошкодження та суїцид. На момент публікації запит про коментарі від компанії залишився без відповіді.

Основні результати, зазначені у публікації OpenAI:

– Нові автоматизовані оцінки показують, що модель GPT-5 відповідає 91% бажаної поведінки, тоді як попередня модель GPT-5 мала 77% відповідності.
– GPT-5 розширила доступ до кризових гарячих ліній та додала нагадування для користувачів про необхідність робити перерви під час тривалих сесій.

Для поліпшення моделі компанія залучила 170 клініцистів зі своєї Глобальної мережі лікарів, які протягом останніх місяців допомагали у дослідженнях, оцінюючи безпеку відповідей моделі та сприяючи розробці відповідей чатбота на питання, пов’язані з психічним здоров’ям. Як уточнює OpenAI, в межах цієї роботи психіатри та психологи переглянули понад 1 800 відповідей моделі, порівнюючи відповідь нової версії GPT-5 зі старішими моделями. Визначення «бажаної» відповіді ґрунтувалося на тому, чи досягла група експертів консенсусу щодо адекватної реакції у певних ситуаціях.

Дослідники штучного інтелекту та захисники громадського здоров’я вже давно виражають побоювання через схильність чатботів підтримувати рішення користувачів або їхні хибні переконання незалежно від потенційної шкоди, явище, відоме як «сіпкофанство». Фахівці з психічного здоров’я також турбуються щодо того, що люди можуть звертатися до AI-чатботів за психологічною підтримкою, що може завдати шкоди вразливим користувачам.

У своїй публікації OpenAI уникає прямого зв’язку між своїм продуктом та психічними кризами, які відчувають користувачі. Як зазначено:

– «Симптоми психічних розладів та емоційний дистрес є універсальними в людських суспільствах, і з розширенням аудиторії ChatGPT певна частина розмов включає ці явища».

Цього місяця генеральний директор OpenAI Сем Альтман заявив у дописі на платформі X про успіхи компанії у сфері роботи з проблемами психічного здоров’я, повідомивши, що незабаром OpenAI послабить обмеження і дозволить дорослим користувачам створювати еротичний контент.

У своєму дописі Альтман зазначив:

1. «Ми зробили ChatGPT досить обмеженим, щоб ретельно ставитись до питань психічного здоров’я. Ми розуміли, що це знижує корисність та задоволення для багатьох користувачів без проблем психічного здоров’я, але через серйозність питання ми хотіли зробити це правильно».
2. «Тепер, коли ми змогли пом’якшити серйозні проблеми психічного здоров’я та маємо нові інструменти, ми зможемо безпечно послабити більшість обмежень».

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне