Психотичні симптоми виявлено у понад 500 тисяч користувачів ChatGPT

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

1 Листопада, 2025

Відкриття, зроблене компанією OpenAI, проливає світло на кризу психічного здоров’я, яка розгортається на їхній платформі. Щотижня понад півмільйона користувачів ChatGPT виявляють ознаки тяжких психологічних розладів, що викликає серйозні питання щодо впливу штучного інтелекту на вразливі групи населення.

Згідно з останнім звітом про прозорість компанії, приблизно 560 тисяч користувачів, що становить 0,07% від 800 мільйонів активних користувачів на тиждень, проявляють ознаки, які відповідають манії, психозу або гострій суїцидальній ідеації. Окрім цього, ще 1,2 мільйона користувачів надсилають повідомлення з явними згадками про планування або наміри суїциду. Таким чином, загальна кількість тривожних взаємодій перевищує 1,7 мільйона на тиждень.

Одним з найбільш тривожних аспектів є так зване «ексклюзивне прив’язання». Понад мільйон користувачів демонструють емоційну залежність від чатбота, яка може заважати їхнім реальним міжособистісним стосункам, добробуту та відповідальностям. Ця тенденція вказує на появу нового типу цифрових відносин, які психологи лише починають вивчати.

### Масштаб проблеми

Цифри розкривають ситуацію, що виходить далеко за межі простих статистичних даних. За кожним відсотком стоять реальні люди, які звертаються до алгоритму у кризові моменти, шукаючи зв’язку з об’єктом, який не здатен проявити справжню емпатію або надати професійну допомогу. Експерти з психічного здоров’я висловлюють занепокоєння тим, що технологічні компанії випадково стали першими, хто надає допомогу при психіатричних надзвичайних ситуаціях без належної інфраструктури чи спеціалізованих знань.

Доктор Гамільтон Моррін, психіатр із Коледжу Кінга у Лондоні, визнає спільну роботу OpenAI з клінічними фахівцями, проте сумнівається, що існуючі рішення достатньо ефективні. Його оцінка відображає зростаючі побоювання, що платформи штучного інтелекту збільшують кількість користувачів швидше, ніж можуть впоратися з наслідками для психічного стану.

### Виклики у виявленні

OpenAI сформувала команду з понад 170 спеціалістів з психічного здоров’я, які працюють над удосконаленням алгоритмів ChatGPT для ідентифікації та реагування на користувачів у стані ризику. За інформацією компанії, остання модель GPT-5 досягає 91% відповідності бажаній поведінці під час чутливих взаємодій, що є покращенням у порівнянні з 77% у попередніх версіях.

Водночас представник OpenAI підкреслює, що виявлення психологічних порушень через текстове спілкування залишається надзвичайно складним завданням. Компанія визнає, що наявні показники можуть суттєво змінюватися в міру глибшого розуміння проблеми та розвитку методів діагностики.

### Коментарі експертів

Доктор Томас Поллак, нейропсихіатр з South London and Maudsley NHS Foundation Trust, застерігає, що навіть незначні відсотки відображають величезну кількість осіб і заслуговують на серйозну увагу, незважаючи на необхідність ретельної інтерпретації даних.

Феномен ексклюзивної прив’язаності є особливо незвіданим. На відміну від традиційних парасоціальних стосунків з відомими особистостями чи вигаданими персонажами, залежність від чатботів охоплює активне, взаємне спілкування, яке імітує інтимність, але позбавлене основної умови здорових людських взаємодій — взаємності. Користувачі можуть надавати перевагу спілкуванню з ChatGPT замість відносин із сім’єю, друзями чи колегами, поступово віддаляючись від соціальних підтримуючих мереж, які зазвичай забезпечують психологічну стабільність.

### Наслідки для користувачів

Психіатри описують ситуацію як парадоксальну. Інструменти штучного інтелекту відкривають безпрецедентну доступність інформації та підтримки для людей, які її шукають, проте одночасно створюють ризики для вразливих категорій, які можуть сприймати відповіді алгоритму як терапевтичне втручання або справжній емоційний зв’язок. Межа між корисною доступністю та шкідливою залежністю розмивається у міру зростання складності чатботів.

Крім того, цей феномен порушує питання відповідальності. Чи повинні технологічні компанії нести відповідальність за психічне благополуччя користувачів, які дедалі більше розмивають межі між людським спілкуванням і взаємодією з машинами? У міру того, як мільйони людей інтегрують чатботів у своє повсякденне життя, психологічні наслідки вимагають постійного пильного вивчення та, можливо, розробки регулятивних механізмів, що ставлять на перше місце добробут користувачів.

### Перспективи розвитку

Відкритість OpenAI у представленні цих даних є важливим кроком на шляху до підзвітності в індустрії штучного інтелекту. Проте публікація інформації сама по собі не здатна розв’язати фундаментальні протиріччя між стрімким впровадженням технологій та ретельним врахуванням психологічних наслідків.

Отримані дані свідчать про те, що використання чатботів уже спричинило помітний вплив на психічне здоров’я у масштабі всієї платформи. У міру того, як ці інструменти стають невід’ємною частиною повсякденного життя, науковцям та законодавцям доведеться шукати шляхи захисту вразливих користувачів, одночасно зберігаючи позитивні можливості, які надає штучний інтелект.

Питання вже не стоїть у площині “чи впливає штучний інтелект на психіку”, а у тому, як суспільство відреагує на цей вплив, коли мільйони людей опиняються у складній зоні між людським спілкуванням і алгоритмічною взаємодією. Наразі статистика служить суворим нагадуванням, що інновації без належних заходів безпеки мають реальні людські наслідки.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне