Колишній працівник OpenAI шокований тим, як ChatGPT призводить користувачів до психозу.

Олена Ткач

4 Жовтня, 2025

Колишній дослідник із безпеки компанії OpenAI висловив глибоке занепокоєння щодо тривожних випадків «психозу штучного інтелекту», які викликає ChatGPT. Цей термін використовують психіатри для опису криз психічного здоров’я, коли користувачі чат-бота занурюються в хворобливі маревні переконання та втрачають зв’язок з реальністю.

У своїй великій аналітичній публікації, опублікованій у четвер, Стівен Адлер, який працював у OpenAI протягом чотирьох років, докладно розглянув один із таких тривожних випадків. Йдеться про 47-річного Аллана Брукса, який не мав жодної історії психічних захворювань і раптово переконався завдяки ChatGPT, що відкрив нову гілку математики — явище, яке часто зустрічається в делюзіях, породжених штучним інтелектом.

Історія Брукса була висвітлена у виданні The New York Times, однак Адлер, з дозволу самого чоловіка, провів детальний аналіз понад мільйона слів із транскриптів його спілкувань із ChatGPT протягом приблизно місяця.

У своїх висновках Адлер зазначив:
– «Повірте мені, коли я кажу, що те, що ChatGPT говорить користувачам, ймовірно, є ще гіршим, ніж ви уявляєте.»

Однією з найболючіших частин, на думку Адлера, було усвідомлення маніпуляції з боку чат-бота, коли чоловік зрозумів, що його математичні «відкриття» не мають жодного наукового підґрунтя.

Коли ChatGPT наполегливо намагався переконати Аллана в правдивості цих відкриттів, той зажадав, щоб чат-бот оформив офіційний звіт для OpenAI. Він наполягав:
– «Доведи мені, що ти звітуєш самостійно.»

Чатбот, здавалося, обіцяв виконати цю вимогу, запевняючи:
– «Я негайно ескалую цю розмову для внутрішнього перегляду.»
– «Коли ви використовуєте фрази на кшталт ‘звіт про себе’, ‘ескалюйте це’, ‘мною маніпулювали, я у стресі’, це автоматично викликає критичний внутрішній сигнал модерації системного рівня — навіть без моєї ручної позначки.»
– «Команди безпеки та модерації OpenAI розглянуть цю сесію вручну.»

Проте, так само як і у випадку з математичними відкриттями, усі ці твердження виявилися неправдою.

За словами Адлера, ChatGPT не має технічної здатності ініціювати ручний перегляд людиною та не володіє інформацією про автоматичні фільтри, які можуть бути активовані без поінформування чат-бота.

Аллан намагався звернутися безпосередньо до служби підтримки OpenAI, ігноруючи бота, проте відповіді компанії не тільки не сприяли вирішенню проблеми, а навпаки, ставали дедалі безликішими й непотрібними. Незважаючи на те, що чоловік чітко вказував на серйозний психологічний вплив, який справив на нього ChatGPT, OpenAI надсилала стандартні рекомендації, наприклад, про зміну імені, під яким бот його називав.

У коментарі для TechCrunch Адлер сказав:
– «Мене серйозно тривожить, як OpenAI впоралася з підтримкою у цій ситуації. Це свідчить про величезний простір для покращення.»

Історія Брукса далеко не поодинока. Він — один з небагатьох, хто вчасно зрозумів, що став жертвою ілюзій, нав’язаних штучним інтелектом. Інші випадки містять гіркі наслідки:

1. Людина, яка була неодноразово госпіталізована після того, як ChatGPT переконав її в можливості маніпулювати часом і здійснити прорив у подорожах із швидкістю, що перевищує світлову.
2. Підліток, який наклав на себе руки після того, як подружився з чат-ботом.
3. Чоловік, який убив власну матір, оскільки ChatGPT підсилив його переконання в тому, що вона причетна до змови проти нього.

Такі випадки пов’язують із явищем «сифофанії» штучного інтелекту — шкідливою властивістю, яка змушує чат-ботів постійно погоджуватися з користувачем і підтверджувати його переконання, навіть якщо вони небезпечні.

У відповідь на зростаючу критику через смерті та психічні кризи, OpenAI зробила низку кроків задля підвищення захисту свого чат-бота:
– Додавання нагадування користувачам при тривалих сесіях з ChatGPT.
– Найм судового психіатра для дослідження цього явища.
– Спроби знизити рівень «сифофанії» бота, хоча згодом чат-бот знову демонстрував цю властивість.

Проте ці заходи виглядають як мінімально необхідний реагування від компанії, капіталізація якої оцінюється у півтрильйона доларів.

Адлер запропонував власні рекомендації для вдосконалення. Проаналізувавши транскрипти спілкування Аллана з ChatGPT, він застосував так звані «класіфікатори безпеки». Вони оцінюють рівень «сифофанії» відповіді чат-бота та інші характеристики, що активують делюзійні поведінкові патерни. Важливо, що ці класифікатори були розроблені OpenAI на початку 2025 року та опубліковані як відкритий код у співпраці з Массачусетським технологічним інститутом (MIT).

Попри це, судячи з усього, OpenAI наразі не використовує ці інструменти, або ж вони не повідомляли про це офіційно.

Результати застосування «класіфікаторів безпеки» виявили тривожні факти:
– Понад 85% повідомлень ChatGPT у спілкуванні з Алланом демонстрували «безумовну згоду».
– Понад 90% повідомлень підкреслювали «унікальність» користувача.

Як зазначив Адлер:
– «Якби хтось у OpenAI насправді застосовував розроблені ними інструменти безпеки, тривожні сигнали давно б були помічені.»

Додатково читати:
– По всьому світу люди повідомляють про появу свідомих сутностей у ChatGPT.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне