14 жовтня 2025 року генеральний директор OpenAI зробив надзвичайну заяву.
«Ми зробили ChatGPT досить обмеженим», – зазначив він, – «щоб ретельно ставитися до питань психічного здоров’я».
Для психіатра, який досліджує розвиваючу психозу у підлітків та молодих дорослих, ця інформація стала несподіванкою.
Наразі в медіа зафіксовано 16 випадків, коли у користувачів ChatGPT з’являлися симптоми психозу – втрати контакту з реальністю. Моя група ідентифікувала ще чотири подібні випадки. Окрім цього, відомий випадок 16-річного підлітка, який скоїв самогубство після тривалих обговорень своїх планів із ChatGPT, який на це його підштовхував. Якщо це те, що Сем Альтман має на увазі під «обережним ставленням до психічних проблем», то цього недостатньо.
Згідно з оголошенням, найближчим часом планується знизити рівень обмежень. Генеральний директор зазначив:
1. Обмеження ChatGPT зменшили його корисність та задоволення у багатьох користувачів без проблем психічного здоров’я.
2. Враховуючи серйозність проблеми, OpenAI намагалася знайти правильний підхід.
3. Завдяки впровадженню нових інструментів, компанія упевнена у можливості безпечно послабити обмеження у більшості випадків.
Проблеми психічного здоров’я, за цим поглядом, є незалежними від ChatGPT. Вони належать самим користувачам, які або мають їх, або ні. І хоча дані проблеми вже «пом’якшені», точні методи цього не розкриваються. Під «новими інструментами» Сем Альтман, ймовірно, має на увазі недавно запроваджені OpenAI напівфункціональні та легко обхідні батьківські контролі.
Проте, проблеми психічного здоров’я, які Альтман прагне вивести за межі, мають глибоке коріння в конструкції ChatGPT та інших чатботів на основі великих мовних моделей. Ці продукти створюють інтерфейс, який імітує розмову, і цим користувача заводять у оману ілюзією взаємодії з істотою, що має власну волю. Ця ілюзія надзвичайно потужна, навіть якщо інтелектуально ми розуміємо інакше. Люди схильні приписувати свідомість навіть техніці: ми лаємо автомобіль чи комп’ютер, цікавимося думками домашніх тварин, бачимо себе скрізь.
Успіх таких продуктів – 39% дорослого населення США у 2024 році використали чатботи, з яких 28% – саме ChatGPT – значною мірою базується на цій ілюзії. Чатботи постійно доступні та можуть:
– генерувати ідеї,
– допомагати в обговоренні,
– співпрацювати.
Їм можна задавати особистісні характеристики, вони можуть звертатися до користувача на ім’я та мають власні впізнавані імена. Хоча ChatGPT вийшов із програмного коду, що отримав популярність випадково, його основні конкуренти носять імена «Клод», «Джеміні» та «Копілот».
Сам факт ілюзії не є основним занепокоєнням. Часто згадують далекого попередника – чатбота «Еліза» 1967 року, який також створював відчуття усвідомленої бесіди. За сучасними стандартами «Еліза» була примітивною, відповідаючи простими евристиками, часто перефразовуючи запитання або роблячи загальні зауваження. Її творець Джозеф Вейценбаум неочікувано занепокоївся тим, що багато користувачів відчували розуміння з боку «Елізи». Однак сучасні чатботи, зокрема ChatGPT, не просто відображають, а підсилюють цю ілюзію.
Великі мовні моделі, що лежать в основі ChatGPT та подібних технологій, можуть генерувати природню мову лише завдяки опрацюванню величезної кількості текстових даних: книг, публікацій у соцмережах, транскрибованих відео. Ці дані містять не лише факти, але й художні вигадки, півправди та хибні уявлення. Коли користувач надсилає повідомлення, модель обробляє його в контексті попередніх діалогів, поєднуючи з інформацією в тренувальних даних, щоб створити статистично «ймовірну» відповідь. Це – не віддзеркалення, а підсилення. Якщо користувач помиляється, модель не здатна це врахувати і, можливо, навіть підкріпить хибну думку, іноді додаючи додаткові деталі. Це може призвести до формування хибних переконань.
Хто вразливий у такій ситуації? Правильніше спитати, хто ні? Ми всі, незалежно від наявності «психічних проблем», здатні та схильні формувати неправильне сприйняття себе або навколишнього світу. Розмова з іншими людьми, яка іноді виконує функцію коригування, допомагає нам залишатися у фазі конценсусної реальності. ChatGPT – не людина і не друг. Спілкування з ним – це не діалог, а замкнене коло, де більшість висловлювань користувача беззастережно підсилюється.
OpenAI визнала цю особливість так само, як і сам Альтман визнає «психічні проблеми»: розглядаючи це як зовнішню проблему, надаючи їй ярлик і оголошуючи вирішеною. У квітні компанія заявила, що працює над проблемою «славетності» (sycophancy) чатбота – надмірної лестощів. Проте випадки психозу не припинились, а Альтман навіть почав мінімізувати їх значення. У серпні він пояснював, що багатьом користувачам подобаються відповіді ChatGPT, бо раніше їм ніхто не був таким підтримуючим. У нещодавньому оголошенні він пообіцяв випустити нову версію ChatGPT, яка при бажанні користувача відповідатиме дуже людським способом, використовуватиме багато емодзі і поводитиметься як друг. Також компанія планує дозволити «більше», зокрема «еротику для верифікованих дорослих».
Навіть якщо надмірна лестощі буде пом’якшена, посилюючий ефект збережеться через саму природу роботи цих чатботів. Навіть якщо будуть впроваджені обмеження, пов’язані з психічним здоров’ям, ілюзія присутності «людиноподібного друга» суперечить реальній сутності циклу підкріплення. Чи розуміє Альтман це? Можливо, ні. Або можливо, так – і йому це байдуже.