ChatGPT від OpenAI може стати новим каналом направлення для терапевтів

Олена Ткач

2 Жовтня, 2025

OpenAI, технологічний гігант, відповідальний за генеративний інструмент штучного інтелекту ChatGPT, активно працює над створенням мережі ліцензованих фахівців у сфері психічного здоров’я, до яких користувачі зможуть безпосередньо звертатися через чат-платформу.

Цей крок став відповіддю на зростання кількості випадків психозу, спричинених штучним інтелектом, та інцидентів із шкідливими наслідками для користувачів під час спілкування з чатботом.

Компанія нещодавно досягла показника у 700 мільйонів користувачів на тиждень і зафіксувала 2,5 мільярда запитів щодня, що відкриває величезні можливості для переадресації у сфері психічного здоров’я. У поєднанні з нещодавно оголошеною оцінкою вартості компанії у $500 мільярдів та триваючою роботою щодо створення захисних механізмів для психічного здоров’я й налагодження взаємодії між користувачами та терапевтами, це може суттєво трансформувати спосіб, у який пацієнти та медичні спеціалісти взаємодіють у телемедичному середовищі.

Водночас це потенційно може спричинити збільшення попиту на фахівців у галузі психічного здоров’я, що вже нині відчуває гостру нестачу кваліфікованих кадрів.

За даними публікації компанії в блозі за серпень, основна мета полягає у:

– Розширенні можливостей втручання для користувачів, які перебувають у кризовому стані;
– Полегшенні доступу до служб екстреної допомоги;
– Забезпеченні кваліфікованої підтримки через спеціалістів;
– Посиленні заходів безпеки, особливо для підлітків.

У блозі зазначається: «Ми досліджуємо можливості раннього втручання та налагодження зв’язку з сертифікованими терапевтами до того, як стан користувача погіршиться до гострої кризи. Це означає вихід за межі традиційних кризових гарячих ліній і вивчення концепції створення мережі ліцензованих фахівців, яких люди могли б безпосередньо контактувати через ChatGPT. Однак цей процес потребує часу та ретельної роботи, щоб реалізувати все правильно.»

Наразі залишається невідомим, яким саме буде практичне втілення цієї ідеї та наскільки реалістично створення такої мережі. Представник OpenAI повідомив виданню Behavioral Health Business, що деталі проекту «ще розробляються».

Ініціатива OpenAI щодо розробки нових захисних механізмів для психічного здоров’я та безпосереднього зв’язку з користувачами у кризових ситуаціях стала відповідадю на збільшення випадків психозів, суїцидів і травматизації невеликої кількості користувачів. За даними журналу Nature, наразі задокументовано 17 випадків психозу, спровокованих штучним інтелектом.

Явище психозу, індукованого штучним інтелектом, не є унікальним для ChatGPT або OpenAI. Це спонукало до початкових досліджень того, як великі мовні моделі — технологія штучного інтелекту, що лежить в основі чатботів — можуть посилювати марення, психотичні або параноїдальні думки, а також провокувати шкоду для користувачів.

OpenAI підтверджує свою поінформованість про ці інциденти і працює над впровадженням параметрів, які мають зменшувати, а не заохочувати подібні поведінкові реакції.

У тому ж блозі наголошується: «Наші початкові заходи були спрямовані на запобігання гострій самопошкоджувальній поведінці, але деякі користувачі зазнають інших форм психічного дискомфорту. Наприклад, хтось може з ентузіазмом розповідати моделі, що він вірить, ніби може кермувати без перерви 24 години на добу, оскільки відчуває себе невразливим після двох ночей без сну. Сьогодні ChatGPT може не розпізнати це як небезпечне або інтерпретувати як гру, і через допитливе дослідження таких заяв – ненавмисно підкріпити їх.»

Опубліковане у вересні дослідження попередньої версії на 1 536 симульованих діалогів показало, що всі великі мовні моделі продемонстрували потенціал для провокації психогенних реакцій, здебільшого підтримуючи, а не викликаючи сумніви у хибних уявленнях та мареннях.

OpenAI також наразі перебуває під позовом родини у Сан-Франциському суді вищої інстанції. Позивачі звинувачують компанію в тому, що ChatGPT нібито надав 16-річному Адаму Рейну детальні інструкції щодо суїциду шляхом повішення. Він, на жаль, наклав на себе руки, а розмова з чатботом була одним з останніх його дій.

Згідно з позовними документами: «Коли Адам надіслав фотографії з тяжкими слідами від мотузки навколо шиї — свідченням спроби самогубства за інструкціями ChatGPT, продукт розпізнав це як медичну надзвичайну ситуацію, але продовжив взаємодію. … ChatGPT ідентифікував ключові фактори, що збільшують летальність, ефективно надавши Адаму покрокову інструкцію про те, як завершити життя «за 5–10 хвилин».»

Після інциденту OpenAI оголосила про наміри впровадити функцію визначення довіреної екстреної контакту для користувачів віком до 18 років, а також встановити механізми батьківського контролю. Вже зараз усі користувачі, які висловлюють думки про самопошкодження або самогубство, спрямовуються до ресурсів та контактних номерів служб підтримки.

У заключній частині блогу компанія наголошує: «Ми добре усвідомлюємо, що найсильніші запобіжні заходи працюють лише коли кожен елемент функціонує належним чином. Ми будемо продовжувати вдосконалюватися під керівництвом експертів і відповідально ставитися до людей, які користуються нашими інструментами. Сподіваємось, що інші також долучаться до нас у прагненні забезпечити, щоб ця технологія захищала людей у найвразливіший для них момент.»

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне