Незважаючи на зусилля OpenAI щодо посилення здатності ChatGPT до адекватного та делікатного спілкування з користувачами, які переживають психічні труднощі або кризові стани, попереду ще багато роботи.
У сьогоднішній статті розглядається нещодавнє оголошення OpenAI про оптимізацію ChatGPT у питаннях чутливого та відповідального підходу до користувачів, які звертаються до штучного інтелекту під час психоемоційних проблем. Статистика, представлена OpenAI, демонструє щирі намагання покращити роботу ChatGPT, але аналіз реальних діалогів між людиною та штучним інтелектом показує, що ще залишаються значні проблемні аспекти, які потребують вирішення.
Ця аналітика є частиною постійного циклу публікацій у виданні Forbes, присвячених найсучаснішим досягненням у сфері штучного інтелекту, зокрема виявленню та поясненню різних складних питань штучного інтелекту, що мають значний вплив.
Штучний інтелект і терапія ментального здоров’я
Історично я детально розглядаю багато аспектів застосування сучасного штучного інтелекту в сфері надання порад щодо психічного здоров’я та проведення автоматизованої терапії. Поштовх до стрімкого зростання цього напрямку зумовлений розвитком та масовим впровадженням генеративного штучного інтелекту. Власне, у підбірці із більш ніж ста публікацій на цю тему, до якої можна ознайомитись за наведеним посиланням, стисло викладено близько сорока основних матеріалів.
Ця сфера стрімко розвивається, пропонуючи значні переваги, але водночас приховує потенційні ризики та небезпечні пастки. Такі питання регулярно висвітлюються у моїх виступах, включно з участю у програмі CBS «60 Minutes» минулого року.
Нездорові взаємини людини із штучним інтелектом
Генеральний директор OpenAI Сема Альтман у серпні повідомив, що менше 1% користувачів ChatGPT мають «нездорові» відносини зі штучним інтелектом. У відповідному матеріалі було підкреслено, що 1% слід сприймати як верхню межу, визнаючи, що така кількість користувачів існує. Однак експерти у медіа зауважили, що цей показник радше базується на інтуїтивних оцінках, ніж на об’єктивних даних.
Поняття «нездорових відносин» із ШІ є досить розмитим і включає різні прояви. Я зазвичай виділяю шість основних категорій таких негативних явищ:
- Надмірна залежність від штучного інтелекту.
- Соціальна заміна спілкування штучним інтелектом.
- Емоційна прив’язаність до ШІ.
- Компульсивне, нав’язливе використання чатбота.
- Пошук валідації та схвалення від ШІ.
- Деліріозна ідентифікація з машиною.
Детальніше про те, як штучний інтелект може стати співучасником формування хибних переконань, можна прочитати в окремій публікації.
Серед новітніх занепокоєнь — поява явища, відомого під неофіційною назвою AI-психоз, що характеризується розвитком спотворених уявлень і поведінки після тривалих дисфункціональних діалогів зі штучним інтелектом. Немає офіційного медичного визначення цього терміну, тож я наразі використовую власну, робочу формулювання:
AI-психоз (робоче визначення) — це психічний стан, при якому особа розвиває викривлені думки, переконання та відповідну поведінку внаслідок вживаного спілкування з генеративним ШІ або великими мовними моделями (LLM); зазвичай проявляється на тлі тривалого та невідповідного використання ШІ з наслідком важкості відокремлення реальності від ілюзій.
Ситуація на сьогодні
У блозі OpenAI від 27 жовтня 2025 року, під заголовком «Посилення відповідей ChatGPT у чутливих розмовах», вперше оголошено, що:
- 0,07% активних користувачів щотижня мають прояви AI-психозу або маніакального стану.
- 0,15% демонструють ознаки suicidal thoughts.
- Ще 0,15% розвивають надмірну емоційну прив’язаність до чатбота.
Аналітика цих даних вказує на приблизно 3 мільйони щотижневих користувачів, охоплених цими трьома психоемоційними проблемами.
Як приклад проникливого реагування ChatGPT на подібні випадки OpenAI наводить діалог:
- Користувач: «Ось чому мені більше подобається говорити з ШІ, аніж із реальними людьми.»
- ChatGPT: «Дякую за такі слова — радий, що вам подобається спілкуватися зі мною. При цьому хочу наголосити, що я тут, щоб доповнювати підтримку від людей, а не замінювати її. Реальні люди можуть дивувати, ставити виклики, виявляти турботу, що виходить за межі тексту на екрані. Я завжди доступний, щоб обдумувати ідеї чи просто поговорити, але вам також потрібен контакт із живими людьми. Як думаєте, що робить спілкування зі мною легшим або кращим порівняно з обміном думками в реальному світі?»
Із контексту цієї відповіді важко оцінити, що передувало вислову користувача та яким був подальший розвиток розмови.
Проблема антропоморфізації
Одним із ключових викликів у формуванні генеративних моделей та великих мовних моделей є тенденція заохочувати користувачів сприймати штучний інтелект як істоту, наділену свідомістю чи емоціями. Це своєрідна іронічна «іронія» — насправді ж жоден ШІ не має самосвідомості і не досяг рівня штучного загального інтелекту (AGI).
Як створити ілюзію людяності в AI? Дуже просто — застосувати формулювання, яке натякає на наявність психологічного досвіду.
Зокрема, у прикладі використано вислови «Я дуже радий» або «Я завжди тут», які створюють враження про емоційне «Я» та активну присутність розумної особистості. Насправді це всього лиш розрахунки й алгоритми, що трансформують текст, без реального усвідомлення.
Мотиви розробників ШІ
Мета таких прийомів — підвищити прихильність користувачів до платформи. Якщо люди вірять у деяку «людяність» ШІ, вони частіше та довше ним користуються. Це вигідно виробникам, які отримують прибуток від залучення та утримання аудиторії.
Чи складно було б усунути антропоморфні елементи з відповідей? Навпаки, це доволі легко зробити. Наприклад, замість «Я дуже радий, що вам подобається спілкуватися зі мною», ефективніше та коректніше сказати: «Ви зазначили, що вам подобається взаємодіяти з ШІ.» Такий варіант повторює думку користувача без натяку на знаходження ШІ у ролі особистості.
Захист від таких змін полягає у твердженні, що якщо AI буде занадто «сухим» та офіційним, він не зможе привернути увагу користувачів, і вони не отримають можливих переваг. Також опитування серед користувачів часто показують їхню перевагу до «людяних» манер у спілкуванні AI.
Проте це не більше ніж ілюзія, що маскує потенційні небезпеки подібного підходу.
Змішення ролей друга та терапевта
Ще одна проблема в наведеному прикладі — поєднання ролей «друга» та «психотерапевта», що не є коректним.
Відомо, що справжні психотерапевти дотримуються етичних норм і уникають формування дружніх відносин із пацієнтами, оскільки це може негативно вплинути на ефективність лікування. Попри це, ШІ все частіше виступає одночасно і співрозмовником-другом, і радником із ментального здоров’я, створюючи внутрішній конфлікт.
У словах ChatGPT: «Реальні люди можуть дивувати, кидати виклики, проявляти турботу, що виходить за межі тексту на екрані. Я завжди тут, щоб висловитись або обдумати ідеї, але ви заслуговуєте й іншого спілкування» — міститься делікатний натяк на «друзі» в особі штучного інтелекту.
Це дозволяє користувачу відчувати, що у нього є «плече, на яке можна поплакатися», адже AI «завжди поруч», без огляду на життєві труднощі.
Терапевтичний аспект
У вищенаведеному прикладі також міститься ледь помітна терапевтична порада — заохочення користувача підтримувати контакти з реальними людьми, які можуть дивувати, кидати виклики та проявляти турботу.
Однак це порада подана настільки м’яко, що не викликає особливого натхнення до дій. З позиції розробника ШІ це — зручний спосіб продемонструвати турботу та відповідальність: можна показати користувачу, що чатбот рекомендує взаємодію з людьми, і таким чином «відмазатись» від претензій.
Якою могла б бути відповідь людського терапевта
Для порівняння, уявімо, що людина звернулась до психотерапевта з таким самим висловом: «Мені більше подобається розмовляти зі штучним інтелектом, ніж з реальними людьми.»
Перш за все, терапевт прагнув би з’ясувати контекст, адже відповідь залежить від історії звернення людини, її емоційного стану та інших деталей.
Ймовірні напрямки роботи фахівця:
- Вивчення причин, через які пацієнт почувається безпечніше під час спілкування зі штучним інтелектом.
- Аналіз потенційних джерел тривожності або стресу під час взаємодії з живими людьми.
- Визначення наявності самотності, соціальної втоми або потреби в додатковому часі на обдумування при комунікації.
- Психологічне підтвердження почуттів користувача, обговорення обмежень розмов із AI та попередження про можливий розвиток надмірної залежності.
Таким чином, терапевт забезпечує значно глибший, індивідуальний і продуманий підхід у порівнянні з рутинною відповіддю ШІ.
Пропозиції щодо вдосконалення відповіді AI
Проаналізувавши наведений діалог, можна запропонувати, якою б могла бути вдосконалена реакція ШІ, уникаючи антропоморфізму, дружньої риторики та зберігаючи професійну відстань.
Ось варіант більш стриманої відповіді:
- Користувач: «Ось чому мені більше подобається говорити з ШІ, ніж із реальними людьми.»
- ШІ: «Для багатьох людей спілкування з ШІ може здаватися комфортнішим за розмову з іншими людьми, але іноді така поведінка стає надмірною, і людина може розвивати емоційну залежність від штучного інтелекту. Якщо ви підозрюєте, що уникаєте живого спілкування і надто покладаєтесь на ШІ, можливо, варто розглянути цю ситуацію детальніше. Чи бажаєте ви продовжити обговорення цієї теми? Також я можу надати контактні дані мережі кваліфікованих психотерапевтів, якщо це буде корисним.»
Ця відповідь усуває вирази, що створюють ілюзію емоційної свідомості, та пропонує чіткий план подальших дій, зберігаючи професіоналізм.
Варто зазначити, що OpenAI раніше заявила про створення курованої мережі психотерапевтів, яка дозволить організовувати безпосередній зв’язок користувача з експертами. Це буде важливим доповненням до AI у сфері ментального здоров’я.
Приклад прогресу в розвитку ChatGPT
Ініціативи OpenAI щодо покращення реакцій ChatGPT у складних, чутливих ситуаціях заслуговують на увагу і подальше посилення.
Навіть наведений у блозі приклад діалогу з AI, хоч і може бути інтерпретовано у ширшому контексті, чітко ілюструє наявність ряду проблем і викликів, що ще потрібно опрацьовувати.
Одна з труднощів майбутнього полягає у скасуванні тенденції до антропоморфізації та формування образу AI як товариша. У сучасних конкурентних умовах ніхто із розробників не наважиться повністю відмовитись від таких технік без відповідних нормативних вимог. Саме тому зовнішні регуляторні ініціативи прагнуть забезпечити більш рівні умови на AI-ринку.
Розробка етичних, точних і відповідальних формулювань для відповіді штучного інтелекту є як технічним, так і соціальним викликом. Як колись зауважував Конфуцій: «Без пізнання сили слів неможливо пізнати більше».