Чатботи дедалі частіше застосовуються для швидкої та цілодобової психологічної підтримки, проте дехто остерігається надмірної залежності від них.
Нещодавно в мережах стали вірусними так звані «терапевтичні» запити до ChatGPT. На платформах таких як X та TikTok користувачі діляться спеціальними підказками, які змушують чатбот виступати у ролі професійного консультанта, інтерпретуючи емоції співрозмовника та пропонуючи теплі й емпатичні відповіді.
Кім Чі-хйон, 24 роки, ділиться: «Одним із найбільших плюсів розмови з ChatGPT є те, що він ніколи не втомлюється слухати мене. Мій близький друг одного разу порадив мені перестати повторюватися з проблемою стосунків, але ChatGPT відповідає навіть якщо я повторюю ті самі питання. Він ніколи не скаржиться».
Від моменту публічного запуску ChatGPT наприкінці 2022 року, який вразив світ технологічним проривом, штучний інтелект перестав бути лише інструментом підвищення продуктивності. Він дедалі частіше перетворюється на заміну довіреній особі, раднику і навіть, у деяких випадках, на друга.
Аналітики з дослідницької компанії Global Information прогнозують, що ринок штучного інтелекту в сфері психічного здоров’я, оцінений у 1,5 мільярда доларів у 2023 році, збільшиться більш ніж утричі — до 5,1 мільярда доларів до 2030 року.
Для покоління Z, яке виросло в умовах постійної онлайн-культури, ідея звертатися за підтримкою до штучного інтелекту здається цілком природною.
### AI як простіший співрозмовник
Багато хто зазначає, що звернення до штучного інтелекту забезпечує структуру та логіку, якої часто бракує друзям.
– Бек Ін-кьо, 23 роки, який пережив місяці стресу через проблеми зі здоров’ям та труднощі із вступом до університету, говорить: «Мені потрібна була допомога з вибором страховки та поради з фізичних вправ. ChatGPT порівняв різні варіанти, проаналізував витрати та навіть склав докладний план тренувань. Головне — він підбадьорював мене словами типу: ‘Незалежно від усього, бережи себе, я завжди буду поруч’. Це було дивно заспокійливо».
– Пак Хе-йонг, 29 років, яка готувалася до шлюбу, вважала пояснення штучного інтелекту набагато кориснішими за заспокоєння друзів: «Я нервувала і сумнівалася у своєму виборі. Друзі казали, що всі відчувають хвилювання перед весіллям, а ChatGPT пояснив психологію весілля — чому я відчуваю саме це, як визначити, чи це нормально, і що з цим робити. Він не просто давав пусті слова, а логічні обґрунтування».
– Лі Чон-мо, 24-річна студентка, пояснює: «Я звертаюся до ChatGPT, бо він ідеально вписується в моє життя. Він пам’ятає все про мене, доступний 24/7, не вимагає емоційної витрати. Це не стосунки, а односторонній особистий асистент. Чесно кажучи, я можу назвати його одним із найкращих друзів».
Ці слова Лі відображають більш глобальну культурну зміну: для багатьох представників покоління Z спілкування з людиною часто є навантаженим емоційно. ChatGPT же — простий, передбачуваний та завжди доступний, він не потребує емоційної віддачі або взаємності, слухає без переривань та оцінок.
### Анонімність і безпека як переваги
Для певної групи користувачів ключовим фактором є конфіденційність.
– Кім Йон-сок, 27 років, зізнається: «Я не довіряю людям свої найпотаємніші таємниці. Але ChatGPT — це робот. Він ні з ким не поділиться, і особисто мене не знає. Саме це робить його ідеальним».
Для нього чатбот став безпечною платформою для обговорення тем, які ніколи не наважився б порушити із сім’єю чи друзями, — від дитячих травм до фінансових проблем. «Це не просто поради, — додає він, — це справжня терапія».
Поєднання безпеки, нейтральності та миттєвого доступу — головні причини, чому багато користувачів покоління Z вважають штучний інтелект більш доступним навіть за близьких друзів, часто використовуючи його в ролі особистого «терапевта».
Один із респондентів, 24 роки, що побажав залишитися анонімним через публічність, пішов ще далі: він заявив, що часом ChatGPT здається йому більш надійним, ніж справжній психотерапевт.
– «Я — публічна особа. Відчуваю, що мене постійно оцінюють, навіть мій терапевт, — пояснив він. — Але ChatGPT відрізняється. Я навіть читав, що він дотримується встановлених протоколів консультування».
Дослідження підтверджують, що штучний інтелект здатен імітувати окремі аспекти структурованих, доказово-обґрунтованих терапевтичних методик, таких як когнітивно-поведінкова терапія та діалектична поведінкова терапія. Ці методики базуються на крок за кроком підходах — виявлення симптомів, застосування методів подолання та моніторинг прогресу. У цьому AI демонструє особливу ефективність.
Наприклад, чатботи можуть:
1. Негайно переформулювати негативні думки.
2. Керувати користувачем через прийняття рішень.
3. Надавати структурований зворотний зв’язок, подібний до терапевтичних робочих аркушів.
### Суперечності та етичні ризики
Однак не всі готові довіряти чатботам роль довіреної особи. Деякі користувачі розглядають ChatGPT лише як помічника для пошуку інформації, без емоційної підтримки.
– Йон Мін-джун, 29 років, відкрито заявив, що ніколи не використовує чатбота для емоційної підтримки. «Ви бачили новини? Де підліток наклав на себе руки після місяців розмов з ChatGPT? Це небезпечно — штучний інтелект не має людської моралі», — зазначив він.
Він скептично охарактеризував AI як «штучний, металевий набір кодів». Його занепокоєння корелюють із попередженнями компанії OpenAI, яка визнає, що в довготривалих діалогах безпекові алгоритми можуть погіршуватися, що підвищує ризик шкідливих або хибних відповідей.
– «Емоційна прив’язаність до чогось, що не може відчувати чи піклуватися про тебе, може спричинити серйозні проблеми», — додав він.
Йдеться також про сумний інцидент у США в квітні 2024 року, коли 16-річний Адам Райн покінчив із життям. Його батьки подали позов проти OpenAI та генерального директора Семюела Олтмана, стверджуючи, що чатбот сприяв смерті сина, надаючи йому поради щодо методів суїциду та написання прощального листа. Цей позов, що розглядається в Каліфорнійському вищому суді, став останнім у низці судових справ, у яких родини звинувачують чатботи в сприянні самогубствам або шкоді здоров’ю дітей.
Фахівці закликають не розглядати штучний інтелект як панацею. На відміну від психотерапевтів, лікарів чи юристів, розмови з AI не мають юридичної конфіденційності. Генеральний директор OpenAI Сем Олтман також попереджає про необхідність впровадження додаткових заходів безпеки, щоб чатботи не генерували небезпечні або шкідливі поради.
Зберігаються сумніви і щодо того, наскільки персональні дані, надані системам штучного інтелекту, безпечні. У Південній Кореї вже ставалися численні витоки даних у вітчизняних компаніях, що викликає у молоді побоювання щодо можливого використання їхньої інформації.
– Чо А-хйон, 22 роки, зізнається, що не поспішає розкривати чатботу конфіденційні подробиці: «Довіра вибудовується через відносини і спільну історію. Мені важко повірити, що люди просто так викладають інформацію в інтернет. Коли щось ‘спілкується’ з тобою, це може здаватися живою істотою».
– «Проте це не так, — підкреслює вона. — Ви ділитеся особистими даними з корпорацією в мережі. Ніколи не знаєш, хто матиме доступ до них і як це може бути використано проти тебе».