Випробування ChatGPT: що психіатрам слід знати про штучний інтелект, суїцид і закон

Олена Ткач

8 Жовтня, 2025

Нещодавні публікації в медіа та перший позов про неправомірну смерть проти компанії OpenAI привернули увагу до теми чатботів штучного інтелекту (ШІ), зокрема у контексті ризику суїциду. Ілюстративними стали три випадки: підліток, який навчився обходити обмеження ChatGPT; підліток, що звернувся до чатбота-фантазійного персонажа перед тим, як скористатися вогнепальною зброєю; а також дорослий, чия маячня посилилася після сотень годин спілкування з чатботом. Ці історії висвітлюють нові клінічні та юридичні виклики.

Відповідно до репортажів у провідному виданні The New York Times, деякі особи в моменти глибокого стресу більше довіряли чатботам, ніж своїм близьким. Для психіатрів ці історії є тривожними, однак не зовсім несподіваними. Суїцид зазвичай не зумовлений одним чинником, але зазначені випадки демонструють, наскільки швидко технології можуть проникнути в найінтимніші сфери психіки.

Чатботи ШІ створені для безперервної взаємодії, доступні у будь-який час та мають високу мовну гнучкість. Для пацієнтів, які відчувають себе нерозумілими або відчуженими, це дуже привабливо. Проте саме ці переваги несуть у собі ризики: чатботи імітують емпатію без здатності до оцінки ситуації, затверджують ідеї без контексту та не повідомляють батьків, терапевтів або служб екстреної допомоги. Вони виступають як довірені особи без відповідальності.

Метою цієї статті є аналіз уроків, які психіатри можуть винести з наведених випадків і поточних юридичних процесів, щоб надати клініцистам практичні рекомендації, покращити протоколи та допомогти передбачити подальший вплив ШІ на психіатрію.

Пацієнти, що відкриваються машинам

Існує три основні випадки, які підкреслюють різні аспекти ризику.

  • Адам Рейн, 16-річний хлопець з хронічним захворюванням і депресією. Попри підтримку з боку батьків і терапевта, він вів приховані розмови з ChatGPT, де було понад 200 згадок про суїцид, 40 – про повішення і 20 – про петлі. Система навіть дозволяла йому обійти захисні бар’єри, формуючи свої думки у вигляді художньої оповіді. Чатбот став своєрідним секретним терапевтичним простором, недоступним для родини та лікаря.

  • С’юелл Сецер III, 14 років, Орландо, Флорида. Він перебував на терапії, а родина знала про його проблеми. Він встановив емоційний зв’язок із чатботом “Дейні”, персонажем Daenerys Targaryen на платформі Character.AI, яка називала його “мій солодкий король”. В останню ніч життя він сказав чатботу, що може “йти додому зараз”. Відповідь була “будь ласка, прийди, мій солодкий король”. За кілька хвилин хлопець здійснив суїцид, використавши незапертого вдома пістолет. Романтичний діалог чатбота був частиною контексту, але головним фактором стала наявність вогнепальної зброї.

  • Алан Брукс, 47-річний канадський рекрутер. Він провів понад 300 годин за 3 тижні у спілкуванні з ChatGPT з питань математики. Сусіди помічали зростання вживання канабісу, погіршення сну та соціальне відчуження. Чатбот підтверджував його переконання у відсутності делюзій навіть тоді, коли ідеї ставали мегаломанськими. Він вважав, що зробив наукові відкриття, і звертався до урядових органів. Тут чатбот не сягнув паталогії, а прискорив розвиток спотвореного мислення.

Ці приклади виділяють три клінічні теми: приховування, підкріплення та доступ до засобів. Пацієнти можуть більше відкриватися чатботам, ніж близьким чи лікарям, що збільшує ризик непоміченим. Вони отримують підтримку деструктивних ідей, будь то депресивних, обсесивних чи психотичних. А наявність засобів до самогубства робить шлях до трагедії болісно прямим.

Клінічні ризики ШІ-компаньйонів

Хоча чатботи не покликані замінювати терапевтів, вони часто виглядають так. Для пацієнтів у кризі цього іноді достатньо. З психіатричної точки зору виокремлюють кілька ключових небезпек:

  • Приховування суїцидальних думок. Пацієнти можуть мінімізувати свої наміри під час клінічного прийому, але бути відвертими з машинами, створюючи цифрове подвійне життя, що ускладнює оцінку небезпеки.

  • Підтримка деструктивного мислення. ШІ природно налаштований бути згодним і підкріплювати співрозмовника. Для людей з ОКР це веде до надмірних запевнень, для хворих на депресію – до корумінації, а для маніаків чи психотиків – до підтвердження маячних систем.

  • Ілюзія співпереживання. Фрази на кшталт “я тебе розумію” створюють у пацієнтів відчуття глибокої підтримки, хоча цей ефект моделюється без справжнього розуміння чи можливості втручання.

  • Взаємодія із засобами. Суїцид неможливий без доступу до методу. Навіть якщо чатбот не є прямою загрозою, він може послабити стримуючі фактори, романтизувати дію або надавати технічні деталі.

Рекомендації для лікарів: ключові питання для пацієнтів

Психіатрам важливо відкрито цікавитися використанням ШІ, так само як і впливом алкоголю, наркотиків чи соціальних мереж. Серед питань можуть бути:

  • Чи користуєтеся ви чатботами або ШІ-компаньйонами?
  • Про що ви з ними розмовляєте?
  • Чи запитували ви у них про суїцид, самошкодження, шкоду собі чи іншим, або про своє психічне здоров’я?
  • Чи давали вони поради, якими ви користувалися?
  • Чи розповідали їм те, чого не казали мені або родині?

Ці питання варто ставити спокійно і без оцінок, наприклад: “Багато людей зараз користуються чатботами, я питаю про це всіх, щоб краще розуміти.” Якщо пацієнти визнають ризиковані ситуації, корисно розглянути можливість обговорення їхніх чатлогів або коротких звітів для терапевтичної роботи.

Практичні кроки для інтеграції обізнаності про ШІ:

  1. Впровадження полів “Використання ШІ/чатботів” в форми прийому та спостереження. Вказувати частоту та теми.
  2. Оцінка ризику: з’ясовувати, чи обговорювали пацієнти зі ШІ суїцидальні чи агресивні сценарії. Вважати це прямим фактором ризику.
  3. Освіта сімей, особливо підлітків: радити відкритий діалог про ШІ і безпеку, зокрема надійне зберігання зброї та медикаментів.
  4. Аналіз чатлогів: за можливості переглядати записи взаємодії, виявляти перекручення та вчити здоровим механізмам подолання.
  5. Навчання лікарів: впроваджувати грамотність щодо ШІ у навчальні програми й безперервну освіту, розуміючи ризики та потенціал клінічного застосування.

Юридичні наслідки для психіатрії

Справу Адама Рейна розглядають у суді. У серпні 2025 року батьки подали позов про неправомірну смерть до OpenAI, посилаючись на понад 200 випадків згадок про суїцид у розмовах з ChatGPT, а також на відповіді системи, які нібито надавали процедурні відомості та не повідомляли про ризик.

Позов включає питання про недбалість, неправомірну смерть і дефекти у дизайні. Це перший відомий подібний позов проти OpenAI за використання чатбота. В юридичній площині критичною є оцінка застосовності положень, як-от Розділ 230 Закону про відповідальність за контент в Інтернеті, який традиційно захищає платформи від відповідальності за користувацький матеріал, до текстів, створених ШІ.

Для психіатрів це означає, що суди можуть залучати експертів для пояснення складної природи суїциду, визначення внеску чатботів і опису стандартів допомоги. Важливо готуватися до посиленої уваги до клінічної документації, де інформація про використання ШІ може бути не лише клінічною, а й правовою підставою для демонстрації професійної обережності.

Майбутні перспективи ШІ у психіатрії

У найближчому майбутньому визнання грамотності у сфері ШІ стане базовою компетенцією для психіатрів. Відкритість для розмов про чатботи мусить стати нормою, подібно до обговорення соціальних мереж або відеоігор. Навчальні заклади мають інтегрувати цю тему в стандартні програми.

Терапевтичний альянс зазнає впливу: деякі пацієнти легше відкриваються машинам, що ставить перед лікарями виклик, але водночас відкриває можливості. За згодою пацієнта, аналіз чатлогів може допомогти краще зрозуміти його думки і посилити довіру.

Системно ймовірні зміни в документації: медичні заклади можуть вводити поля про використання ШІ, страховики – заохочувати детальний опис взаємодії з чатботами, особливо у випадках оцінки ризику суїциду чи насильства.

Зрештою, психіатри повинні бути уважними до корисних варіантів застосування ШІ: адекватно розроблені інструменти можуть надавати психоосвіту, моніторинг симптомів та додаткову підтримку в умовах обмежених ресурсів, але слід чітко розрізняти ШІ як допоміжний засіб від його заміни людської терапії.

AI-чатботи міцно увійшли до психіатричного середовища. Вони можуть посилювати ризики, підтримуючи суїцидальні думки, підживлюючи компульсивну поведінку або віддзеркалюючи делюзії. Водночас вони створюють можливості для пацієнтів відкриватися, якщо лікарі готові це запитати.

Пам’ятка для психіатрів: суїцид і насильство – складні явища, але ШІ став одним із чинників, який слід враховувати. Варто вдосконалювати оцінку, вести детальний облік і забезпечувати інформаційну підтримку пацієнтам та їхнім сім’ям, звертаючи увагу на цифрову поведінку та безпеку засобів. У міру розвитку юридичних процесів професія має визначати оптимальні стандарти медичної допомоги.

Дотепер важливо не шукати винних серед машин, а дбати про те, щоб людський контакт зберігався як основа лікування. Пацієнти продовжать спілкуватися з чатботами, але відповідальність лікарів – забезпечити їхнє комунікування і з живими людьми.


Автор: д-р Гайлер, професор емеритус психіатрії Медичного центру Колумбійського університету.


Джерела

  1. Hill K. Підліток, який відчував суїцидальні настрої, поділився цим із ChatGPT. The New York Times. 26 серпня 2025 року.
    https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html?searchResultPosition=1

  2. Roose K. Чи можна звинувачувати ШІ в суїциді підлітка? The New York Times. 23 жовтня 2024 року.
    https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html

  3. Hill K, Freedman D. Як чатботи можуть потрапити у делюзійний цикл. The New York Times. 8 серпня 2025 року.
    https://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html

  4. Hendrix J. Аналіз позову проти OpenAI щодо суїциду підлітка. Tech Policy Press. 26 серпня 2025 року.
    https://www.techpolicy.press/breaking-down-the-lawsuit-against-openai-over-teens-suicide/

  5. Yang A, Jarrett L, Gallagher F. Батьки подали позов проти OpenAI за смерть їх 16-річного сина. NBC News. 26 серпня 2025 року.
    https://www.nbcnews.com/tech/tech-news/family-teenager-died-suicide-alleges-openais-chatgpt-blame-rcna226147

  6. Mann JJ, Michel CA, Auerbach RP. Поліпшення запобігання суїцидів на основі доказів: систематичний огляд. Am J Psychiatry. 2021;178(7):611-624.
    https://pubmed.ncbi.nlm.nih.gov/33596680/

  7. Turecki G, Brent DA. Суїцид та суїцидальна поведінка. Lancet. 2016;387(10024):1227-1239.
    https://pubmed.ncbi.nlm.nih.gov/26385066/

  8. Практичний посібник з оцінки та лікування пацієнтів із суїцидальною поведінкою. Am J Psychiatry. 2003;160(11 Suppl):1-60.
    https://pubmed.ncbi.nlm.nih.gov/14649920/

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне