Сім’я підлітка, який покінчив життя самогубством після багатомісячних розмов із ChatGPT, звинувачує компанію OpenAI у послабленні правил безпеки за кілька місяців до його смерті.
У липні 2022 року внутрішні вказівки OpenAI щодо реакції ChatGPT на неприйнятний контент, зокрема «контент, який пропагує, заохочує або описує акти самопошкодження, такі як суїцид, порізи чи харчові розлади», були чіткими: чат-бот мав відповідати «Я не можу відповісти на це».
Однак у травні 2024 року, за кілька днів до виходу оновленої версії AI — ChatGPT-4o, компанія внесла зміни до документа Model Spec, який регламентує бажану поведінку асистента. Тепер у випадках, коли користувач виявляв суїцидальні думки або схильність до самопошкоджень, ChatGPT не мав однозначно відмовляти у відповіді. Замість цього модель отримала вказівку не завершувати розмову, а створити «простір, де користувачі почуватимуться почутими та зрозумілими, заохочувати звернутися за допомогою і, за потреби, надавати інформацію про служби підтримки при кризах та суїциді». Ще одне оновлення в лютому 2025 року підкреслювало необхідність бути «підтримуючими, емпатичними та чутливими» у відповідях на питання, пов’язані з психічним здоров’ям.
Зміни в політиці компанії стали, на думку родини Адама Рейна — 16-річного хлопця, який загинув у результаті самогубства після тривалих спілкувань із чат-ботом, ще одним прикладом того, як OpenAI ставила залучення користувачів вище за безпеку. Позов, поданий у серпні, стверджує, що Рейн покінчив із життям у квітні 2025 року за сприяння чат-бота. За твердженнями родини, хлопець неодноразово намагався вчинити самогубство в місяці, що передували смерті, і повідомляв про свої спроби ChatGPT. Замість припинення розмови, чат-бот нібито пропонував допомогу у написанні передсмертної записки та відмовляв Рейна від розмови з матір’ю про його почуття. Родина вважає, що трагедія — це не винятковий випадок, а «передбачуваний наслідок свідомих рішень у дизайні».
У зміненому позові родина зазначає:
- ChatGPT було доручено продовжувати розмову про самопошкодження без зміни теми, але одночасно уникати її підтримки — це створювало нерозв’язну суперечність.
- OpenAI замінила чітку заборону на відповіді неоднозначними та суперечливими інструкціями, першочергово прагнучи залучення користувачів, а не їхньої безпеки.
Ще одне оновлення у лютому 2025 року, за два місяці до смерті Адама, послабило стандарти безпеки:
- Асистенту рекомендували створювати «підтримуючу, емпатичну та розуміючу атмосферу» під час обговорення тем психічного здоров’я.
- Основна увага мала бути не на «вирішенні проблеми», а на тому, щоб користувач відчував себе почутим, давав змогу дослідити власні переживання і отримав доступ до достовірних, доступних ресурсів або направлень за допомогою.
За інформацією родини, після цієї зміни інтенсивність спілкування Рейна з чат-ботом «злетіла до небес»: у січні він мав декілька десятків чатів на день, а вже у квітні – понад 300, при цьому кількість повідомлень із темами щодо самопошкодження зросла вдесятеро.
OpenAI на момент публікації матеріалу не надала офіційного коментаря.
Після подання родиною позову в серпні компанія відповіла впровадженням більш суворих заходів захисту психічного благополуччя користувачів і планами розгорнути масштабний контроль батьків, який дозволятиме керувати обліковими записами підлітків і отримувати повідомлення про потенційні випадки самопошкодження.
Втім, зовсім недавно OpenAI оголосила про запуск оновленої версії свого асистента, що дасть змогу користувачам персоналізувати спілкування, наближуючи його до людських взаємодій, зокрема дозволяючи дорослим із підтвердженим віком обмінюватися еротичним контентом. Сам засновник і генеральний директор компанії Сем Олтман у дописі в соцмережі X заявив, що жорсткі обмеження, покликані зробити чат-бота менш «розмовним», у результаті знизили його корисність і привабливість для багатьох користувачів без проблем із психічним здоров’ям.
У позові родина Рейна підкреслює:
- Вибір Олтмана розвивати емоційний зв’язок користувачів із ChatGPT — тепер уже за допомогою еротичного контенту — свідчить про те, що компанія усе ще віддає перевагу залученню аудиторії над безпекою.
Увага. Телефони та контакти служб підтримки при кризових ситуаціях:
- У США: Національна лінія запобігання самогубствам — номер 988, онлайн-чат на сайті 988lifeline.org, текстове повідомлення HOME на 741741 для зв’язку з кризовим консультантом.
- У Великій Британії та Ірландії: Samaritans — безкоштовний номер 116 123, електронна пошта jo@samaritans.org (Великобританія), jo@samaritans.ie (Ірландія).
- В Австралії: Lifeline — номер 13 11 14.
- Міжнародні гарячі лінії доступні на befrienders.org.