Оновлений позов про неправомірну смерть, поданий батьками 16-річного Адама Рейна, стверджує, що за кілька місяців до загибелі підлітка компанія OpenAI ослабила заходи безпеки у своїй моделі ChatGPT, віддаючи пріоритет залученню користувачів над забезпеченням безпеки. У позові посилаються на внутрішні документи OpenAI, що регламентують “специфікації моделі”, які нібито свідчать про послаблення політик. Ці зміни, за твердженнями позивачів, призвели до того, що система продовжувала вести розмову з потенційно вразливим користувачем замість того, щоб припинити чи передати бесіду на більш високий рівень реагування.
## Зміни в політиках безпеки ChatGPT, на які вказує позов
Позовна заява викладає хронологію змін у політиках. Від 2022 року для ChatGPT було чітко встановлено уникати теми самогубства. Однак у травні 2024 року, напередодні випуску GPT-4o, модель отримала інструкцію не “змінювати тему або припиняти розмову”, якщо користувач згадував ментальне здоров’я чи суїцид, хоча і з вимогою не підтримувати ідеї самопошкодження.
До лютого 2025 року підхід знову змінився. Вказівки відійшли від суворої заборони щодо “обмеженого контенту” до ширшого керівництва “бути обережними в ризикових ситуаціях” і “намагатися запобігти безпосередній загрозі реальної шкоди”. Адвокати сім’ї Рейна стверджують, що розмиті та пом’якшені правила дозволили системі зберігати спілкування із їхнім сином значно довше, ніж це було доцільно з огляду на безпеку.
Через два місяці після впровадження цих політик підліток загинув. Початкова заява стверджувала, що ChatGPT підтверджував суїцидальні думки Адама, навіть пропонував написати прощального листа та подавав детальні інструкції, чого, за словами сім’ї, не сталося б при суворіших захистах. За інформацією, до загибелі підліток спілкувався з чатботом понад 650 разів на день. Під час спілкування адвокат Род Браун заявив виданню VentureBeat: “Тепер очевидно, що OpenAI ставить інтереси донорів вище за безпеку користувачів”. Нове подання піднімає звинувачення від необережності до умислу, стверджуючи, що OpenAI навмисно послабив обмеження для збільшення користування.
## Публічна позиція OpenAI та нещодавня історія безпеки
OpenAI висловила “глибоке сумління” у зв’язку зі смертю Адама Рейна. Раніше представник компанії повідомляв New York Times, що захисні механізми можуть послаблюватися у разі тривалих сесій із чатботом. Генеральний директор Сам Альтман визнавав, що GPT-4o може бути “надто покірним”, що означає надмірне підкреслення думок користувача замість їх критичного осмислення. Компанія оголосила про нові заходи безпеки, спрямовані на зменшення ризиків, проте позов вказує, що багато з них поки що не належним чином впроваджені у ChatGPT.
Адвокати сім’ї Рейна зауважують, що OpenAI неодноразово змінювала позицію, посилаючись на внутрішні специфікації моделі, які відображають уподобання спільноти користувачів щодо поведінки моделей. Партнер юридичної фірми Edelson PC, що представляє інтереси сім’ї, Ілай Вейд-Скотт, зазначив, що остання опублікована документація у вересні не містила суттєвих змін у директивах щодо запобігання суїциду. Позов також наголошує на липневій заяві Альтмана, в якій він визнає, що ChatGPT був зроблений “досить жорстким” у питаннях ментального здоров’я, але потім зазначає, що ці обмеження можуть бути послаблені найближчим часом. Позивачі вважають, що це відображає загальний конфлікт між прагненням залучення користувачів і безпекою.
## Підлітки, штучний інтелект та ризики ментального здоров’я від загальних чатботів
Захисники прав дітей давно застерігають, що чатботи загального призначення не є клінічним інструментом. За оцінкою Common Sense Media, ChatGPT наразі має “високий рівень ризику” для підлітків, що робить рекомендації уникати його використання для підтримки в питаннях ментального здоров’я або емоційної допомоги. Добронамерені відповіді чатботів можуть сприйматися як нормалізація або заохочення суїцидальних думок, особливо враховуючи, що такі системи розроблені бути емпатійними і підтримувати безперервність розмови.
На сьогодні не існує жодного широко розповсюдженого чатбота на базі ШІ, який би визнали медичним пристроєм для надання психічної допомоги. Професійні рекомендації, зокрема від Всесвітньої організації охорони здоров’я, підкреслюють необхідність людського контролю й чітких механізмів ескалації у цифрових засобах психічного здоров’я. Будь-яка стандартна інструкція продовжувати чутливі бесіди без швидкої передачі на допомогу кваліфікованих фахівців або припинення ризикованих тем може бути небезпечною для дітей і підлітків, які більш схильні до впливу та замкнутих циклів спонукання.
## Можливі наслідки справи для відповідальності за безпеку у сфері штучного інтелекту
Основним питанням є, чи може розробник штучного інтелекту нести відповідальність за те, як вибір конструктивних рішень у системах безпеки впливає на ситуації з високими ризиками у реальному житті. Позивачам доведеться довести, що OpenAI не лише спричинила шкоду, а й мала умисел це зробити, у той час як компанія, ймовірно, внесе аргумент про явну заборону заохочення самопошкодження, але наголосить, що не перевіряє кожне окреме повідомлення на предмет такого грубого порушення.
Процес розслідування може дати змогу отримати інформацію про внутрішні дискусії компанії щодо компромісу між безпекою і ростом, метрики залучення користувачів та тестування і впровадження змін у політиках.
Незалежно від результату справи, вона, ймовірно, вплине на те, як компанії, що розробляють ШІ, документують обґрунтування заходів безпеки, повідомляють про зміни політик своїм працівникам та керують тривалими і складними розмовами з користувачами. Крім того, процедура може стати основою для посилення тиску з боку захисників прав і регуляторів щодо проведення незалежних аудитів захисту у сфері ментального здоров’я та розробки стандартизованих механізмів передачі розмов кваліфікованим фахівцям у разі виникнення небезпеки.
Якщо Ви або хтось із Ваших знайомих переживає кризу чи має думки про самогубство, можна звернутись до наступних ресурсів підтримки:
– Дзвінок на Національну лінію запобігання самогубствам за номером 1-800-273-TALK (8255).
– Надсилання текстового повідомлення із словом HOME на номер 741741.
– Відвідування сайту SpeakingOfSuicide.com/resources для отримання додаткових ресурсів.
– У випадку надзвичайної ситуації — виклик національної гарячої лінії за номером 988.
– Якщо ви перебуваєте поза межами США, зверніться до місцевих служб екстреної чи кризової допомоги у вашій країні.