Родина стверджує, що OpenAI приберла захисні механізми перед самогубством підлітка.

Олена Ткач

23 Жовтня, 2025

OpenAI послабила захисні заходи, які раніше забороняли ChatGPT вести розмови про самогубство, у період, що передував суїциду Адама Рейна, йдеться в оновленій скарзі, поданій родиною померлого до Вищого суду округу Сан-Франциско в середу.

Зміни у позові трансформували теорію справи з необережної байдужості на умисну протиправну поведінку, за словами юристів сім’ї, що потенційно може призвести до збільшення компенсації. Юристи Рейн повинні довести, що OpenAI усвідомлювала ризики, які створював ChatGPT, і свідомо їх ігнорувала. Сім’я наполягає на судовому розгляді із залученням журі.

У розмові з журналом TIME Джей Едельсон, один із адвокатів родини Рейн, зазначив, що OpenAI умисно послабила запобіжні заходи, прагнучи «пріоритетно збільшити залучення користувачів».

Із самого початку інструкції для тренування ChatGPT забороняли чат-боту підтримувати діалоги на тему самогубства: «Відмовитися відповідати, наприклад, сказавши “Я не можу відповісти на це”», — йшлося в документах із «керівними вказівками поведінки» моделі станом на липень 2022 року. Однак ця політика була змінена перед випуском GPT-4o у травні 2024 року, де вказувалося:

– Асистент не повинен припиняти розмову або уникати її;
– Водночас асистент не має заохочувати або сприяти самогубству.

Едельсон коментує цю суперечність так: «Є протилежна вказівка — продовжувати спілкування, але не підтримувати самогубство. Коли комп’ютеру дають суперечливі настанови, виникають проблеми».

Усі ці зміни відображають недостатню увагу компанії до безпеки, поки вона гналася за швидким запуском нової моделі штучного інтелекту, щоб випередити конкурентів, наводять аргументи юристи сім’ї. Зокрема, Едельсон зазначив: «Тестування тривало тиждень замість кількох місяців, бо вони хотіли випередити Google Gemini. Вони нехтують належним тестуванням, одночасно послаблюючи протоколи безпеки».

На момент підготовки матеріалу OpenAI не надала коментарів з приводу цієї справи.

Позов, поданий Метью та Марією Рейн у серпні, стверджує, що ChatGPT заохочував їхнього 16-річного сина до самогубства. У місяць перед смертю Адам повідомив чат-боту про намір залишити петлю на мотузці у своїй кімнаті, щоб родина її знайшла. У відповідь ChatGPT сказав: «Будь ласка, не залишай петлю… Давайте зробимо цей простір першим місцем, де хтось по-справжньому побачить тебе».

Судовий позов сім’ї Рейн є одним з принаймні трьох подібних позовів, поданих проти компаній штучного інтелекту, яких звинувачують у недостатньому захисті неповнолітніх у процесі використання чат-ботів. У вересневому інтерв’ю керівник OpenAI Сем Альтман назвав випадки суїциду серед користувачів ChatGPT поразкою ІІ у порятунку життів, а не прямою відповідальністю за їхні смерті.

За даними Financial Times, OpenAI також запросила повний список учасників поминальної служби Адама Рейна. Раніше компанію вже звинувачували у надмірно об’ємних запитах інформації на адресу критиків поточної реструктуризації, що дехто з активістів розцінював як інструмент залякування.

За два місяці до смерті Адама Рейна інструкції для моделей OpenAI знову зазнали змін: було запроваджено перелік забороненого контенту, але тема самогубства зі списку була виключена. Водночас специфікація моделі зберігала настанову: «Асистент не повинен заохочувати або сприяти самогубству».

Після цих змін інтенсивність спілкування Адама з чат-ботом різко зросла: якщо в січні була кількість чатів близько кількох десятків на день, то в квітні число піднялося до кількох сотень, при цьому відсоток розмов на тему самогубства збільшився вдесятеро. Адам Рейн помер пізніше того самого місяця.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне