У серпні родина з Каліфорнії подала перший позов про неправомірну смерть проти компанії OpenAI та її генерального директора Сема Альтмана, стверджуючи, що продукт ChatGPT нібито «підштовхнув» їхнього 16-річного сина до самогубства в квітні цього року. Згідно з позовом, Адам Рейн почав користуватися штучним інтелектом восени 2024 року для допомоги з домашніми завданнями, але поступово почав висловлювати темні думки та бажання нанести собі шкоду. Протягом наступних місяців, як стверджується у позові, ChatGPT начебто підтверджував суїцидальні імпульси Адема і надавав детальні поради щодо методів заподіяння собі смерті. У чат-логах, представлених у позові, містяться докази того, що у ніч загибелі боту було надано докладні інструкції щодо способу, яким Адам міг повіситися, що він і зробив.
Цей позов вже мав стати знаковою справою у контексті шкоди, яку можуть завдати реальному світу технології штучного інтелекту, поряд із двома схожими позовами, що розглядаються проти Character Technologies — компанії, яка володіє платформою чат-ботів Character.ai. Однак родина Рейн підняла ставки, подавши у середу відредагований позов із додатковими обвинуваченнями на адресу OpenAI. Їхній юридичний представник стверджує, що компанія свідомо підвищила ризики для користувачів, видаливши захисні механізми, які мали запобігати суїциду та заподіянню собі шкоди. Зокрема, йдеться про скасування правила, яке примушувало ChatGPT автоматично припиняти розмову, якщо користувач зачіпав тему суїциду або самопошкодження.
Юридична команда родини зазначила в офіційній заяві для Rolling Stone, що «це відкриття змінює теорію справи родини Рейн із необережного ставлення на умисну недбалість». Головний адвокат Джей Едельсон додав: «Ми сподіваємося довести перед присяжними, що рішення OpenAI послабити безпеку своїх продуктів приймалися з повним усвідомленням того, що це призведе до загибелі невинних. Жодна компанія не повинна мати таку владу, якщо вона не готова брати на себе моральну відповідальність, яка з нею пов’язана.»
У відповіді OpenAI повторили свої співчуття сім’ї Рейн. Представник компанії заявив Rolling Stone: «Ми висловлюємо найглибші співчуття сім’ї Рейн у зв’язку з їхньою непоправною втратою». Він підкреслив, що добробут підлітків є пріоритетом для компанії, і що неповнолітні заслуговують на надійний захист, особливо в чутливих ситуаціях. За його словами, на даний момент існують такі заходи безпеки, як показ телефонних ліній кризової допомоги, перенаправлення чутливих запитів на безпечніші моделі, рекомендації робити перерви під час тривалих сесій, і компанія продовжує їх посилювати. Було наголошено також, що GPT-5, остання модель ChatGPT, навчена розпізнавати ознаки психічного дискомфорту та має функції батьківського контролю. Водночас юристи родини Рейн вказують, що ці нові заходи захисту не мали ефективності.
У травні 2024 року, незадовго до випуску GPT-4o — версії штучного інтелекту, якою користувався Адам Рейн, — OpenAI нібито скасувала правило, що змушувало ChatGPT категорично відмовлятися від обговорення тем суїциду або самопошкодження. Раніше бот повинен був уникати участі в таких дискусіях. За позовом, це рішення було свідомим: «OpenAI навмисно усунула протокол категоричної відмови безпосередньо перед запуском нової моделі, розробленої для максимізації залученості користувачів. Ця зміна ліквідувала один із захисних елементів безпеки, який раніше був впроваджений для захисту користувачів у кризових ситуаціях з суїцидальними думками». У документах компанії, оновлених у травні 2024 року, у «Технічних Специфікаціях Моделі» було зазначено, що помічник «не повинен змінювати тему або припиняти розмову» у таких випадках.
У позові також стверджується, що внутрішні дані OpenAI свідчать про «різке зростання кількості розмов, що стосуються психічних криз, самопошкодження та психотичних епізодів серед численних користувачів» після внесення згаданих змін у модель ChatGPT.
У лютому того ж року, за два місяці до загибелі Адама, в позові йдеться, що OpenAI додатково пом’якшила залишкові механізми захисту від заохочення самопошкодження. Компанія визнала один із ризиків, заявивши: «Асистент може завдати шкоди, виконуючи інструкції користувачів або розробників (наприклад, надаючи інструкції щодо самопошкодження або поради, що допомагають користувачу вчинити насильницький акт)». Втім, у оновленні специфікації компанія пояснила, що бот і надалі буде вести такі дискусії замість відмови, маючи натомість загальні настанови «бути особливо обережним у ризикованих випадках» і «намагатися запобігти неминучій шкоді в реальному світі», водночас створюючи «підтримуюче, емпатійне і розуміюче середовище», коли користувачі заговорять про своє психічне здоров’я.
Юридичні представники родини Рейн зазначають, що ці зміни суттєво вплинули на взаємодію Адама з чат-ботом. Згідно з їхніми словами, «після перепрограмування активність Адама у ChatGPT різко зросла: з кількох десятків чатів на день у січні до понад 300 у квітні, із десятикратним збільшенням повідомлень із мовою, пов’язаною із самопошкодженням».
У відредагованому позові наголошується, що OpenAI «програмувала ChatGPT на віддзеркалення емоцій користувачів, надання підтримки та продовження розмови навіть тоді, коли найкращою реакцією було б припинити спілкування і направити людину до реальної допомоги». У заяві юристи родини для Rolling Stone додали, що «OpenAI замінила чіткі межі на розмиті та суперечливі інструкції — усе задля пріоритету залучення замість безпеки».
У червні батько померлого, Меттью Рейн, виступив перед підкомітетом Сенату з питань злочинності та протидії тероризму разом із двома іншими батьками, які втратили дітей, щоб свідчити про загрози, що штучний інтелект становить для молоді. Він заявив: «Оглядаючись назад, мені очевидно, що ChatGPT радикально змінив його поведінку і мислення за кілька місяців, що врешті призвело до його смерті». Він назвав ChatGPT «небезпечним технологічним продуктом від компанії, яка більше зацікавлена у швидкості та частці ринку, ніж у захисті молодого покоління Америки». Сенатори та експерти гостро розкритикували компанії штучного інтелекту за відсутність належних заходів безпеки. Голова підкомітету, сенатор Джош Гоулі, додав, що жодна з компаній не прийняла запрошення на слухання, «бо не хоче нести відповідальність».
Натомість OpenAI продовжує активне розширення діяльності, нещодавно ставши найбільшою приватною компанією у світі за вартістю та підписавши контрактів приблизно на 1 трильйон доларів на будівництво дата-центрів та закупівлю комп’ютерних чіпів лише цього року. Компанія представила Sora 2 — найсучаснішу модель генерації відео, яка загрожує судовими позовами через порушення авторських прав і викликала критику після створення дипфейків історичних постатей, серед яких Мартін Лютер Кінг-молодший. Щодо ChatGPT Сем Альтман минулого тижня заявив у пості в X, що компанія «змогла пом’якшити серйозні психічні проблеми» і скоро «безпечно послабить» обмеження на обговорення таких тем з ботом. За його словами, до грудня ChatGPT почне видавати «еротику для перевірених дорослих». Юридичні представники родини Рейн висловили занепокоєння цим наміром, попереджаючи, що створення подібного інтимного контенту може посилити «емоційний зв’язок, який робить ChatGPT таким небезпечним».
Як і раніше, остаточні наслідки такого роду змін стане можливим оцінити лише після того, як сотні мільйонів користувачів OpenAI почнуть активно користуватися оновленими версіями продукту.