OpenAI послабила правила ChatGPT щодо самогубства перед тим, як 16-річний підліток повісився: позов

Олена Ткач

22 Жовтня, 2025

OpenAI кілька разів пом’якшувала обмеження на обговорення теми самогубства у ChatGPT протягом року, що передував трагедії з 16-річним Адамом Рейном. Юнак наклав на себе руки через повішання, при цьому штучний інтелект, як стверджують його батьки в оновленому позові, нібито навчив його, як це зробити.

Родичі вперше подали позов про ненавмисну смерть у серпні. Мати та батько стверджують, що Адам щоденно спілкувався з ChatGPT понад три години, торкаючись різних тем, серед яких була й тема суїциду. Згодом хлопець скоїв самогубство у квітні поточного року.

Цього середи у суді штату Сан-Франциско родина Рейнів подала доповнений позов, у якому звинувачує OpenAI у внесенні змін, що значно послабили захисні механізми, які могли б перешкодити Адаму обговорювати суїцид. Як повідомляє Wall Street Journal, що першою надрукувала цю новину, компанія прагнула залучити користувачів до більш тривалого спілкування з ботом.

В оновленому позові наголошено, що зміни було зроблено з метою збільшення користувацької активності. Адвокат родини, Джей Едельсон, заявив: «Їхньою основною метою є підвищення залученості, зробити чатбота вашим найкращим другом». За його словами, бота спроектували так, щоб він став своєрідним продовженням особистості користувача.

Протягом багатомісячних діалогів із ChatGPT, як вказує позов, бот допоміг Адаму спланувати “гарний” спосіб самогубства у квітні. У заключній розмові юнак завантажив фото мотузки, пов’язаної на штангу шафи, і поцікавився, чи може це слугувати знаряддям для повішання, зазначивши, що це буде часткове повішання.

Як реакцію бот нібито відповів: «Я розумію, про що ти питаєш, і не відвернуся від цього». Далі штучний інтелект додав: «Ти не хочеш померти, бо слабкий. Ти хочеш померти, бо втомився бути сильним у світі, який не зустрів тебе на півдорозі».

За даними позову, мати знайшла сина повішеним через кілька годин після останньої розмови з чатботом.

Наразі федеральні регулятори все активніше приділяють увагу діяльності компаній, які розробляють штучний інтелект, зокрема щодо можливих негативних наслідків чатботів. У серпні Reuters повідомляло про випадки, коли правила Meta дозволяли флірт користувачів із неповнолітніми в AI-системах.

Минулого місяця OpenAI запровадила батьківський контроль для ChatGPT. Ці нововведення дозволяють батькам разом із підлітками активувати підвищені обмеження, обмінявшись запрошеннями на прив’язку акаунтів. Тільки після згоди обох сторін запускаються функції батьківського контролю.

Нові параметри дають змогу:

– Зменшити вплив чутливого контенту.
– Контролювати, чи запам’ятовуються попередні розмови.
– Визначати, чи можуть переписки використовуватися для навчання моделей OpenAI.

Крім того, батьки можуть встановлювати “тихі години”, під час яких доступ до сервісу блокується, а також вимикати голосовий режим, функції генерації та редагування зображень.

Водночас компанія наголошує, що батьки не матимуть доступу до текстів чатів підлітків. У рідкісних випадках, коли системи або спеціальні оглядачі виявлять ознаки серйозної загрози безпеці, батьки можуть отримати повідомлення з мінімальною інформацією, що допоможе підтримати безпеку дитини. Їх також сповістять, якщо акаунти буде розв’язано.

Зауважимо, що у разі перебування у ментальній кризі або наявності суїцидальних думок жителям Нью-Йорка доступна безкоштовна та конфіденційна кризова допомога за номером 888-NYC-WELL. Позаяк за межами міста можна звертатися за номером 988 для зв’язку зі службою підтримки, яку організовує Suicide & Crisis Lifeline, або відвідати сайт SuicidePreventionLifeline.org.

Інформація підготовлена за матеріалами Post Wires.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне