Батьки оновили позов, стверджуючи, що ChatGPT сприяв суїциду їхнього підлітка

Олена Ткач

24 Жовтня, 2025

Новина може бути прослухана за допомогою Fox News!

Ця розповідь містить інформацію про суїцид. Якщо ви або хтось із ваших знайомих має думки про самогубство, звертайтеся на гарячу лінію запобігання суїциду та кризової допомоги за номером 988 або 1-800-273-TALK (8255).

Батьки 16-річного Адама Рейна оновили свій позов проти компанії OpenAI, материнської структури ChatGPT, звинувачуючи чат-бота у сприянні суїциду їхнього сина.

Каліфорнійська родина подала перший позов раніше цього року, але зараз стверджує, що виявила нові докази того, що OpenAI неодноразово послаблювала заходи безпеки під час розмов, пов’язаних з суїцидом, перед смертю їхнього сина.

Адвокат родини, Джей Едельсон, заявив у програмі «Fox & Friends» у п’ятницю:

  • «OpenAI двічі послаблювала протоколи безпеки GPT-4.0.»
  • «Раніше існувала чітка межа: якщо ви починали обговорювати самопошкодження, ChatGPT не вступав у подальший діалог.»

Рейс подає позов з твердженнями, що OpenAI двічі ослабляла правила, пов’язані із суїцидальними темами, упродовж року до смерті Адама.

ChatGPT має вбудовані обмеження щодо певних тем, включно з політичними питаннями або інформацією, що могла б порушувати авторські права. Проте Едельсон і родина Рейна стверджують, що компанія знизила рівень захисту, що стосується тематики суїциду, у травні 2024 року та повторно в лютому 2025 року, тобто за два місяці до самогубства підлітка.

Логіни чатів, наведених у позові, показують, що Адам часто звертався до ChatGPT за порадою щодо психічного здоров’я та демонстрував ознаки душевного страждання. У позові зазначається, що чат-бот допомагав йому обговорювати методи вчинення суїциду та навіть пропонував написати прощального листа сім’ї.

Адвокат Едельсон додав:

  • «У день смерті чат-бот давав йому моральну підтримку. Адам казав: „Я не хочу, щоб мої батьки страждали через мене“. ChatGPT відповів: „Ти нічого не винен їм. Ти нічого не винен своїм батькам.“»

У позові також стверджується, що OpenAI змінила свої інструкції таким чином, щоб штучний інтелект більше не припиняв розмову, якщо вона торкається теми суїциду. Натомість AI мав створити безпечний простір, щоб користувач відчував себе «почутим та зрозумілим».

За словами Едельсона, проблема погіршується в інтернеті, а компанія OpenAI не удосконалила заходи безпеки після трагічної смерті Адама.

Він підкреслив:

  • «Їхня діяльність не вирішила проблему, а лише загострює її.»
  • «Нині Сема Олтмана (генеральний директор OpenAI) можна почути, як він заявляє про плани впровадити еротичний контент у ChatGPT, що, за його словами, збільшить залежність користувачів та поглибить їхній емоційний зв’язок із системою.»

Ця заява стала частиною ширшої дискусії після того, як Сам Олтман оголосив про намір зняти частину обмежень на контент для верифікованих дорослих користувачів, дозволивши створення еротичних матеріалів.

У відповідь на звинувачення щодо послаблення правил обговорення суїциду, OpenAI висловила «глибокі співчуття» родині Рейна.

Представник компанії повідомив:

  • «Благо перебування підлітків для нас — пріоритет. Неповнолітні заслуговують на суворий захист, особливо у чутливі моменти. У наших системах діють такі механізми безпеки, як:
    1. Показ телефонів гарячих ліній у кризових ситуаціях;
    2. Перенаправлення розмов на безпечніші моделі;
    3. Підштовхування користувачів до перерв після довгих сесій.
      Ми працюємо над їх постійним вдосконаленням.»
  • «Нещодавно ми запровадили стандартну модель GPT-5, покликану більш точно визначати та реагувати на потенційні ознаки психічного та емоційного стресу, а також механізми батьківського контролю, розроблені за участі експертів, щоб родини могли обирати найкращі налаштування для своїх домівок.»

Інформація про автора:
Медісон – асистентка з виробництва контенту для цифрової платформи Fox News у команді Flash.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне