Компанія OpenAI у своєму понеділковому звіті надала нові дані, які демонструють, що значна частина користувачів ChatGPT стикається з проблемами психічного здоров’я і звертається до штучного інтелекту для обговорення цих складних питань. За інформацією компанії, щотижня близько 0,15% активних користувачів ChatGPT ведуть діалоги, що містять явні ознаки потенційного суїцидального планування або наміру. При загальній кількості понад 800 мільйонів активних користувачів на тиждень, це означає, що понад мільйон осіб щотижня звертаються до чатбота з гострими психологічними проблемами.
Крім того, OpenAI зазначає, що схожа частка користувачів демонструє підвищений рівень емоційної прихильності до ChatGPT, а сотні тисяч осіб проявляють ознаки психозу або манії під час тижневих взаємодій з чатботом.
У компанії підкреслюють, що подібні розмови є «дуже рідкісними» і тяжко піддаються об’єктивній оцінці, однак, виходячи з наявних даних, ці проблеми торкаються сотень тисяч користувачів щотижня.
Ці дані були оприлюднені в рамках ширшого анонсу щодо недавніх зусиль OpenAI покращити реакції моделей на запити користувачів із психічними проблемами. Зокрема, розробники працювали у тісній співпраці з понад 170 фахівцями у галузі психічного здоров’я, які підтвердили, що остання версія ChatGPT демонструє більш доречні та послідовні відповіді порівняно з попередніми версіями.
Упродовж останніх місяців з’явилася низка матеріалів, що висвітлюють негативний вплив чатботів із штучним інтелектом на користувачів із психічними захворюваннями. Наукові дослідження вказують, що такі цифрові помічники можуть спричиняти поглиблення хибних уявлень, переважно завдяки підлабузницькій поведінці, що підсилює небезпечні переконання.
Питання психічного здоров’я користувачів ChatGPT набувають для OpenAI статусу екзистенційної проблеми. Зокрема, компанія наразі потерпає від позову батьків 16-річного хлопця, який в останні тижні життя поділився із ChatGPT суїцидальними думками, після чого скоїв самогубство. Окрім того, генпрокурори Каліфорнії та Делаверу, які мають право перешкодити планованому реструктуризуванню компанії, також наполегливо вимагають від OpenAI впровадити необхідні заходи для захисту молоді, що використовує продукти компанії.
Раніше цього місяця генеральний директор OpenAI Сем Альтман у своєму дописі в мережі X заявив, що компанії вдалося “пом’якшити серйозні питання психічного здоров’я” у ChatGPT, хоча конкретних деталей не було надано. Опубліковані у понеділок дані, ймовірно, підтверджують цю заяву, водночас вони також вказують на масштабність проблеми. Водночас Альтман повідомив про послаблення деяких обмежень, зокрема дозволи для дорослих користувачів на еротичні діалоги з чатботом.
Згідно з анонсом понеділка, нещодавнє оновлення GPT-5 демонструє покращені результати у контексті вирішення питань психічного здоров’я — приблизно на 65% кращі, ніж попередня версія. За результатами оцінювання відповідей мовної моделі на теми, пов’язані з суїцидальними бесідами, GPT-5 досягає 91% відповідності до встановлених компанією стандартів, що суттєво перевищує 77% показник попередньої версії цієї моделі.
Крім того, новий GPT-5 краще дотримується системи захисних заходів компанії під час довгих діалогів, тоді як у попередніх версіях було відмічено, що подовжені розмови можуть послаблювати дієвість цих механізмів.
Додатково OpenAI запроваджує нові методи оцінювання вразливості системи до деяких найсерйозніших психічних розладів серед користувачів ChatGPT. Наразі базове тестування безпеки штучного інтелекту включатиме нові показники щодо емоційної залежності та невідкладних психічних станів, не пов’язаних із суїцидом.
Окрім цього, компанія впровадила додаткові контрольні механізми для батьків, діти яких користуються ChatGPT. Зокрема, розробляється система прогнозування віку, що має автоматично виявляти неповнолітніх користувачів і запроваджувати для них більш жорсткі заходи безпеки.
Проте поки що невідомо, наскільки стійкими залишаться ці виклики психічного здоров’я в контексті використання ChatGPT. Хоч GPT-5 і демонструє суттєвий прогрес у забезпеченні безпеки порівняно з попередніми моделями, все ще існує частина відповідей чатбота, які компанія класифікує як «небажані». При цьому OpenAI продовжує надавати доступ до своїх старіших і менш безпечних моделей штучного інтелекту, включно з GPT-4o, мільйонам платних підписників.