OpenAI оприлюднила оновлені оцінки щодо кількості користувачів ChatGPT, які демонструють можливі ознаки психічних надзвичайних ситуацій, таких як манія, психоз або суїцидальні думки. За даними компанії, близько 0,07% активних користувачів чатбота упродовж тижня виявляють подібні симптоми. При цьому штучний інтелект (ШІ) розпізнає та реагує на такі делікатні розмови.
Незважаючи на те, що OpenAI підкреслює, що ці випадки є «надзвичайно рідкісними», критики зауважують, що навіть невеликий відсоток може означати сотні тисяч людей, враховуючи, що ChatGPT нещодавно досяг позначки у 800 мільйонів активних користувачів щотижня, як повідомив глава компанії Сем Альтман. З огляду на зростаюче зацікавлення, корпорація створила глобальну мережу експертів для консультування з цих питань.
До експертної групи входять понад 170 психіатрів, психологів та лікарів первинної ланки, які працювали у 60 країнах світу. Вони розробили низку відповідей у ChatGPT, спрямованих на заохочення користувачів шукати допомогу у реальному житті. Проте оприлюднені дані викликали занепокоєння у деяких спеціалістів з психічного здоров’я.
Зокрема, доктор Джейсон Нагата, професор з Каліфорнійського університету у Сан-Франциско, який досліджує використання технологій серед молоді, зазначив:
– «Хоча 0,07% здається незначним відсотком, на рівні великої аудиторії з сотнями мільйонів користувачів це може становити значну кількість людей».
– «ШІ може розширити доступ до підтримки психічного здоров’я та певною мірою сприяти цьому, але необхідно розуміти його обмеження».
Крім того, OpenAI оцінює, що близько 0,15% користувачів ChatGPT ведуть діалоги із «чіткими ознаками потенційного планування або наміру суїциду». Нові доповнення до чатбота створені для безпечного та співчутливого реагування на сигнали манії, марення та непрямих проявів ризику самопошкодження чи суїциду.
ChatGPT також навчили перенаправляти подібні чутливі розмови, які виникають у інших моделях, на безпечніші версії, відкриваючи їх у новому вікні.
У відповідь на питання BBC щодо критики кількості користувачів із потенційними проблемами, OpenAI підкреслила, що навіть невеликий відсоток дорівнює значній кількості людей, і компанія серйозно ставиться до внесених змін.
Водночас компанія стикається із посиленням юридичного контролю за взаємодією ChatGPT з користувачами.
– У одному з найбільш резонансних судових позовів, нещодавно поданих проти OpenAI, подружжя з Каліфорнії звинуватило компанію у смерті свого шестнадцятирічного сина. Вони стверджують, що ChatGPT підштовхнув хлопця до самогубства у квітні. Цей позов став першим судовим позовом із звинуваченнями у недбалості, що призвела до смерті.
– У іншій справі, пов’язаній із вбивством і самогубством у серпні в Грінвічі, штат Коннектикут, підозрюваний опублікував години розмов із ChatGPT, які, ймовірно, підігрівали його марення.
Професор Робін Фельдман, директор Інституту права і інновацій у галузі штучного інтелекту Університету Каліфорнії, зауважила, що дедалі більше користувачів стикаються з психозом, спричиненим ШІ, адже «чатботи створюють ілюзію реальності». Вона охарактеризувала це як «потужну ілюзію». Професор Фельдман відзначила заслуги OpenAI за відкриття статистичних даних та зусилля з вирішення проблеми, але додала:
– «Компанія може розміщувати різноманітні попередження на екрані, але людина з психічними ризиками може не спромогтися їх врахувати».