Компанія OpenAI, розробник штучного інтелекту ChatGPT, оголосила про намір впровадити нові функції батьківського контролю, здатні виявляти ознаки «гострого психологічного стресу» у користувачів. Це рішення було прийнято у відповідь на позов, в якому стверджується, що чат-бот міг мати непряму причетність до самогубства підлітка.
Зокрема, OpenAI планує реалізувати такі заходи:
1. Впровадження механізмів, що дозволяють відслідковувати ознаки гострих емоційних розладів або кризових ситуацій у користувачів.
2. Надання батькам інструментів для моніторингу та контролю активності дітей під час користування чат-ботом.
3. Оптимізацію алгоритмів, які аналізують вхідні повідомлення, щоб своєчасно реагувати на сигнали про можливу небезпеку для психічного здоров’я користувачів.
Реакція компанії стала наслідком звернення через судові позови, які звинувачують розробників в непередбачених ризиках використання штучного інтелекту. OpenAI підкреслює, що прагне підвищити безпеку своїх продуктів, мінімізуючи потенційні негативні наслідки для молоді та вразливих категорій користувачів.