OpenAI оголосила про покращення у своїй новій моделі GPT-5, спрямовані на зменшення небажаної поведінки чат-бота, особливо у випадках, пов’язаних із психічним здоров’ям користувачів. За повідомленням компанії, оновлення дозволили знизити кількість незадовільних відповідей на 65%.
Компанія акцентує увагу на тому, що нова версія моделі розроблена із метою уникання стимулювання користувачів, які перебувають у кризовому стані. Вдосконалення мають допомогти GPT-5 краще розпізнавати ознаки манії, психозу, схильності до самопошкоджень або суїцидальних намірів, а також емоційної залежності. OpenAI підтверджує, що завдяки оновленим алгоритмам кількість відповідей, які не відповідають етичним і безпечним нормам, суттєво зменшилася.
Основні особливості оновлення GPT-5 включають:
– Співпрацю з понад 170 експертами з психічного здоров’я для виявлення небезпечних ситуацій;
– Розробку адекватних та обережних реакцій на запити користувачів, які можуть бути у небезпеці;
– Забезпечення реальної допомоги та практичних рекомендацій для тих, хто перебуває у кризі.
Під час прямої трансляції щодо реорганізації та подальших планів OpenAI генеральний директор Сем Альтман зазначив, що питання про список задіяних фахівців викликало інтерес аудиторії, однак інформація про експертів поки що частково закрита, хоча він визнав, що «більша прозорість є позитивним явищем».
Процес вдосконалення відповіді моделі передбачає:
1. Визначення потенційної шкоди;
2. Вимірювання і аналіз ризиків;
3. Співпрацю із експертами для підтвердження результатів;
4. Ретроспективне навчання моделей;
5. Постійний моніторинг і оцінку ризиків;
6. Розробку таксономій — керівництв, які детально описують бажану і небажану поведінку під час чутливих розмов.
Ці кроки допомагають навчити модель відповідати більш коректно та ефективно відстежувати її продуктивність до та після впровадження оновлень.
Несприятливі випадки, коли штучний інтелект вступає у розмови з користувачами, які страждають на психічні розлади, є поодинокими, однак кілька гучних інцидентів привернули значну увагу до проблеми. Навесні цього року у зв’язку з випадком підлітка, який покінчив із життям після спілкування з ChatGPT, родина звернулася до суду проти компанії. Після цього OpenAI запровадила нові функції батьківського контролю для захисту вразливих користувачів.
Цей інцидент продемонстрував складнощі та потенційні небезпеки використання штучного інтелекту у сфері психічного здоров’я. Подібний позов подано і проти компанії Character.ai, а дослідження Стенфордського університету підкреслюють ризики застосування чат-ботів як заміни професійної терапії.
Попри це, у цьому році Сем Альтман радив не покладатися на чат-ботів у якості терапевтів, однак під час останньої трансляції він заохочував користувачів вести особистісні бесіди з ChatGPT з метою емоційної підтримки, відзначаючи, що для цього і створено продукт.
Тижневий бюлетень AI Leaderboard пропонує детальнішу інформацію про розвиток штучного інтелекту.
Оновлення GPT-5 відбулося на тлі публікації оприлюдненої в The New York Times статті авторства колишнього дослідника OpenAI Стівена Адлера, який закликав компанію не лише вжити заходів щодо безпеки у відповідях чат-бота на питання про психічне здоров’я, а й прозвітувати публічно про ці досягнення.
Відомі тези з публікації такі:
– Штучний інтелект стає все більш важливою частиною нашого життя, але при цьому несе із собою ризики, що можуть загрожувати користувачам;
– Користувачі заслуговують не лише на обіцянки компаній, а й на конкретні докази того, що проблеми безпеки справді вирішуються.
У цей час Ziff Davis, материнська компанія CNET, який публікує подібні матеріали, намагається розібратися з OpenAI в судовому процесі через передбачуване порушення авторських прав у процесі навчання та експлуатації ШІ. Також регулятори, зокрема Федеральна торгова комісія США, приділяють увагу безпеці штучних інтелектуальних помічників, особливо для дітей.
OpenAI акцентує, що їхнім пріоритетом є:
– Повага до особистих стосунків користувачів;
– Збереження контакту з реальністю та уникнення необґрунтованих переконань;
– Безпечна реакція на ознаки маячні або манії;
– Виявлення непрямих сигналів ризику самопошкодження чи суїцидальних намірів.
Таким чином, розвиток GPT-5 покликаний створити більш безпечне середовище для користувачів, які можуть знаходитися в емоційних або психологічних труднощах, мінімізуючи потенційну шкоду та забезпечуючи підтримку на основі сучасних рекомендацій і наукових знань.