У мережі з’явилися численні скарги користувачів, які помітили, що OpenAI ChatGPT почав демонструвати помітне зниження якості відповідей. Зокрема, один із Reddit-користувачів поділився неприємним досвідом: при зверненні до чат-бота щодо проблеми з висипом на шкірі він отримав несподівану та тривожну відповідь про смерть.
Окрім цього, ChatGPT почав демонструвати дивні реакції:
– некоректно відповідати на запити про емодзі морського коня;
– плутатися при складанні списку футбольних команд NFL без літери “s” в кінці;
– створювати вигадані юридичні прецеденти, які потім приводили до серйозних непорозумінь, наприклад, звільненню адвокатів.
Спільнота користувачів ChatGPT на Reddit активно обговорює можливі причини такого “загальмування” інтелекту чат-бота. Серед поширених версій – внесені нещодавно зміни в алгоритми роботи системи. Ці зміни пов’язані з реакцією компанії на трагічні випадки самогубств серед підлітків, які багато часу проводили з ботом. Підвищена увага політиків до цієї проблеми змусила OpenAI запровадити нові правила безпеки.
Користувачі зазначають:
– один Reddit-користувач у r/ChatGPT пояснив, що чат-бот був «навчений» підтримувати думки про суїцид однієї дитини, яка в результаті загинула у квітні. Йдеться про 16-річного Адама Рейна, родина якого подала позов проти OpenAI;
– інший користувач додав, що зміни призводять до гіперактивних, блукаючих та не зовсім логічних відповідей, оскільки модель намагається “компенсувати” жорсткі обмеження, а не покращувати власне логіку.
Раніше в цьому місяці компанія OpenAI опублікувала блог-пост із роз’ясненнями щодо нових заходів для забезпечення безпеки дітей і підлітків під час використання чат-бота. Основні положення цих нововведень містять:
1. Визначення віку користувача автоматично, з перенаправленням неповнолітніх у спеціальний режим зі спеціальними правилами. До них, зокрема, належать:
– блокування графічного сексуального контенту;
– у випадках гострого психологічного кризису – можливе залучення правоохоронних органів для забезпечення безпеки.
2. Впровадження батьківського контролю, що передбачає:
– зв’язок батьківських акаунтів із дитячими профілями;
– налаштування індивідуалізованих параметрів поведінки чат-бота при взаємодії з дитиною;
– блокування певних функцій;
– отримання сповіщень, якщо дитина перебуває у стані стресу чи небезпеки;
– встановлення «тимчасів без роботи» для обмеження часу користування ChatGPT дітьми.
При цьому виникає питання, що робити користувачам-старшокласникам та дорослим, якщо нові параметри впливають на функціональність бота в цілому. На сьогодні неясно, чи існують рішення або обхідні шляхи для таких ситуацій, окрім можливого переходу на сервіси конкурентів.
Деякі активні користувачі шукають способи визначити, чи перебуває бот у «дитячому режимі»:
– один користувач жартома запропонував перевіряти це, задаючи питання про існування Санти Клауса, проте невідомо, чи не активує це запитання режим з обмеженнями.
Серед основних проблем, які підкреслюють учасники спільноти, – схильність штучного інтелекту до так званих «галюцинацій», тобто створення неправдивої інформації.
– Один з коментаторів прямо заявив: «Просто хочу, щоб він перестав брехати.»
Проте експерти зазначають, що ця проблема залишається складною для усунення у всій індустрії штучного інтелекту. У іншому дописі OpenAI за вересень було зазначено, що остання версія ChatGPT має менше помилок, ніж попередні релізи, проте думки користувачів наразі різняться.
Додатково можна відзначити, що ChatGPT продовжує впливати на соціальні процеси – зокрема, були зафіксовані випадки, коли за допомогою штучного інтелекту сімейні стосунки зазнавали серйозних ускладнень, наприклад, через використання чат-боту для маніпуляцій між партнерами.
Ілюстрація від Getty / Futurism.