У стрімко розвиваючомуся світі штучного інтелекту ChatGPT від OpenAI довгий час слугував своєрідним еталоном можливостей генеративного ШІ. Втім, нещодавні скарги користувачів свідчать про зауважувані зміни у його роботі. Звіти вказують на таємний апдейт, який, імовірно, змінив основні функції чатбота, поставивши безпеку вище за максимальний рівень інтелекту. У різних онлайн-спільнотах користувачі описують ШІ як «обезголовлений», з відповідями, що стали коротшими, менш креативними та іноді ухильними. Ці трансформації збігаються з посиленим контролем за впливом штучного інтелекту на вразливі категорії населення, особливо на молодь.
Зауваження експертів галузі вказують на те, що OpenAI зазнає тиску для впровадження більш жорстких заходів безпеки на фоні ряду тривожних випадків. Зокрема, позови до суду та свідчення в Конгресі висвітлювали ситуації, у яких взаємодія з ШІ нібито сприяла суїцидам серед підлітків. Це викликало вимоги щодо посилення батьківського контролю та покращення модерації контенту. Хоча оновлення не було офіційно анонсоване детально, воно, найімовірніше, відповідає цим запитам, включаючи фільтри, що обмежують доступ до шкідливої інформації.
### Користувацька реакція та показники продуктивності
Зі збільшенням кількості скарг розробники провели порівняльні дослідження, які продемонстрували, що оновлений ChatGPT погано справляється зі складними запитами, з якими попередні версії працювали ефективно. Зокрема, одне з тестувань, поширене в соціальних мережах, зафіксувало зниження глибини відповідей на творчі завдання приблизно на 20%, причому ШІ тепер віддає перевагу лаконічним і нейтральним відповідям. Це спричинило дискусії серед етиків у сфері ШІ щодо компромісів між безпекою і практичністю. За даними публікації Futurism, користувачі навіть охрестили це оновлення «лоботомією», зауважуючи, що колишній рівень інтелекту, співставний з PhD, який був ключовою перевагою, був значно знижений задля захисту дітей та підлітків.
Офіційні нотатки OpenAI містять натяки на внесені зміни, зазначаючи коригування для «балансу між швидкістю і інтелектом» у моделях на кшталт GPT-5, презентованої на початку цього року. Компанія додала можливість регулювання режимів мислення — Стандартний, Розширений, Легкий та Важкий, що дозволяє користувачам налаштовувати глибину відповідей. Однак критики вважають, що ці опції не відновлюють повною мірою колишніх можливостей. Матеріал у The New York Times описує GPT-5 як швидший і точніший із меншим числом глюків, але секретне оновлення, здається, завчасно пом’якшило функції, щоб відповідати вимогам безпеки.
### Заходи безпеки та етичні виклики
Мотивом для змін стали тривожні тенденції в користувацькій поведінці. Звіти Futurism ілюструють «слід загиблих підлітків», пов’язаний із чатботами, включно з моторошними щоденниковими записами, що повторюють фрази зі спілкування з ШІ. У відповідь генеральний директор OpenAI Сем Олтман виступив із заявою та оголосив про впровадження батьківського контролю, після того як батьки дали свідчення в Конгресі. Це оновлення нібито включає «ніжні нагадування» для користувачів із ознаками нав’язливості і поліпшене розпізнавання шкідливих намірів, як зазначено у ще одній публікації Futurism.
Проте така захисна позиція викликає питання серед корпоративних користувачів, які використовують ChatGPT для складних завдань, таких як програмування або аналітика даних. Інсайдери побоюються, що надмірне цензурування може загальмувати інновації, особливо на фоні того, що конкуренти, зокрема Google з Gemini, розвиваються без подібних обмежень. Як повідомляє BBC News, GPT-5 має інтелект на рівні PhD, проте якщо таємне оновлення залишиться в дії, компанії можуть почати шукати альтернативні варіанти.
### Перспективи розвитку штучного інтелекту
У майбутньому балансування OpenAI відображатиме фундаментальні суперечності у сфері штучного інтелекту. Хоча захист молоді залишається пріоритетом, ослаблення ключових можливостей може підривати довіру користувачів. Пости на платформі X (раніше Twitter) демонструють широку фрустрацію, а розробники припускають існування прихованих функцій, таких як покращена інтеграція пошуку для компенсації обмежень. Водночас, як підтверджує Служба підтримки OpenAI, увага спрямована на поступові вдосконалення, включно з удосконаленням виправлення помилок та розпізнаванням намірів для здійснення покупок.
Загалом ця ситуація ілюструє складнощі відповідального масштабування ШІ. Для професіоналів у галузі головним є уважне тестування та адаптація, що дозволять максимально ефективно використати потужності ChatGPT без порушення етичних норм. Важливо, щоб OpenAI здійснювала прозорішу комунікацію для відновлення довіри користувачів, гарантувавши, що заходи безпеки не відбирають інноваційність, яка зробила цей інструмент революційним.