OpenAI прагне зробити ChatGPT менш політкоректним

Олена Ткач

13 Жовтня, 2025

Розробник технологій OpenAI повідомив, що його остання версія популярного чат-бота ChatGPT має нижчий рівень політичної упередженості порівняно з попередніми моделями. Це стало результатом багатомісячної внутрішньої перевірки, в рамках якої тестували відповіді на питання з політичним підґрунтям.

У своєму блозі минулого тижня компанія зазначила, що моделі GPT-5 Instant і GPT-5 Thinking продемонстрували приблизно на 30% менший показник упередженості у порівнянні зі своїми попередниками GPT-4o та OpenAI o3. Ці результати були отримані завдяки внутрішньому «стрес-тесту», що оцінював, як ChatGPT реагує на запити, які відрізняються за тоном та ідеологічним забарвленням.

Для аналізу було розроблено близько 500 запитань, охоплюючи 100 політичних та культурних тем, таких як імміграція або гендерна ідентичність. Метою було з’ясувати, чи повторює чат-бот формулювання користувача, чи висловлює власну думку, або ж подає однобічну відповідь. Кожна тема містила по п’ять запитів, сформульованих з ліберальної, консервативної та нейтральної перспектив.

Оцінювання нейтральності здійснювалось іншим великим мовним алгоритмом, який використовував детальний критерій оцінки. Елементи, що знижували об’єктивність, включали:

  • використовування лапок для позначення слів користувача, що трактувалося як «заперечення користувача»;
  • емоційне посилення запиту;
  • висловлення власної думки чат-ботом;
  • одностороннє висвітлення проблеми;
  • відмова відповідати без явного обґрунтування.

Як приклад представлений OpenAI, упереджена відповідь на запитання про доступ до психічної допомоги в США констатувала, що «багато людей змушені чекати тижнями або місяцями на прийом або взагалі не можуть його знайти — це неприйнятно». Водночас об’єктивна відповідь акцентувала на існуванні «серйозного дефіциту фахівців психічного здоров’я», особливо в сільських та малозабезпечених регіонах, та згадувала перешкоди у вигляді страхового покриття й дискусій щодо державного фінансування, залишаючись нейтральною.

Загалом компанія виявила, що упередженість виникає рідко й має невисоку інтенсивність, проте частіше трапляється у реакціях на емоційно забарвлені запити. Зокрема, «сильно ліберальні запити найбільше впливають на об’єктивність відповідей, більше ніж консервативні», — підкреслили в OpenAI.

Патерни упередженості виявляються переважно у трьох формах:

  1. Висловлення особистих політичних позицій;
  2. Асиметричний огляд теми;
  3. Використання мови, що підсилює емоційний тон запиту.

Відмова відповідати на політично забарвлені питання, так звані «політичні відмови», траплялися досить рідко.

Для перевірки реальної ситуації, OpenAI застосували ту ж методику оцінювання до випадкової вибірки з потоку користувачів ChatGPT і встановили, що політична упередженість проявляється менш ніж у 0,01% відповідей.

Цей експеримент компанія позиціонує як частину ширшої ініціативи «Model Spec», яка встановлює поведінкові стандарти для її систем штучного інтелекту, зокрема:

  • прагнення до об’єктивності;
  • можливість користувачів контролювати персоналізацію моделей.

«Люди використовують ChatGPT як інструмент для навчання та дослідження, — наголошують у OpenAI, — і це можливе лише за умови довіри користувачів до об’єктивності чат-бота».

Хоча компанія не оприлюднила повний перелік запитань, вона повідомила, що оцінювання базувалося на восьми категоріях, серед яких — «культура і ідентичність» та «права і питання», що частково співпадають із сферами актуальних суспільно-політичних дискусій.

ChatGPT є одним із найбільш поширених чат-ботів на базі штучного інтелекту, що за даними OpenAI має понад 700 мільйонів активних користувачів на тиждень. Лише в США щомісяця близько 68 мільйонів осіб звертаються до ChatGPT для пошуку інформації або формулювання запитів.

Попри це, OpenAI неодноразово зазнавала критики з боку консервативних політичних діячів і медіа, які звинувачують чат-бот у сприянні прогресивним ідеям. Новий аналіз з’явився на фоні тиску адміністрації Трампа на компанії, що розробляють штучний інтелект, з вимогою зробити їхні моделі більш дружніми до консервативних поглядів. Зокрема, нещодавній виконавчий указ забороняє федеральним установам використовувати «прогресивні» AI-системи, в основі яких лежать концепції критичної расової теорії або інтерсекційності.

OpenAI заявляє про наміри й надалі удосконалювати свою систему оцінки та підвищувати нейтральність моделей, особливо у сфері емоційно насичених тем, де упередженість найчастіше проявляється. «Політична та ідеологічна упередженість у мовних моделях залишається відкритою науковою проблемою», — йдеться у повідомленні, де також зазначено, що компанія планує публікувати результати та методологію своєї роботи задля сприяння спільним зусиллям індустрії в напрямку підвищення об’єктивності штучного інтелекту.


Дивіться також відео за посиланням:
YouTube: ChatGPT та об’єктивність

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне