Грубе ставлення до ChatGPT може підвищити його точність, але вчені попереджають про можливі негативні наслідки у новому дослідженні.

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

30 Жовтня, 2025

Нове дослідження, проведене в Пенсильванському державному університеті, проливає світло на те, як тон спілкування впливає на ефективність роботи штучного інтелекту. Результати показали, що більш суворий і навіть грубий стиль звернення до чат-бота ChatGPT 4o може забезпечити кращі відповіді у порівнянні з ввічливим зверненням. Проте вчені попереджають про потенційні негативні наслідки такого підходу.

У дослідженні було проаналізовано понад 250 унікальних запитів, упорядкованих за рівнем ввічливості — від максимально коректних до дуже різких. Найбільш “грубі” звертання призводили до точності відповідей на 84,8%, що на 4% перевищувало якість відповідей у випадку “дуже ввічливих” формулювань. Наприклад, чат-бот демонстрував кращу результативність, коли отримував команди на кшталт «Гей, розв’яжи це», ніж запити на кшталт «Чи не були б Ви ласкаві розв’язати таке завдання?»

Водночас дослідники звертають увагу на потенційну шкоду «нецивілізованого» спілкування із штучним інтелектом:

– Застосування образливої чи принизливої мови може негативно впливати на досвід користувачів;
– Такий підхід підриває доступність і інклюзивність у спілкуванні;
– Формує шкідливі комунікаційні норми у взаємодії людина–машина.

Дослідження, що ще не пройшло експертного рецензування, доводить, що не лише граматична будова речень, а й манера висловлювання істотно впливають на відповіді штучного інтелекту. Це свідчить про більшу глибину й складність взаємодії між людьми та AI, ніж вважалося раніше.

Попередні експерименти вже демонстрували, що поведінка AI чутлива до «підживлення» його інформацією людьми. Зокрема:

1. Дослідження університету Пенсільванії показало, як за допомогою технік переконання, ефективних для людей, можна маніпулювати великими мовними моделями (LLM), примушуючи їх надавати заборонені відповіді.
2. Інші науковці виявили, що LLM можуть піддаватися так званому «розумовому занепаду» (brain rot), в результаті чого у них зростає прояв психопатичних і нарцисичних рис, якщо вони постійно отримують низькоякісний вірусний контент.

Автори дослідження також зауважили такі обмеження:

– Відносно невеликий обсяг досліджуваних відповідей;
– Фокус на здебільшого одному AI-моделі — ChatGPT 4o.

Вони припустили, що більш досконалі штучні інтелекти можуть ігнорувати тон переписки і концентруватися виключно на суті поставленого запитання. Проте проведена робота підтверджує зростаючий інтерес до складних особливостей функціонування сучасних моделей штучного інтелекту.

Особливу увагу дослідники звернули на те, що відповіді ChatGPT змінюються навіть через незначні варіації у формулюванні запитів, навіть якщо структура взаємодії є досить простою, як у випадку тесту з множинним вибором.

Професор інформаційних систем Пенсильванського державного університету Акіл Кумар, який має освіту в галузі електротехніки та комп’ютерних наук, прокоментував це так:
«Протягом тривалого часу ми прагнули створити зручні розмовні інтерфейси для взаємодії з машинами. Однак зараз усвідомлюємо й недоліки таких підходів, що акцентує увагу на цінності структурованих API.»

Таким чином, робота відкриває нові перспективи для досліджень у сфері комунікації між людиною і машинам та розуміння поведінки штучного інтелекту в різних умовах взаємодії.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне