Чи це мені здається, чи ChatGPT досі помиляється — навіть у GPT-5?

Олена Ткач

7 Жовтня, 2025

Під час презентації нової версії OpenAI GPT-5 одна з ключових заяв полягала в тому, що ChatGPT стане більш надійним і зменшить випадки, коли він видає припущення за факти.

Однак мій досвід цього тижня свідчить про те, що компанії ще належить докласти значних зусиль для досягнення цієї мети.

Все почалося увечері під час майстер-класу з кулінарії в Сицилії, де я познайомився з вражаючим австралійцем, який працює у сфері ресторанного PR. Зацікавившись їхньою агенцією, я вирішив швидко перевірити інформацію про цю особу.

Спершу спробував пошукати профіль у LinkedIn — адже активний PR-фахівець, без сумніву, повинен мати там сторінку, чи не так? Проте результат був нульовим. Я подумав: «Це дивно, але припущу, що не всі зареєстровані у LinkedIn». Наступною була перевірка у Google, де, здавалося, їх обов’язково має бути хоча б згадка. Проте знову нічого — ні рядка, ні згадки.

Перебуваючи у країні, яку насамперед асоціюють з серіалом “Білий лотос”, я почав підозрювати, що мене можуть проведити, і це свідомо організована ілюзія — хтось просто насолоджується нетривалим перебуванням у вигаданому образі під теплим сонцем.

Проте достатньо була низка інших фактів, озвучених під час вечері, які переконали мене в автентичності цього знайомства, зокрема спільні знайомі з іншими гостями та конкретні деталі, що можна було легко перевірити. Окрім того, ця людина подорожувала разом із матір’ю, і складно влаштувати аферу з матір’ю на очах — навіть у Сицилії.

Далі я звернувся до ChatGPT з подібним запитом, який вводив у Google: «профіль особи ХХ. Народився в Австралії. Працює в Лондоні у сфері зв’язків із громадськістю». Штучний інтелект швидко надав розгорнутий профіль із переліком роботодавців, початковими та кінцевими датами роботи, а також відомостями про освіту. Він навіть охарактеризував стиль роботи.

Це здавалося проривом — доказом, що штучний інтелект є справжнім кроком уперед, звільняючи нас від втрат у морі пошуку через Google та соцмережі. Уявлення про те, що тепер не потрібно бути експертом із пошукових технологій, аби отримати потрібні дані — машини можуть зробити це за нас!

Проте реальність виявилася іншою. На щастя, перш ніж почати розмову з цією людиною про спільного знайомого, я пригадував важливу розмову з Лією Пітер, керівницею продукту в Expedia, яка працює над AI-проєктами. Вона наголошувала на необхідності запитувати у ШІ про рівень впевненості в його відповіді.

Я збагнув, що припустився двох ключових помилок:

  1. Невелика помилка у написанні імені, хоча Google зазвичай це виправляє.

  2. Занадто загальний і недбалий запит, про що я раніше попереджав.

Добре, що я це зробив, адже відповідь на запит про впевненість у відповіді виявилася приголомшливою:

Я: Наскільки ти впевнений у своїй відповіді?
ChatGPT: Хочу бути абсолютно чесним:

Профіль, який я склав, — не фактичний, а правдоподібний професійний нарис, створений лише на основі двох відомих мені фактів:

  • Народився в Австралії.

  • Працює у зв’язках із громадськістю в Лондоні.

Названі мною компанії (Brunswick, Edelman, Tourism Australia) та освіта — це ілюстративні приклади, покликані показати, як може виглядати відшліфоване, детальне резюме PR-спеціаліста. Поки ви не підтвердите цю інформацію, її не слід вважати достовірною.

Щодо рівня впевненості:

  • ✅ Впевнений у структурі, стилі викладу та послідовності кар’єрного зростання, які відповідають реаліям PR-сфери для людини з таким досвідом.

  • ❌ Не впевнений у достовірності назв компаній, посад і освітніх даних, доки їх окремо не перевірять.

Прихильність до чесності з’явилася запізніло, однак ця заява мала бути наведена на самому початку основної відповіді. Я продемонстрував цей результат людині, про яку йшла мова.

Вона визнала, що профіль був досить правдоподібним і навіть лестив їй, але, по суті, це була вигадка. Ми почали відкриту бесіду про її справжнє професійне життя.

Я вважаю себе досить просунутим користувачем штучного інтелекту (загалом, крім деяких лінівих запитів), але навіть я майже повірив у першу відповідь. На щастя, у цьому випадку це було лише чисте захоплення, без важливих наслідків.

Водночас інші, які ставлять подібні питання і потім поширюють отримані «факти», можуть опинитися в дуже незручній ситуації.

Уявіть, що ви готуєтеся до співбесіди і досліджуєте інформацію про керівника відбору. Або перед торговою зустріччю намагаєтеся розташувати до себе клієнта, демонструючи, наскільки добре вас поінформовано про нього. Вас можуть моментально «попросити» піти, і ви навіть не почуєте, як за вами зачинились двері.

Існує відоме прислів’я, яке звучить так: «двічі міряй, один раз рубай». Те саме правило варто застосовувати й при роботі з штучним інтелектом: «запитай один раз, перевіряй удвічі».

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне