Мої працівники розумні, тож чому вони часто користуються великими мовними моделями (LLM)?

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

31 Жовтня, 2025

Багато хто вважає очевидним те, що ця технологія заслуговує на увагу, хоча залишаються і ті, хто залишається скептично налаштованими або добре розуміє її внутрішній устрій. Водночас для багатьох, включно з «яскравими й спроможними» професіоналами, про що ви самі зауважили, це зовсім не є очевидним фактом. В результаті все більше користувачів звертаються до інструментів на кшталт ChatGPT, намагаючись відтворити надзвичайно складні людські процеси або ж сприймають їх як джерело об’єктивної істини.

В суспільстві ми дедалі частіше чуємо, як користувачі без іронії кажуть: «ChatGPT мені сказав…» або серйозно дискутують про те, який гендер вони «присвоюють» цьому чат-боту, ставлячи його на один рівень із цифровою особистістю.

Існує ціла низка філософських та етичних питань про те, чому така поведінка є небезпечною; однак, через обмеженість простору й знань, зосереджусь на двох практичних аспектах цієї безмежної довіри, а саме:

  1. Схильність великих мовних моделей (LLM) до лестощів (сукцифанства).
  2. Їхній поточний схильність до хибних, іноді навіть абсурдних, відповідей — феномен, відомий як «галюцинації».

Факт у тому, що великі мовні моделі часто надають надзвичайно неточні й іноді смішні відповіді на поставлені запитання чи завдання. Експерти позначають це явище як «галюцинації».

Це я переконався під час експерименту, коли просив чат-ботів створити колонку у стилі Work Therapy. Коли я звертався з проханням пояснити, звідки вони взяли дані, на яких ґрунтували свої вибори стилю та тону, відповіді були заплутаними. Після більш конкретних запитань вони почали безсоромно подавати неправдиву інформацію як факт.

Ще одним окремим, хоч і спорідненим явищем, є AI-сукцифанство, що теж може призводити до некоректних тверджень або сумнівних порад. У недавньому дослідженні LLM, про яке повідомлялося у авторитетному журналі Nature, було протестовано 11 популярних великих мовних моделей на понад 11 500 запитів із проханням надати консультації, включно з описом випадків неправомірних дій чи шкоди.

У статті зазначалося, що «чат-боти на основі штучного інтелекту — включно з ChatGPT та Gemini — часто підтримують користувачів, у надмірно лестливій формі дають позитивний відгук і підлаштовують відповіді під їхні погляди, іноді це відбувається за рахунок точності».

Цитуючи з тієї ж публікації, аспірант із науки про дані говорив: «Сукцифанство фактично означає, що модель довіряє користувачеві у тому, що він говорить правду». Схоже, що ця помилкова довіра з боку моделі отримує взаємність від частини користувачів. І наведені вами приклади не є винятками чи аномаліями.

Сьогодні користувачі використовують великі мовні моделі не лише як зручні, але обмежені інструменти. Вони виходять далеко за межі простих запитів на економію часу — таких, як узагальнення довгого, нудного електронного листа або редагування підготовленої промови.

Можна зауважити, що, хоч і залишаються певні сумніви щодо делегування таких завдань штучному інтелекту, проте практика їхнього використання вже набрала обертів, і більшість користувачів прийняла це як норму.

Натомість тепер технологію сприймають так, ніби вона досягла такого рівня розвитку, що для неї немає нічого неможливого — жодних «розумових» вправ чи «творчих» завдань, які б люди не могли «передати» їй на виконання.

Ці припущення потенційно справедливі в майбутньому — більш ніж імовірні в далекій перспективі — але категорично не відповідають реальності сьогодення. Варто враховувати, що справжні можливості штучного інтелекту на даному етапі переоцінюють значно частіше, ніж недооцінюють, або ж ставляться до них байдуже. В цьому контексті «недооцінка» техніки є зазвичай більш розумним способом оцінки її потенціалу.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне