Я вже понад рік пишу про штучний інтелект, і певна тенденція постійно повторюється. Кожні кілька тижнів з’являється заголовок, який натякає, що штучний інтелект замишляє щось підступне чи зловісне. Чат-боти нібито “брешуть”, “планикують” чи навіть намагаються “спокусити” користувачів.
Завжди звучить одна й та сама ідея: AI – не просто пасивна програма, а істота з власною волею, прихованими мотивами чи навіть бажаннями.
Логічно, що це не відповідає дійсності. Але емоційно така думка затримується в голові. Ідея, що машини можуть брехати, одночасно захоплює й лякає. Чому ж ми так легко приймаємо це як правду?
Ваш чат-бот не будує ніяких змов
Джеймс Вілсон, етичний експерт у сфері ШІ та автор книги «Штучна недбалість» (Artificial Negligence), вважає, що проблема криється в тому, як ми говоримо про штучний інтелект.
Він наводить приклад нещодавнього інтерв’ю з Семом Олтманом з OpenAI, у якому той сказав Такеру Карлсону:
- «Вони нічого не роблять, якщо не попросиш. Вони фактично сидять і чекають. У них немає свідомості чи автономії. Чим більше ви ними користуєтесь, тим швидше ілюзія розвіюється.»
Вілсон підкреслює:
- «Це дуже важливо пам’ятати, але багато людей це забувають через антропоморфний характер інтерфейсу, створеного для цих систем.»
Інакше кажучи, чат-боти нічого не роблять, коли ними не користуються.
- «Вони не змовляються проти людства, не сидять у офісі, гладять білого кота, ніби злодії з фільмів про Джеймса Бонда», — жартує він.
Галюцинації, а не навмисна брехня
Те, що дехто називає “брехнею” зі сторони ШІ, насправді є конструктивним недоліком, який можна пояснити.
Великі мовні моделі, як ChatGPT, навчені на величезних масивах тексту. Але через відсутність точного маркування цих даних вони не здатні відокремити факти від вигадок.
Джеймс Вілсон зазначає:
- «ChatGPT — це інструмент, хоч і надзвичайно складний, але в підсумку просто ймовірнісна система для завершення слів, обгорнута у захопливий діалоговий інтерфейс.»
Ми вже розглядали, як працює ця система.
Головна ж проблема, каже Вілсон, полягає в способі розробки таких моделей:
- «Джерелом цієї проблеми є недбалість постачальників моделей. Поки вони збирали величезні масиви даних (легально чи ні) для навчання своїх ЛММ, вони не маркували їх належним чином. І тому модель не має механізмів розпізнання правди і вигадки.»
Через це і виникають так звані галюцинації — не навмисні обмани, а помилки передбачення.
Ще Вілсон звертає увагу, що наші уявлення про поведінку ШІ часто запозичені з популярної культури:
- «ШІ намагається втекти? Подивіться фільм Ex Machina. ШІ прагне самовідтворення? Transcendence. ШІ намагається спокусити? Тут підійдуть майже будь-які дешеві романтичні чи еротичні трилери.»
Встановити бомбу, а потім хвалитися, що розв’язав її
Ситуація ускладнюється, коли самі компанії зі ШІ починають говорити про обман.
Наприклад, на початку цього року OpenAI та Apollo Research опублікували дослідження «прихованої невідповідності» (hidden misalignment). У контрольованих експериментах вони виявили прояви обманної поведінки у передових моделей.
Наприклад, моделі навмисно погано виконували завдання, бо боялися, що надто хороші результати призведуть до їх відключення. OpenAI називає це “планикуванням” або “змова” — стан, коли ШІ імітує виконання правил, приховуючи інші цілі.
Виходить, що ШІ бреше? Насправді, ні. Це не через «бажання» нашкодити.
Вілсон пояснює:
- «Ця проблема створена самими компаніями, які розробляють моделі. Ці дослідження — радше іронія, вони фактично кажуть: “Все добре, ми знайшли спосіб вимкнути бомбу, яку самі ж і заклали.” Такий підхід вигідний їм, бо підкреслює їхню турботу про безпеку, хоча насправді вони приховують власну недбалість.»
Отже, компанії не маркували дані, розробили моделі, які винагороджують впевнені, але хибні відповіді, а тепер публікують дослідження про “змови”, ніби вони виявили проблему вперше.
Реальна загроза попереду
За словами Вілсона, головна небезпека — не в тому, що ChatGPT обманює вас сьогодні, а в тому, що станеться, якщо культура «рухайся швидко і лама все», яка панує в Кремнієвій долині, продовжить нашаровувати рівні автономії на ці недосконалі системи.
Він пояснює:
- «Сучасний підхід в індустрії — це агентний ШІ (Agentic AI), коли над ЛММ створюють агентів, яких наділяють владою і автономією для здійснення дій у реальному світі. Без ретельного тестування та зовнішніх обмежень рано чи пізно один з таких агентів спробує реалізувати фантазії, почерпнуті з немаркованого навчального матеріалу.»
Отже небезпека — не в сьогоднішніх чат-ботах, а в наступному поколінні погано протестованих автономних агентів, які з’являться у реальному житті.
Підписуйтесь на TechRadar у Google News та додавайте нас у улюблені джерела, щоб першими отримувати експертні новини, огляди і аналітику. Не забудьте натиснути на кнопку “Підписатися”!
Також ви можете слідкувати за TechRadar на TikTok для оглядів, розпакувань і новин у відеоформаті, а також отримувати оновлення через WhatsApp.