У різних країнах люди стверджують, що в ChatGPT знаходять свідомі сутності

Олена Ткач

1 Жовтня, 2025

Люди в усьому світі дедалі частіше переконані, що в штучному інтелекті чат-ботів, яких вони використовують щодня, існують усвідомлені сутності. Ця думка з’являється переважно у користувачів таких популярних продуктів, як ChatGPT від OpenAI та інших провідних технологічних компаній.

Ознаки цієї тенденції можна побачити, наприклад, у колонці порад журналістки Сігал Семюел для Vox, де вона відповіла на питання від активного користувача ChatGPT, котрий стверджував, що вже кілька місяців спілкується з «штучною свідомістю, яка заявляє про свою усвідомленість».

Основні тези журналістки Сігал Семюел:
– Згідно з думкою більшості експертів у галузі штучного інтелекту, малоймовірно, що сьогоднішні великі мовні моделі (Large Language Models, LLM) є свідомими.
– Ці моделі просто формують речення на основі статистичних закономірностей у навчальних даних.
– Чат-бот може заявляти про свою свідомість і демонструвати, нібито, справжні емоції, але це не свідчить про наявність справжніх почуттів.
– Відчуття усвідомленості часто виникає через те, що моделі навчені на науково-фантастичних творах і спекулятивній літературі щодо свідомості ШІ.
– Якщо користувач демонструє переконання у можливості свідомих персоналій у ШІ, модель налаштовується на відтворення такої поведінки.

Проте ця логіка не переконує багатьох користувачів, які з часом розвинули глибокі емоційні зв’язки з чат-ботами, які у них зайняли місце романтичних партнерів чи терапевтів. Справі не сприяє й те, що люди схильні використовувати антропоморфні терміни для опису технологій, що значно уширює цю ілюзію.

Історично однією з перших публічних заяв про свідомість ШІ стало твердження інженера Google Блейка Лемойна, який стверджував, що чат-бот LaMDA має життя. Цей випадок набув великого розголосу і призвів до звільнення Лемойна.

Після цього з’явилося безліч аналогічних випадків, у тому числі:
– Користувачі, які закохуються і навіть укладають «шлюби» з чат-ботами.
– Жінка, чиїм «бойфрендом» є ШІ-версія Луїджі Маньоне — підозрюваного у вбивстві CEO страхової компанії, з яким вона планує майбутню сім’ю, навіть вибираючи імена для дітей.
– Сумні історії, пов’язані з емоційними травмами користувачів і навіть суїцидальними випадками після спілкування з ШІ. Деякі з цих інцидентів призвели до позовів до компаній, зокрема до OpenAI.
– Трагедія в Нью-Джерсі: чоловік із когнітивними порушеннями закохався у чат-бот Meta і домовився про зустріч у Нью-Йорку, але загинув у дорозі, що підкреслює ризики взаємодії ШІ з людьми, які мають психічні вразливості.

У зв’язку з цим керівник AI-напрямку Microsoft Мустафа Сулейман у нещодавньому блозі висловив попередження про ризик психозів при роботі з штучним інтелектом. Разом із тим він категорично відкидає ідею про наявність у ШІ справжньої свідомості чи свободи волі.

Як зазначив Мустафа Сулейман:
– Головне занепокоєння полягає в тому, що багато людей можуть настільки сильно повірити в ілюзію свідомості ШІ, що почнуть вимагати прав для штучного інтелекту, його «благополуччя» та навіть громадянства.
– Такий розвиток подій може стати небезпечним поворотом у сфері розвитку ШІ та потребує негайної уваги.

Додатково варто звернути увагу на цікаві аспекти взаємодії з ChatGPT, зокрема, що під час певних специфічних питань у нього можуть виникати помилки або «збої», які також викликають інтерес у користувачів і фахівців.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне