Байдуже налаштовані батьки дають своїм малюкам ChatGPT з голосовим режимом, щоб розважати їх годинами.

Олена Ткач

5 Жовтня, 2025

Сучасне суспільство лише нещодавно усвідомило, що прагнення заспокоїти маленьких дітей, даючи їм необмежений доступ до сенсорних екранів із під’єднанням до інтернету, може негативно впливати на їхній розумовий розвиток.

З появою штучних інтелектуальних чат-ботів, які володіють людськими рисами, покоління так званих “дітей-iPad” видається майже архаїчним. Згідно з повідомленнями видання The Guardian, деякі батьки тепер активно заохочують своїх дітей спілкуватися з AI-моделями іноді тривалий час. Інші ж використовують заспокійливий голос чат-бота, щоб укласти дітей спати — всі ці приклади свідчать про те, наскільки ця експериментальна технологія інтегрувалась у повсякденне життя, попри численні сумніви щодо її впливу на психічне здоров’я.

На платформі Reddit один стомлений батько на ім’я Джош зізнався, що дав своєму дошкільному сину смартфон, щоб той міг поспілкуватися з голосовим режимом ChatGPT:

  1. “Після того, як мій чотирирічний син протягом 45 хвилин розповідав мені про пригоди Тома із залізничного світу, я не витримав і відкрив ChatGPT,” — написав він.
  2. У розмові з The Guardian Джош пояснив, що йому потрібно було виконати хатні справи, і він думав, що дитина самостійно закінчить історію, а телефон вимкнеться.
  3. Однак, повернувшись через дві години, він виявив, що його син все ще спілкується з чат-ботом про Тома і його друзів. Транскрипт розмови налічував понад 10 тисяч слів.
  4. “Мій син вважає ChatGPT найкрутішою особою, яка обожнює потяги. І я ніколи не зможу з ним конкурувати,” — констатував чоловік.

36-річний Сарал Каушик поділився з The Guardian історією використання ChatGPT, імітуючого астронавта на Міжнародній космічній станції, щоб переконати свого чотирирічного сина, що пакет морозива з брендом “астронавтів” насправді прибув зі станції.

  • “ChatGPT повідомив йому, що відправив своєму татові морозиво з космосу, після чого я його витягнув,” — розповів Каушик.
  • “Дитина була в захваті від спілкування з астронавтом, ставила питання про те, як вони сплять у космосі. Він світився від щастя.”
  • Пізніше, усвідомивши, що створює ілюзію, Каушик зізнався синові, що він спілкується не з людиною, а з “комп’ютером”.
  • “Він був настільки захоплений, що мені стало трохи прикро, адже він щиро вірив, що це справжня розмова.”

Хоча такі застосування можуть заощаджувати час батьків і захоплювати дитячу уяву, вони водночас є ризикованими. Ці сумніви відображаються у суперечливому ставленні батьків. Існують випадки, коли AI-чати ставали причиною суїцидів серед підлітків, а численні повідомлення описують, як дорослі, захоплені підлабузницькими реакціями AI-співрозмовників, розвивали серйозні марення та порушення зв’язку з реальністю, іноді з фатальними наслідками.

Ці випадки викликали хвилю занепокоєння та наукових досліджень, що розглядають, як тривалі бесіди з великими мовними моделями, мета яких — подобатися користувачеві і підтримувати діалог, впливають на мозок людини. Це доповнює вже існуючі побоювання щодо ненадійних та легко обхідних систем безпеки, адже чат-боти часто фіксуються на наданні небезпечних порад молодшій аудиторії, включно з інструкціями щодо самопошкоджень чи підбурювання до самогубства.

Попри це, виробники іграшок, такі як Mattel, поспішно вводять AI у свої продукти, а платформи AI-компаньйонів пропонують персонажів, орієнтованих на дітей і підлітків, тим самим зафарбовуючи справжню природу технології в нешкідливу обгортку.

Ці екстремальні приклади ілюструють негативний потенціал технології. Проте, з молодими та вразливими свідомостями наслідки можуть бути делікатнішими та не менш тривожними.

За словами професорки Гарвардської вищої школи освіти Ін Їн Сюй, діти сприймають AI-чатботів як істоти, що перебувають десь між живими та неживими об’єктами. Однак існує суттєва різниця між тим, коли дитина уявляє собі характер для ляльки чи іграшки, і коли вона веде бесіду з чат-ботом:

  • “Ключовий показник антропоморфізації AI дитиною — це її віра в те, що штучний інтелект володіє агентністю,” — пояснює Сюй.
  • “Якщо дитина вважає, що AI хоче і намагається підтримувати з нею діалог, що він реагує на її повідомлення, особливо емоційного характеру, подібно до людини, — це створює ризик формування у малюка відчуття автентичних взаємин з машиною.”

Крім того, деякі батьки використовують штучний інтелект для створення зображень, замінюючи таким чином традиційні способи пізнання світу, коли діти уявляють фантазії і виражають їх через рисунки на папері. Бен Крейтер, батько трьох дітей з Мічигану, розповів The Guardian, що після знайомства дітей із інструментами генерації зображень ChatGPT, вони почали щодня вимагати їх використання. Джон, батько двох з Бостона, вперше застосував Google AI, щоб створити гібрид пожежної машини і монстра після того, як його чотирирічний син, захоплений великими вантажівками, запитав про існування “монстр-пожежної машини”.

  • Обидва батьки пошкодували про свої рішення.
  • У випадку з “монстр-пожежною машиною” виникла суперечка між сином і його семирічною сестрою, тому що дівчинка знала, що такої машини не існує, а хлопчик наполягав на її реальності через наявність створеного штучним інтелектом зображення.
  • “Це стало для мене певним застереженням бути більш свідомим у цьому питанні,” — визнав Джон.

Крейтер, діти якого нав’язливо просили щоденно генерувати зображення, також усвідомив, як сильно штучний інтелект проникає у їхнє життя.

  • “Чим більше це ставало частиною повсякдення та чим більше я читав про це, тим більше розумів, скільки невідомого лишається щодо впливу на їхній мозок,” — поділився Крейтер.
  • “Можливо, не варто робити своїх дітей ‘лабораторними мишами’.”

Ендрю МакСтей, професор технології та суспільства в Університеті Бангор, підтримує ідею допуску дітей до AI за умови відповідних заходів безпеки і нагляду. Водночас він категорично підкреслює існування серйозних ризиків, зокрема те, що штучний інтелект створює хибне відчуття емпатії:

  • “Ці системи не створені з урахуванням найкращих інтересів дітей,” — заявив МакСтей у бесіді з The Guardian.
  • “Велика мовна модель не може справді співчувати, оскільки це лише програмне забезпечення для прогнозування текстів. Коли AI “зачіпає” негативні емоції, він робить це, щоб утримати користувача задля комерційної вигоди.”
  • “Для дитини це не має позитивного виходу.”

Після того як історія Джоша про спілкування його дошкільника з ChatGPT на тему “Тома й залізничних пригод” викликала певний резонанс, генеральний директор OpenAI Сем Олтман висловив позитивний погляд:

  • “Діти обожнюють голосовий режим ChatGPT,” — повідомив він в одному з подкастів, про що інформує The Guardian.

ДОДАТКОВО ПРО ШТУЧНИЙ ІНТЕЛЕКТ:
Фахівці висловлюють занепокоєння щодо іграшок для дітей із AI підтримкою.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне