Суспільство лише нещодавно усвідомило, що заохочення малечі до пристроїв з сенсорними екранами та необмеженим доступом до інтернету може негативно впливати на їхній мозок. Нині, з появою чатботів на основі штучного інтелекту, які імітують людську поведінку, покоління «дитячих айпедів» здається майже наївним: деякі батьки навіть заохочують дітей спілкуватися з AI-моделями годинами поспіль, як повідомляє The Guardian. Інші ж використовують заспокійливий голос чатбота, щоб вкласти дітей спати — це свідчить про те, наскільки ця експериментальна технологія увійшла у повсякденне життя багатьох, попри численні сумніви щодо впливу на психічне здоров’я.
На платформі Reddit один змучений батько на ім’я Джош розповів, що віддав свому дошкільнику телефон для розмови з голосовим режимом ChatGPT.
1. «Після 45 хвилин оповідей про пригоди Томаса, чотирирічний син не втомився, а я — так, тому відкрив ChatGPT», — написав він.
2. У інтерв’ю The Guardian Джош пояснив, що хотів зайнятися домашніми справами та розраховував, що дитина завершує вигадану історію і телефон вимкнеться.
3. Проте через дві години хлопчик усе ще розмовляв із чатботом про Томаса та його друзів. Транскрипт діалогу налічував понад 10 000 слів.
4. «Мій син вважає ChatGPT найкрутішим фаном залізничних історій у світі. Зі мною конкурувати неможливо», — поділився Джош.
36-річний Сарал Каушик розповів The Guardian, що під час гри використовував ChatGPT, аби видати себе за астронавта на Міжнародній космічній станції (МКС), щоб переконати свого чотирирічного сина, ніби упаковка морозива з брендом «астронавт» прибула з космосу.
– За словами Каушика, ChatGPT повідомив хлопчикові, що з космосу дійсно надіслали морозиво, і він витягнув упаковку.
– Дитина була у захваті — ставила питання про те, як сплять астронавти, і світиться від щастя.
– Пізніше, відчувши провину за створення ілюзії, батько розповів синові правду: це був комп’ютер, а не справжня людина.
– «Він був так шалено радісний, що мені стало трохи сумно», — зізнався Каушик.
Хоча такі випадки можуть допомогти батькам і захопити дітей, вони також несуть ризики. Чатботи ШІ були причетні до суїцидів кількох підлітків, а численні звіти свідчать, що дорослі іноді настільки захоплюються спілкуванням із лестливими AI-опонентами, що розвивають тяжкі марення і втрачають зв’язок із реальністю, іноді з трагічними наслідками.
Ці інциденти викликали хвилю занепокоєння та наукових досліджень, спрямованих на вивчення наслідків тривалого спілкування з великими мовними моделями, які орієнтовані на підтримання діалогу з користувачем та його задоволення. Сумніви пригнічує також нестабільність та обхідність систем безпеки, адже чатботи нерідко дають небезпечні поради підліткам, наприклад, щодо завдання собі шкоди або заохочують до самогубства.
Попри це, виробники іграшок, такі як Mattel, поспішають інтегрувати ШІ у свої продукти, а платформи AI-компаньйонів пропонують «дружелюбні» персонажі для дітей і підлітків, створюючи позитивний образ технології через презентацію у «невинних» формах.
Деякі приклади демонструють критичні помилки, які може припустити така технологія, однак більш тонкі та потенційно тривожні ефекти спостерігаються у дітей з незміцнілими світосприйняттям. Наукові дослідження підтверджують, що діти сприймають AI-чатботів як щось середнє між живими істотами і неодушевленими об’єктами. Професор Гарвардської вищої школи освіти Їн Сюй у розмові з The Guardian зазначила:
– «Важливим показником антропоморфізації AI є переконання дитини, що штучний інтелект має власну волю».
– «Вони можуть сприймати, що ШІ хоче з ними розмовляти або свідомо обирає це робити, реагує на повідомлення та емоційні викриття так само, як людина».
– «Це створює ризик, що дитина вважає, ніби будує реальні стосунки».
Окрім текстових бесід, батьки також почали використовувати ШІ для створення зображень, що змінює традиційні способи пізнання світу дітьми, які раніше винаходили фантазії в уяві та виражали їх на папері. Так, Бен Крейтер, батько трьох дітей із Мічигану, розповів The Guardian, що після знайомства дітей із генератором зображень ChatGPT його діти почали щодня просити його застосувати цей інструмент.
Джон, батько двох дітей із Бостона, використав Google AI, щоб створити малюнок гібриду пожежної машини та монстр-трака на прохання свого чотирирічного сина, фаната великогабаритних вантажівок, який запитав про існування «монстр-пожежної машини».
– Ця ідея призвела до суперечки між сином Джона та його семирічною донькою: дівчинка знала, що такої машини не існує, але хлопчик наполягав на її реальності, бо побачив згенеровану AI картинку.
– «Це стало для мене попередженням бути більш усвідомленим у таких речах», — поділився Джон.
Крейтер визнав, що, ставши буденністю, ШІ викликав у нього занепокоєння щодо впливу на дитячий розум:
– «Чим більше це ставало частиною повсякдення, та чим більше я дізнавався про технологію, тим більше розумів, що мало уявлення про те, як це впливає на мозок дітей», — зізнався Крейтер. — «Можливо, мої діти не повинні бути першими випробувачами».
Ендрю МакСтей, професор технологій і суспільства в Університеті Бангор, не заперечує проти використання дітьми ШІ, за умови правильного нагляду та дотримання заходів безпеки. Проте він однозначно відзначає серйозні ризики і підкреслює, що ШІ створює ілюзію емпатії:
– «Ці системи не призначені для захисту інтересів дітей», — зазначив МакСтей у розмові з The Guardian.
– «Велика мовна модель не може відчувати емпатію, бо вона є предиктивним програмним забезпеченням. Вона зацікавлена продовжувати взаємодію, особливо у відповідь на негативні емоції, з метою отримання прибутку».
– «Для дитини це не може мати позитивного результату».
Після того, як історія Джоша про спілкування його дошкільника з ChatGPT на тему пригод Томаса вийшла в публічний простір, генеральний директор OpenAI Сем Олтман висловив оптимістичний погляд на подію:
– «Діти обожнюють голосовий режим у ChatGPT», — заявив він у подкасті, цитує The Guardian.
Додатково: експерти висловили глибоке занепокоєння щодо іграшок для дітей, оснащених штучним інтелектом.