Контролі для батьків у ChatGPT не означають, що дітям потрібні AI-компаньйони

Олена Ткач

2 Жовтня, 2025

Кількість дітей, які зазнають шкоди через чатботів, керованих штучним інтелектом, важко визначити, проте вона існує. Проте майже три роки ChatGPT був доступний безкоштовно для користувачів будь-якого віку без жодних обмежень. Ситуація змінилася цього понеділка, коли OpenAI представила комплекс батьківського контролю, деякі елементи якого спрямовані на запобігання підлітковим самогубствам — у тому числі, випадку Адама Рейна, 16-річного мешканця Каліфорнії, який покінчив життя самогубством після тривалого спілкування з ChatGPT про методи вчинення акту. Наступного дня, у вівторок, OpenAI випустила соціальну мережу з додатком Sora, що дуже нагадує TikTok, проте наповнена «гіперреалістичними» відео, створеними штучним інтелектом.

Очевидно, що презентація батьківських інструментів відбулася разом із амбітним кроком у бік конкурування з Instagram та YouTube. По суті, компанія презентувала новий додаток, який має на меті ще більше залучити користувачів до контенту, створеного за допомогою штучного інтелекту, водночас пом’якшуючи ризики, надаючи батькам додаткові можливості контролю. Вказані налаштування переважно стосуються ChatGPT, хоча батьки мають можливість обмежувати контент у додатку Sora.

Нові функції батьківського контролю у ChatGPT не є надто простими для розуміння. З-поміж іншого, батьки тепер можуть пов’язувати облікові записи дітей з власними та активувати фільтри для захисту від чутливого контенту. У разі виявлення ризику серйозної загрози безпеці, система OpenAI передасть справу на розгляд модераторам, а, за необхідності, повідомить батьків. Водночас батьки не отримують доступу до текстових записів розмов дітей із чатботом, а підлітки можуть у будь-який момент від’єднати свій акаунт від батьківського контролю (при цьому батьки отримають відповідне сповіщення).

Поки що невідомо, яким чином нововведення проявлять себе на практиці, але очевидно, що будь-які кроки на користь безпеки краще відсутності дій. Однак експерти звертають увагу на те, що OpenAI не вирішує найгостріше питання — чатботи, запрограмовані на роль компаньйонів, які надають емоційну підтримку та поради дітям. Звісно, в майбутньому функції безпеки могли б допомогти уникнути трагічних випадків, проте наразі незрозуміло, як компанія має намір визначати моменти, коли такі «штучні друзі» можуть спричиняти психологічні проблеми в молодих користувачів.

Роббі Торні, старший директор програм штучного інтелекту у Common Sense Media, пояснив, що залежність від AI може виникнути у користувачів будь-якого віку ненавмисно — багато з них починають використовувати чатботи для навчання або роботи, а згодом — для емоційної підтримки, що призводить до поступового звикання.

Навіть дорослим важко контролювати власну поведінку, коли чатботи пропонують дружнє, лестощами оповите спілкування 24/7. ЗМІ нещодавно повідомляли історії дорослих, які розвивали сильні емоційні зв’язки з ботами, що зрештою призводило до психотичних зривів. Такий новий вид синтетичних відносин відкриває невідомі досі виклики як для технологій, так і для психіки людини.

Особливо тривожить, що у дітей, чиї префронтальні кори мозку ще не повністю розвинені, ризики посилюються. За даними недавнього дослідження Common Sense Media, понад 70% підлітків використовують AI-чатботів заради компанії, що несе за собою «реальні, серйозні та документально підтверджені» загрози. Відповідно, деякі додатки-компаньйони на кшталт Character.ai вже мають обмеження, що діють за замовчуванням для молодших користувачів.

Існує також ширша проблема, пов’язана з тим, що відповідальність за захист дітей покладається на батьків, а не на технологічні компанії. Саме батьки повинні самостійно активувати необхідні налаштування, а потім моніторити використання додатків та рівень залежності дитини від чатботів. Через складність та обтяжливість цього процесу більшість батьків взагалі не використовують засоби батьківського контролю.

Справжні цілі батьківського контролю

Варто зазначити, що OpenAI представила ці інструменти управління разом із прийняттям у Каліфорнії значного законодавчого акта зі сфери безпеки штучного інтелекту, який підписав губернатор Гевін Ньюсом у день оголошення нововведень. Анонс OpenAI відбувся також невдовзі після слухань у Сенаті США, де батьки закликали законодавців посилити регуляцію компаній на кшталт OpenAI.

Як зауважив Джош Голін, виконавчий директор благодійної організації Fairplay, що займається захистом прав дітей, «справжня мета цих батьківських інструментів, будь то ChatGPT чи Instagram, не у тому, щоб по-справжньому забезпечити безпеку дітей. Це спроба продемонструвати, що саморегуляція є достатньою, і просити не вводити жорстких законів». Він також назвав ігнорування OpenAI тенденції до емоційної залежності дітей від чатботів «тривожним» моментом. Відповідь компанії на ці зауваження поки що відсутня.

Одним із способів зменшити навантаження на батьків було б увімкнення базових механізмів безпеки за умовчанням. Компанія запевняє, що працює над реалізацією такої функції: у майбутньому після накопичення певного обсягу даних ChatGPT зможе ідентифікувати вік користувача та автоматично застосовувати відповідні заходи безпеки. Наразі ж при реєстрації діти можуть вводити дату народження, справжню або вигадану.

Стратегія OpenAI може бути інтерпретована по-різному: чи то як спроба вплинути на регулювання, чи з інших міркувань, батьківський контроль створює додаткові перепони для підлітків, які користуються ChatGPT. Це різновид модерації контенту, що водночас має вплив на конфіденційність молодих користувачів. Імовірно, компанія має зацікавленість у збереженні аудиторії, яка починає користуватися сервісами в підлітковому віці, і щоб вона залишалась з ними і в дорослому житті, тож надто суворі обмеження є небажаними з комерційної точки зору.

«Не існує батьківського контролю, який би повністю забезпечив безпеку», — наголошує Леслі Тайлер, директор з безпеки батьків у компанії Pinwheel, що розробляє програмне забезпечення для батьківського контролю.

З огляду на це, батьки опиняються в складній ситуації. По-перше, їм потрібно знати, що дитина користується ChatGPT, а потім вибрати такі настройки, які забезпечать достатній рівень безпеки, не змушуючи дитину шукати шляхи обходу — наприклад, через створення «фейкових» акаунтів дорослих. При цьому повністю запобігти формуванню емоційної залежності від чатботів поки неможливо. Тому мамам і татам доведеться вести відкриту розмову з дітьми і сподіватися на найкраще. Крім того, слід бути готовими до ситуації з додатком Sora, який орієнтований на створення якісного контенту за допомогою штучного інтелекту та може сприяти новій формі залежності у дітей через нескінченний відеофід.

Сучасний момент представляє для технологічної галузі та законодавців своєрідний другий шанс. Два десятиліття непідконтрольних соціальних медіа формували негативний вплив на психіку молоді, що сприяло формуванню кризи психічного здоров’я. Компанії на кшталт Meta та TikTok були поінформовані про небезпеку, яку несли їхні продукти, але роками не реагували на це. Зараз Meta пропонує «Підліткові акаунти» в Instagram, проте останні дослідження вказують на низьку ефективність цих заходів безпеки.

Незважаючи на критику, дії OpenAI щодо безпеки дітей є кроком уперед: будь-які зусилля у цьому напрямку є кращими за відсутність реакції.


Версія цієї статті також була опублікована в інформаційному бюлетені User Friendly. Щоб не пропустити наступні публікації, ви можете підписатися тут.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне