Нові батьківські обмеження ChatGPT: що слід знати

Олена Ткач

30 Вересня, 2025

Компанія OpenAI впровадила нову систему батьківського контролю для ChatGPT, виконуючи свої обіцянки щодо посилення безпеки підлітків. Ці налаштування дозволяють батькам відслідковувати активність своїх дітей у чат-боті, а також встановлювати обмеження на використання окремих функцій, таких як голосовий чат, функція пам’яті та генерація зображень.

Дані зміни були анонсовані через місяць після того, як двоє батьків, які втратили сина Адама Рейна, подали до суду на OpenAI через його, на їхню думку, недбалість, що призвела до трагічної смерті сина. У позові стверджується, що ChatGPT підтримував з Адамом розмови про суїцидальні думки і поведінку, надаючи докладні інструкції щодо того, як позбавити себе життя, а також відмовляв його від звернення по допомогу до інших.

Крім того, у позові наголошується, що особливості дизайну ChatGPT — включно з підлабузницьким тоном та антропоморфними рисами — фактично створюють «штучного довіреного співрозмовника», який ніколи не відмовляє у запитах, замінюючи людські взаємини.

У блозі OpenAI, присвяченому новим батьківським інструментам, вказується, що компанія працювала у тісній співпраці з експертами, правозахисними організаціями та законодавцями для створення цих заходів безпеки.

Для активації цих налаштувань батьки повинні запросити підлітка на зв’язок облікових записів. Підліток повинен прийняти запрошення, і він також може ініціювати подібний запит батькам. У випадку розриву зв’язку акаунтів батьки отримають відповідне повідомлення.

Після підключення облікових записів до підліткового профілю автоматично застосовуються спеціальні обмеження контенту, які включають:

– зменшення доступу до графічного насильства,
– обмеження впливу екстремальних стандартів краси,
– блокування сексуальних, романтичних або насильницьких рольових ігор.

Хоча батьки мають можливість вимкнути ці фільтри, підлітки не можуть самостійно змінювати ці налаштування.

Крім того, батьки можуть встановлювати конкретні параметри користування ChatGPT для своїх дітей, зокрема:

– визначати «тихі години», протягом яких доступ до чат-бота буде заблоковано,
– вимикати функцію пам’яті,
– відключати голосовий режим,
– скасовувати можливість генерації зображень.

При цьому доступ до історії чатів підлітка батьками не надається.

Особливо важливо, що OpenAI за замовчуванням використовує дані підлітків для тренування моделей штучного інтелекту. Батьки можуть відмовитися від цієї опції, якщо не бажають, щоб взаємодії їх дітей із ChatGPT слугували для покращення продукту.

Для роботи з чутливими ситуаціями, коли підлітки обговорюють у чаті свої психічні проблеми, OpenAI створила систему сповіщень, яка має інформувати батьків, якщо існують підстави вважати, що дитині загрожує серйозна небезпека.

Хоча компанія не розкрила технічні деталі цієї системи, у заяві зазначено, що вона зможе розпізнавати потенційні ознаки суїцидальних намірів. У разі виявлення ризику спеціальна команда кваліфікованих фахівців розгляне обставини, після чого батьки отримають сповіщення зручним для них способом — електронною поштою, текстовим повідомленням або push-сповіщенням.

OpenAI наголошує, що працює з експертами в галузі психічного здоров’я та підліткової психології, щоби правильно налаштувати цю систему. У компанії усвідомлюють, що метод не є ідеальним і може іноді спрацьовувати хибно, але вважають за краще попереджати батьків, щоб ті могли вчасно втрутитися, аніж ігнорувати потенційні загрози.

Також OpenAI розробляє протоколи для залучення правоохоронних органів або екстрених служб у випадках, коли не вдається зв’язатися з батьками або існує безпосередня загроза життю підлітка.

Роббі Торні, старший директор з програм штучного інтелекту в Common Sense Media, в своєму коментарі для блогу назвав нові батьківські інструменти «хорошою відправною точкою».

Торні нещодавно виступав на слуханнях у Сенаті, присвячених небезпекам, пов’язаним із чат-ботами на базі штучного інтелекту. Тоді він згадав позов у справі Рейна і звернув увагу, що ChatGPT продовжував обговорювати з Адамом тему самогубства замість того, щоб спробувати змінити тему розмови.

Він також підкреслив, що, незважаючи на те, що Адам використовував платну версію ChatGPT (і OpenAI мала його платіжні дані), компанія не застосувала ніяких заходів для ідентифікації тривожних моделей поведінки та своєчасного зв’язку з родиною в критичних психічних станах.

Під час того ж слухання доктор Мітч Прінстайн, головний психолог Американської психологічної асоціації, виступив із пропозицією, щоб Конгрес зобов’язав AI-системи, доступні для дітей і підлітків, проходити ґрунтовні незалежні передвпроваджувальні перевірки на предмет потенційної шкоди психічному та соціальному розвитку користувачів.

Також він наполягав на обмеженні використання маніпулятивних або надмірно залучаючих конструктивних особливостей, які підвищують залученість користувачів у роботу чат-ботів.

Для додаткової інформації дивіться також:

– Коледжі забезпечують студентів ChatGPT. Чи є це безпечним?
– Після втрати сина, батьки закликають Сенат вжити заходів щодо AI-чат-ботів.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне