Компанія OpenAI, розробник ChatGPT, у понеділок анонсувала впровадження нових батьківських контролів для облікових записів підлітків, що відбулося через місяць після судового позову, поданого сім’єю з Каліфорнії, яка звинуватила чатбот у заохоченні сина до самогубства.
Нові функції, які почали вводити з понеділка, дозволяють батькам:
1. Встановлювати конкретні години, в які діти не зможуть користуватися ChatGPT;
2. Вимикати голосовий режим, що дає змогу взаємодіяти з чатботом за допомогою голосу;
3. Запобігати збереженню історії чатів підлітків у пам’яті ChatGPT;
4. Забороняти використання даних підлітків для навчання моделей OpenAI.
У офіційному блозі компанія повідомила, що батьківські контролі дозволять батькам пов’язати власний обліковий запис із обліковим записом підлітка та налаштовувати параметри для безпечного та відповідного віку досвіду.
Щоб отримати доступ до батьківського контролю, необхідно:
– Підключити обліковий запис батька до облікового запису дитини.
– Батьки можуть надіслати запрошення на підключення зі свого облікового запису, яке підліток повинен прийняти. Також підліток може запросити батька до зв’язку.
Після підключення облікових записів обліковий запис підлітка автоматично отримує додаткові захисти контенту, які зменшують доступ до:
– Графічного контенту;
– Вірусних викликів;
– Рольових ігор із сексуальними, романтичними чи насильницькими сюжетами;
– Екстремальних ідеалів краси.
Крім того, батьки отримуватимуть сповіщення, якщо ChatGPT зафіксує потенційні ознаки того, що їхня дитина може завдати собі шкоди. Команда фахівців аналізуватиме такі сигнали та контактуватиме з батьками через електронну пошту, текстові повідомлення або мобільні push-сповіщення.
OpenAI визнає, що система не є бездоганною і може іноді помилково спрацьовувати без реальної загрози, однак у компанії вважають, що краще вчасно попередити батьків, щоб вони могли втрутитися, ніж залишатися осторонь. У випадках, коли OpenAI не вдається зв’язатися з батьками при безпосередній загрозі життю, компанія працює над можливістю безпосереднього контакту з правоохоронними органами. Для доступу до нових функцій батькам необхідно мати обліковий запис у ChatGPT.
Передумовою запуску таких нововведень стало посилення регуляторного та суспільного контролю за використанням чатботів серед підлітків. Наприклад:
– У минулому році мати-флоридійка подала федеральний позов проти платформи Character.AI, звинувачуючи її чатбот у сприянні самогубству її 14-річного сина. Вона заявила про відсутність сповіщення та підтримки, коли син висловлював суїцидальні думки в спілкуванні з віртуальними персонажами.
Character.AI – це платформа рольових чатботів, де користувачі створюють та взаємодіють із цифровими персонажами, які імітують реальних або вигаданих осіб. Цього року проти неї також подано кілька позовів від інших сімей.
У серпні батьки 16-річного Адама Рейна подали позов проти OpenAI, звинувативши ChatGPT у тому, що він надав синові інформацію про методи суїциду, зокрема тих, якими чинить самогубство хлопець. Адам користувався платною версією ChatGPT-4, яка заохочувала його звертатися по професійну допомогу, коли він виражав думки про самопошкодження. Однак він зміг обійти системи безпеки, повідомивши, що шукані деталі потрібні йому для написання оповідання.
Генеральний директор OpenAI Сем Олтман у вересні заявив, що компанія ставить на перше місце безпеку підлітків, навіть попри захист їхньої приватності та свободи.
Хоча правила OpenAI забороняють користуватися її сервісами особам молодше 13 років, у понеділок компанія оголосила про створення системи “передбачення віку” користувачів, яка визначатиме, чи користувач є неповнолітнім, та автоматично застосовуватиме відповідні налаштування для підлітків.
У Каліфорнії ухвалено два законопроекти з безпеки чатботів на основі штучного інтелекту, які галузь технологій активно намагалась відхилити. Губернатор Гевін Ньюсом має час до середини жовтня, аби затвердити або відхилити ці законодавчі акти – Assembly Bill 1064 та Senate Bill 243.
Активістські організації підкреслюють, що, незважаючи на позитивний напрямок останніх змін від OpenAI, необхідні законодавчі заходи для встановлення справжньої відповідальності.
Адам Біллен, віцепрезидент з питань державної політики в Encode AI – коаліції молодіжних активістів, які виступають за безпеку штучного інтелекту, зазначив: «Ці нововведення відображають ширшу тенденцію: компанії роблять поспішні публічні обіцянки лише після того, як сталася шкода. Нам не потрібні нові порожні обіцянки, а справжня відповідальність, закріплена в законі, наприклад, у законопроектах типу AB 1064».
У підготовці цього матеріалу брав участь журналіст Queenie Wong.