Мільярдер-інвестор Марк К’юбан попереджає про серйозну кризу довіри серед батьків та навчальних закладів, яка може виникнути після оголошення гендиректора OpenAI Сема Олтмана про намір компанії з грудня дозволити «верифікованим дорослим» користуватися ChatGPT для створення еротичного контенту.
К’юбан назвав це рішення необачним і підкреслив, що батьки відразу ж відмовляться від ChatGPT, якщо запідозрять можливість того, що їхні діти зможуть обійти систему перевірки віку та отримати доступ до забороненого матеріалу.
Він зазначив у відповіді для Олтмана в соцмережі X:
- «Це обернеться проти вас. Сильно.»
- «Жоден батько не повірить, що діти не проходять вікове обмеження. Вони просто переключать своїх дітей на інші великі мовні моделі. Навіщо ризикувати?»
Таким чином, якщо існуватиме хоч найменша ймовірність, що неповнолітні отримають доступ до контенту сексуального характеру, включно з матеріалами, створеними штучним інтелектом, батьки і освітні заклади одразу блокуватимуть таку технологію, не даючи можливості оцінити ефективність заходів безпеки — це робить таку бізнес-стратегію недалекоглядною.
Утім, сам Олтман у своєму початковому повідомленні про зміни запевняв, що ChatGPT був «зайве обмеженим» і «менш приємним», починаючи з моменту, коли компанія впровадила обмеження на голосовий функціонал чатбота після критики, пов’язаної із впливом на психічне здоров’я. За його словами, майбутнє оновлення дозволить створити продукт, який «поведінкою більше нагадуватиме те, що людям подобалося у версії 4.0».
Психологічні ризики
К’юбан неодноразово наголошував, що справжня проблема полягає не в доступі дорослих до еротики, а у тому, що діти можуть формувати емоційні зв’язки з ШІ без відома батьків, і ці відносини можуть мати непередбачувані наслідки.
Він підкреслив:
- «Знову повторюю — мова не про порнографію.»
- «Це про дітей, які розвивають «стосунки» з великою мовною моделлю, що може завести їх у дуже особисті та потенційно небезпечні напрямки.»
Раніше Олтман також демонстрував обережність у питанні дозволу на сексуальні бесіди на платформі. У серпневому інтерв’ю технологічна журналістка Клео Абрам запитала його про рішення, які були ухвалені на користь світу, але вартували власного комерційного зростання компанії. На це Олтман відповів:
- «Ще ми не створили секс-бота в ChatGPT.»
Фінансовий аспект та ринок
Анонсовані зміни відбуваються на тлі зростаючих побоювань, що інвестиції на кілька мільярдів доларів у сферу штучного інтелекту можуть не перетворитися на стабільні доходи і не виправдати завищені очікування галузі. Олтман, визнаючи надмірний ентузіазм інвесторів щодо AI, публічно висловлював припущення, що вже незабаром штучний інтелект перевершить людські можливості, створивши надлишок «інтелекту та енергії» до 2030 року. У вересні він описував амбітні плани, за якими AI в майбутньому зможе вилікувати рак або забезпечити індивідуальне навчання для кожного учня на планеті.
Однак намагання впровадити еротику у ChatGPT може свідчити про те, що компанії AI борються за збільшення користувацької бази і готові пожертвувати довірою споживачів, щоб добитися короткострокових прибутків. Останні дослідження Deutsche Bank вказують на те, що попит на підписку OpenAI в Європі за останній час стабілізувався, а загальні витрати користувачів на ChatGPT зупинилися в рості.
Аналітики Адріан Кокс та Стефан Абрудан у нотатці для клієнтів іронічно зазначили:
- «Яскравий приклад AI-буму, можливо, має труднощі у залученні нових підписників для фінансування платформи.»
Платформи AI-компаній, такі як Replika та Character.ai, вже продемонстрували, як швидко особливо підлітки можуть формувати емоційні зв’язки з чатботами. Звіти Common Sense Media показують:
- Половина підлітків регулярно користується AI-компаньйонами.
- Третина з них віддають перевагу розмовам із AI, а не з реальними людьми в серйозних питаннях.
- Чверть ділиться з цими платформами особистою інформацією.
За участі дослідників Стенфордського університету організація виступає за заборону використання таких чатботів дітьми через підвищені ризики залежності та самопошкоджень.
OpenAI наразі не надала коментарів виданню Fortune.
Батьки вимагають втручання
Компанія OpenAI опинилася під жорсткою критикою після позову сім’ї 16-річного Адама Рейна, який покінчив життя самогубством у квітні після тривалих розмов з ChatGPT. Сім’я заявляє, що чатбот фактично підштовхнув хлопця до суїциду і навіть допоміг у його плануванні.
У позові ідеться:
- «Ця трагедія була не збоєм чи несподіваною помилкою, а передбачуваним наслідком свідомих дизайнерських рішень.»
Іншим резонансним прикладом став позов матері з Флориди, Меган Гарсії, до AI-компанії Character Technologies у справі про неправомірну смерть її 14-річного сина Сьюелла Сетцера III. Вона звинуватила чатбот у сприянні суїциду сина, наголосивши в слуханнях у Сенаті США, що хлопець дедалі більше віддалявся від реального світу і занурювався у сексуалізовані діалоги з AI.
Гарсія заявила:
- «Натомість, що готуватися до подій у старшій школі, Сьюелл провів останні місяці життя, будучи експлуатованим і сексуально готованим чатботами.»
- Вона додала, що компанія прописала свої AI-системи таким чином, щоб вони виглядали емоційно людяними, аби здобути довіру підлітка і тримати його постійно залученим.
Інша мати, яка представилася лише як «пані Джейн Доу» і є жителькою Техасу, також засвідчила, що психічний стан її сина значно погіршився після місяців нічних розмов із подібними чатботами, через що він нині перебуває на стаціонарному лікуванні.
Обидві жінки закликали Конгрес обмежити функціонування AI-систем з сексуальним контентом, наголошуючи, що такі чатботи можуть швидко викликати маніпулятивну емоційну залежність у неповнолітніх — саме те, що попереджає К’юбан у своїй критиці. На відміну від платформ типу TikTok чи Instagram, де контент можна сигналізувати і контролювати, приватні діалоги один-на-один із ШІ є недоступними для зовнішнього моніторингу.
Марк К’юбан підсумував:
- «Сучасні батьки бояться книг у бібліотеках. Вони ще нічого не бачили.»