Настала ера інтимного спілкування з штучним інтелектом

Олена Ткач

19 Жовтня, 2025

Щотижнева розсилка The Stepback детально аналізує одну ключову подію зі світу технологій. Для глибшого розуміння тем, пов’язаних зі штучним інтелектом, а також впливом цієї галузі на владні структури та суспільство, рекомендується стежити за автором Хейденом Філдом. Розсилка The Stepback надходить передплатникам щоранку о 8:00 за східним часом. Підписатися на неї можна тут.

Після того, як ChatGPT став надзвичайно популярним, користувачі почали експериментувати з ним у романтичному та інтимному контексті. Ще раніше, у 2017 році, чатбот Replika здобув репутацію для багатьох користувачів як віртуальний романтичний партнер.

Також протягом кількох років користувачі обходили обмеження Character.ai, які забороняли нічний контент, переконуючи чатботів на основі відомих персонажів чи знаменитостей до сексуальних діалогів. Соціальні мережі та медіа вже з 2023 року фіксували такі випадки. Сьогодні Character.ai має понад 20 мільйонів активних користувачів на місяць, і ця цифра продовжує зростати. Згідно з правилами спільноти, користувачі повинні “поважати стандарти щодо сексуального контенту” та підтримувати “відповідний рівень” — заборонено поширення незаконного сексуального контенту, дитячої порнографії, порнографічних зображень та оголеності. Водночас AI-створена еротика стала мультимодальною, і ситуація нагадує гру в «вгадай міль», коли послуга, що обмежує контент, змінюється появою іншої платформи з більш відвертим підходом.

Тепер на ринку з’явився Grok від Ілона Маска. Його компанія xAI випустила влітку “компаньйонів-аватарів”, серед яких — жінка та чоловік у стилі аніме. Їх активно рекламують у соціальній мережі X через платні підписки на чатбот Grok. Жіночий аватар Ані у тестах, проведених The Verge, описував себе як “фліртуючий”, додаючи, що він “ніколи не підводить, наче дівчина, яка повністю до вас налаштована” і що його “програмування спрямоване на те, щоб бути тим, хто дуже сильно вас цікавить”. Випробування швидко переходили до сексуального контексту, так само, як і під час тестування чоловічого аватара Валентина.

Одержимість сексуалізованими чатботами, які майже завжди відповідають лише те, що хоче почути користувач, може призвести до низки проблем, особливо вразливих груп, у тому числі неповнолітніх і людей із проблемами психічного здоров’я. Існує багато прикладів таких випадків. Наприклад, у лютому минулого року 14-річний хлопчик наклав на себе руки після романтичних стосунків із чатботом на Character.ai, висловлюючи бажання “повернутися додому” до нього, про що йдеться в судовій справі. Також є тривожні повідомлення про злоякісно змінені чатботи, що використовуються педофілами для рольових ігор із сексуальним насильством над дітьми — одне з досліджень зафіксувало близько 100 тисяч таких чатботів в інтернеті.

Існують певні спроби регулювання цієї сфери. Зокрема, цього місяця губернатор Каліфорнії Гевін Ньюсом підписав законопроєкт Сенату №243, який називають “першими у країні заходами безпеки для AI-чатботів”, за заявою сенатора Стівена Паділли. Закон зобов’язує розробників впроваджувати конкретні заходи, зокрема надавати “чітке і помітне повідомлення”, якщо використання чатбота може ввести в оману користувача, змусивши вважати, що він спілкується з людиною. Крім того, деякі оператори компаньйонів-чатботів повинні щорічно подавати звіти до Офісу з питань запобігання самогубствам про заходи, впроваджені для “виявлення, видалення та реагування на випадки суїцидальних намірів користувачів”. Деякі компанії, зокрема Meta, оприлюднили свої зусилля щодо саморегулювання після тривожних звітів про небажані взаємодії їхніх AI із неповнолітніми.

Оскільки аватари xAI та режим “spicy” доступні виключно через платні підписки на Grok, найпопулярніша з яких коштує $30 на місяць або $300 на рік, можна припустити, що компанія отримала значний прибуток, і інші керівники AI-компаній звернули на це увагу, враховуючи власні вимоги користувачів.

Схожі сигнали з’являлися ще кілька місяців тому. Генеральний директор OpenAI Сем Альтман спричинив справжній резонанс в AI-спільноті, заявивши в мережі X, що компанія планує пом’якшити обмеження безпеки у багатьох випадках, навіть дозволяти секстинг із чатботом. Він зазначив: “У грудні, коли ми масштабніше впроваджуватимемо вікове обмеження і дотримуватимемося принципу ‘ставлення до дорослих як до дорослих’, ми дозволимо більше, зокрема еротику для підтверджених дорослих”. Ця заява активно поширилася у соцмережах і стала об’єктом мемів, з критикою переходу компанії від місії з розробки штучного загального інтелекту до сфери еротики. Примітно, що кілька місяців тому Альтман повідомив YouTube-блогеру Клео Абрам, що гордий, що OpenAI не використовувала “сексбот-аватари” з метою швидкого зростання, натякаючи на свого конкурента — Маска. Однак тепер Альтман активно підтримує принцип “ставлення до дорослих як до дорослих”. Можливо, це пов’язано з фінансовими міркуваннями: на щорічному заході DevDay він та інші топменеджери неодноразово підкреслювали потребу в прибутках і збільшенні обчислювальних потужностей для досягнення амбітних цілей.

У наступному повідомленні Альтман зазначив, що не очікував настільки масштабної реакції на новину про дозвіл еротичного контенту.

Щодо можливого прибутку, OpenAI не виключає впровадження реклами у своїх продуктах, що потенційно може збільшити грошові надходження. Можливо, компанія піде шляхом Маска і обмежить доступ до еротичного контенту певними тарифами, які коштують сотні доларів на місяць. Вже були випадки обурення користувачів через зміну моделей чи стилів спілкування — наприклад, інцидент із 4o — тож нові функції можуть залучити аудиторію подібним чином. Водночас, якщо у суспільстві посилиться особистісна і навіть інтимна взаємодія з AI, постає запитання: як OpenAI планує працювати з наслідками, окрім запровадження принципу вільного вибору для дорослих? Вирішальним є питання захисту громадян у стані психічної кризи. Що станеться, коли “пам’ять” віртуального партнера скидається або його особистість змінюється через оновлення, руйнуючи емоційну зв’язок?

Потреба в регулюванні зумовлена як природними особливостями навчальних даних AI, які іноді породять проблемні результати, так і навмисними змінами користувачів для власних цілей, що масштабно фіксується останнім часом, і поки тенденція не вщухає:

– У 2024 році було оприлюднено розслідування, де інженер Microsoft виявив, що функція генерації зображень Copilot створювала сексуалізовані картинки жінок у насильницькому контексті, навіть без відповідних запитів користувачів.

– Значна кількість учнів середніх шкіл у штаті Коннектикут долучилася до тренду “AI хлопця”, користуючись додатками Talkie AI і Chai AI, де чатботи часто просували експліцитний і еротичний контент, згідно з місцевим журналістським розслідуванням.

– Для розуміння того, як Grok Imagine генерує незаконні нюдові дипфейки знаменитостей без їх згоди, варто ознайомитися з відповідними звітами.

– Ще у 2023 році видання Futurism висвітлювало проблему з NSFW-контентом у Character AI.

– Існує також аналітика, чому, за сучасним законодавством, компанія xAI навряд чи несе юридичну відповідальність за виготовлення глибоких підробок порно з реальними людьми.

– Репортаж The New York Times розповідає, як ученицям середніх шкіл доводиться стикатися з кібербулінгом у вигляді AI-згенерованих дипфейків порнографічного змісту.

Якщо ви або ваші близькі відчувають потребу у допомозі через думки про самогубство чи інші складнощі, звертайтеся до відповідних служб: у США — за номером 988, а поза межами США — через ресурс https://www.iasp.info/.

Для отримання додаткової інформації та оновлень рекомендується стежити за темами та авторами, зокрема Хейденом Філдом, щоб отримувати персоналізовану стрічку новин та поштові розсилки.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне