Надмірне розкриття інформації з ШІ: як ваші розмови з ChatGPT можуть бути використані проти вас

Олена Ткач

20 Жовтня, 2025

У ранкові години 28 серпня безлюдний паркінг на території коледжу в штаті Міссурі став ареною масштабного акту вандалізму. Протягом 45 хвилин було пошкоджено 17 автомобілів: розбиті вікна, зламані дзеркала, відірвані двірники та пом’яті кузови, що завдало збитків на десятки тисяч доларів.

Після місяця розслідування поліція зібрала численні докази, включаючи сліди від взуття, свідчення очевидців та записи з камер спостереження. Однак саме припущене зізнання, зроблене із застосуванням ChatGPT, стало ключем до висунення обвинувачень 19-річному студенту Райану Шеферу.

Під час розмов із чат-ботом штучного інтелекту незабаром після інциденту Шефер описав наслідки своїх дій і спитав: «Наскільки мені тепер погано, брате?.. Що, якщо я повністю знищив кілька машин?»

Цей випадок, ймовірно, став першим в історії, коли людина сама себе звинуватила через використання цієї технології. Правоохоронці у звіті про обвинувачення Шефера підкреслили «тривожний діалог», що став доказом.

Менш ніж за тиждень ChatGPT знову згадався у судовому документі — тепер у справі набагато резонанснішого злочину. 29-річний Джонатан Ріндеркнехт був заарештований за підозрою у підпалі лісової пожежі в Палізейдс, що в січні цього року знищила тисячі будинків і підприємств у Каліфорнії та забрала життя 12 осіб. При цьому виявилося, що підозрюваний за допомогою штучного інтелекту створював зображення палаючого міста.

Очевидно, що ці дві справи не стануть останніми, в яких штучний інтелект викриває осіб у злочинах. Голова OpenAI Сем Альтман зазначив, що для користувацьких розмов з чат-ботом наразі не передбачено юридичного захисту. Це акцентує увагу не лише на проблемах конфіденційності новітніх технологій, але й на глибині особистої інформації, яку користувачі охоче діляться з системою.

За словами Альтмана, люди «обговорюють із ChatGPT найінтимніші аспекти свого життя». Особливо молодь, яка використовує чат-бот як терапевта, лайф-коуча, підтримку в особистих проблемах. Він додав, що наразі, якщо людина звертається до терапевта, юриста чи лікаря, існують юридичні норми конфіденційності, яких поки що немає для взаємодії з AI.

Універсальність моделей штучного інтелекту, таких як ChatGPT, дозволяє людям застосовувати їх для:

1. Обробки приватних сімейних фото.
2. Роз’яснення складних документів, наприклад, банківських кредитних пропозицій чи орендних угод.
3. Отримання медичних консультацій.
4. Пошуку товарів і послуг при покупках.
5. Рольових ігор і симуляцій.

За даними дослідження OpenAI, користувачі все активніше звертаються до чат-бота у різних сферах, включаючи медичні поради та навіть рольові інтерпретації.

Інші програми зі штучним інтелектом прямо позиціонують себе як віртуальні терапевти або романтичні партнери, часто без жорстких обмежень, які застосовують більш відомі компанії. Тим часом на темному вебі існують нелегальні сервіси, що дозволяють використовувати AI не лише як довірену особу, а й як спільника у злочинах.

Обсяг переданих даних вражає, що створює більші можливості як для правоохоронних органів, так і для злочинців, які прагнуть ними скористатися. Зокрема, коли раніше цього року компанія Perplexity запустила інтернет-браузер на базі AI, експерти з кібербезпеки виявили уразливість, через яку хакери могли викрасти користувацькі дані і застосувати їх для шантажу.

Компанії, які керують технологіями, також прагнуть монетизувати цей величезний масив особистої інформації. Вже з грудня Meta планує використовувати взаємодію користувачів із своїми AI-інструментами для показу таргетованої реклами на платформах Facebook, Instagram і Threads. Виняток із цього неможливий.

Розмови голосом і текстові повідомлення з AI будуть аналізуватися, щоб краще розуміти вподобання користувачів і пропонувати їм відповідні товари. У блозі Meta пояснили: «Якщо ви обговорюєте з Meta AI тему походів, то, ймовірно, побачите рекомендації туристичних груп, дописи друзів про маршрути або рекламу туристичного спорядження».

Хоч це й здається нешкідливим, дослідження показують, що цільова реклама може мати руйнівний ефект. Приклади з пошукових систем і соцмереж свідчать, що:

– Людям, які шукають допомоги з фінансами, пропонують позики з високими відсотками.
– Онлайн казино орієнтуються на проблемних гравців, пропонуючи безкоштовні спіни.
– Пенсіонери підштовхуються до витрат заощаджень на переоцінені інвестиції, наприклад, золото.

Керівник Meta Марк Цукерберг усвідомлює масштаби збору приватної інформації, який супроводжує нову політику щодо реклами з використанням AI. У квітні він заявив, що користувачі можуть надати Meta AI «дуже багато відомостей про себе та близьких у межах наших додатків». Водночас раніше він публічно назвав користувачів Facebook «дурниками» за довіру до збереження своїх даних.

Експерт із кібербезпеки Пітер Арнц з Malwarebytes відзначив: «Meta не тільки платформа для спілкування. Її бізнес-модель майже повністю побудована на продажі таргетованої реклами через різні сервіси». Галузь стикається з серйозними етичними і приватними викликами, адже брендам і провайдерам штучного інтелекту необхідно шукати баланс між персоналізацією, прозорістю та контролем користувачів, особливо з огляду на збір та аналіз чутливих поведінкових даних.

У міру поглиблення можливостей штучного інтелекту, компроміс між особистою конфіденційністю і зручністю залишається предметом ретельного вивчення. Події на кшталт скандалу з Cambridge Analytica, які змусили суспільство переосмислити використання соцмереж, а також новітні випадки із Шефером та Ріндеркнехтом можуть знову вивести питання приватності на перший план у технологічній сфері.

Менш ніж за три роки після запуску ChatGPT кількість користувачів автономних AI-додатків перевищила один мільярд. Часто ці люди стають несподіваними об’єктами для експлуатації з боку агресивних технологічних компаній, рекламодавців та навіть правоохоронних органів.

Відоме висловлювання, що якщо ви не платите за сервіс, то не є клієнтом, а продуктом, у нову еру штучного інтелекту може потребувати перегляду, замінивши слово «продукт» на «жертва».

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне