Затриманий чоловік дізнається, що ChatGPT — це не його адвокат, а скоріше доказ.

Олена Ткач

4 Жовтня, 2025

Поліція отримала новий інструмент у своєму арсеналі — надзвичайну недбалість людей, які без жодних вагань діляться своїми таємницями з цифровим асистентом у смартфоні.

Коли технологічні ентузіасти просувають ідею, що їх інновації прискорять продуктивність, вони обіцяють революційні медичні відкриття та майбутнє без початківців-юристів. Однак реальність полягає в тому, що вони створили фактично автобіографічний журнал для правопорушників, де можна запитати що завгодно на кшталт: «Чи доведеться мені сісти до в’язниці за пошкодження автомобілів?» Це свого роду вдосконалена версія популярної іграшки “Магічний 8-кулька”, при цьому ціна такого «прогресу» виражається в бюджетній кризі – 267% зростання тарифів на електроенергію.

За даними OzarksFirst, підлітка звинувачують у вандалізмі, пов’язаному з пошкодженням 17 автомобілів на парковці Університету штату Міссурі. Проте це не був задуманий «Оушен» — юнак провів ніч, обговорюючи цю справу зі штучним інтелектом ChatGPT, фактично написавши власне зізнання у форматі ділової бесіди з HAL 9000. Такий підхід виявився невдалою стратегією, адже право на мовчання за конституцією не поширюється на спілкування з випадковою мовною моделлю.

Публікуємо ключові деталі з офіційної заяви поліції Спрінгфілда:

– Дані з телефону підозрюваного показали його місцезнаходження поблизу паркувального майданчика о 2:49 ранку в ніч вандалізму, а пізніше — біля його квартири о 4:04 ранку.
– З телефону було виявлено переписку з ChatGPT, що розпочалася близько 3:47 ранку 28 серпня, приблизно за 10 хвилин після припинення пошкоджень.
– У чаті користувач, ідентифікований поліцією як Шефер, описував шкоду, завдану автомобілям, і запитував, чи може він сісти до в’язниці.
– Зі звернення включено численні цитати, де підозрюваний визнає, що «ламав» автомобілі, згадує паркування університету та висловлює агресивні висловлювання.
– Штучний інтелект порадив звернутися за допомогою.
– Переписка обірвалася вранці того ж дня.

Здається неймовірним, що тепер підлітки не бояться, що їхні слова залишаться вічно, як це було з постами у Facebook. Після ребрендингу Facebook у Meta прагнення зберегти приватність та уникати помилок відійшло на другий план. Тепер замість фотографій з вечірок у гуртожитку ми маємо листи «Дорогий ChatGPT, о 3:32 ночі я скоїв злочин у консерваторії, будь ласка, оформи це для майбутньої заяви».

Проблема тут не технологічна, а психологічна. Вина не у ChatGPT, якщо він служить своєрідним каталізатором для реалізації схильностей користувача. Ніхто не звинувачує програму у фальшивому обґрунтуванні правових документів, це робить фахівець, який нехтує перевіркою матеріалів. Аналогічно, не слід звинувачувати ChatGPT у тому, що зловмисник вважає свій телефон заміною юриста чи священика.

Голова OpenAI Сем Альтман ще у липні зазначав, що технологія поки не має юридичного захисту конфіденційності. Він порівнював цей аспект з правами пацієнта, клієнта чи пацієнта на конфіденційність, які стосуються спілкування з лікарями, юристами чи психотерапевтами. Водночас ця сфера залишається неврегульованою для взаємодії з штучним інтелектом.

Однак у цій точці існує сильна протилежна думка:

– Переваги юридичної, медичної чи психотерапевтичної таємниці ґрунтуються на тому, що ця інформація передається кваліфікованим фахівцям.
– Суспільство намагається сприяти відкритості з цими професіоналами, бо бачить у цьому соціальну користь.
– Навпаки, зі штучним інтелектом необхідно досягти протилежного — зменшити довіру та довірливість, запобігти розкриттю особистої та потенційно компрометуючої інформації.
– Родина загиблого підлітка, який вчинив суїцид, вже подала позов проти OpenAI, звинувачуючи компанію у створенні умов, що відштовхували від реальної підтримки та професійної допомоги.

Індустрія штучного інтелекту часто прагне переконати користувачів, що їхні розмови є приватними, майже як у терапевта чи юриста. Причина криється у бізнес-моделі, побудованій на зборі даних:

– Кожен набраний символ становить цінний ресурс.
– Ця інформація використовується для рекламних кампаній чи вдосконалення систем.
– Ідея полягає у створенні штучного інтелекту, який, наприклад, реагуватиме на фрази «Я планую здійснити пограбування» зі складанням покрокового плану, детальним аналізом та дослідженнями.
– Машина може навіть запропонувати списки відомих імен, які схожі на сценарій користувача.

Отже важливо не дозволити індустрії вводити в оману, щоб вона не переконала людей у заміні професіоналів штучним інтелектом. Ця технологія здатна оптимізувати певні робочі процеси і виконує це із високою ефективністю, проте вона не може замінити людський розум і досвід.

Джерело: Розслідування за допомогою ChatGPT та аналіз даних телефону допомогли затримати підлітка за вандалізм на парковці університету Міссурі [OzarksFirst]

Автор: Джо Патріс
Старший редактор ресурсу Above the Law, співведучий подкасту Thinking Like A Lawyer. Готовий приймати поради, запитання та коментарі на електронну пошту. Слідкуйте за ним у Twitter або Bluesky, якщо цікавитеся правом, політикою та спортивними новинами в коледжах. Крім того, Джо є керуючим директором у RPN Executive Search.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне