Федеральні правоохоронні органи США здійснили новий крок у цифровій сфері кримінальних розслідувань. Вперше Служба розслідувань внутрішньої безпеки США (U.S. Homeland Security Investigations, HSI) розсекретила ордер, що зобов’язує компанію OpenAI надати детальну інформацію про користувацькі розмови в ChatGPT. Ця подія є вагомим прецедентом у взаємодії технологій штучного інтелекту та системи кримінального правосуддя.
Ордер, поданий у штаті Мен, містить безпрецедентний запит на отримання даних користувача генеративного ШІ у рамках кримінального провадження, пов’язаного з матеріалами про експлуатацію дітей.
### Прорив у розслідуванні
Розслідування зосереджене на багаторічній операції, спрямованій на боротьбу з відомим сайтом для дитячої експлуатації, який функціонував у даркнеті. Агентами HSI були проведені таємні заходи з 2019 року, під час яких вони безпосередньо комунікували з адміністратором сайту з метою ідентифікації злочинця.
Переломний момент настав, коли підозрюваний випадково згадав про використання ChatGPT у своїх спілкуваннях та навіть поділився результатами роботи штучного інтелекту. Це розкриття стало ключовим, що змусило слідчих вимагати від OpenAI всю наявну інформацію про власника акаунта, включно з журналами розмов, іменами акаунтів, контактними даними та платіжною інформацією.
У запитах, які надсилав підозрюваний, були як безневинні питання на кшталт «Що сталося б, якби Шерлок Холмс зустрів Q з «Зоряного шляху»?», так і великі за обсягом завдання, що створювали сотні тисяч слів тексту.
Особливо примітним був відповідь у вигляді комедійної версії пісні Village People «Y.M.C.A.», написаної у стилі, натхненному Дональдом Трампом, яку підозрюваний використовував під час розмов з агентами під прикриттям. Незважаючи на зовнішню невинність цих конкретних звернень, ордер вимагав повний доступ, щоби продемонструвати технічні вміння користувача та його поведінкові патерни в онлайні.
Цікаво, що ідентифікація підозрюваного відбулась без залучення даних OpenAI. Аналіз інформації, отриманої під час секретних чатів, дозволив виявити:
– біографічні деталі, зокрема проходження військових медичних оглядів;
– сім років проживання в Німеччині;
– родинні зв’язки в Афганістані.
Перевірка військових документів підтвердила особу – це Дрю Хенер, 36-річний чоловік, пов’язаний зі збройними силами США. Наразі Хенер звинувачується у змові з метою поширення дитячих порнографічних матеріалів і перебуває під вартою, чекаючи судового розгляду.
HSI вважає, що Хенер опікувався принаймні п’ятнадцятьма окремими сайтами з дитячою порнографією в мережі Tor, які обслуговували до 300 000 користувачів. Деталі операцій залишаються конфіденційними, проте відомо, що сайти містили організовані розділи з незаконним контентом, створеним за допомогою штучного інтелекту.
OpenAI повідомляє, що з липня по грудень минулого року вони обробили 31 500 випадків дитячої порнографії, а також надали відповіді на 71 запит урядових органів щодо 132 акаунтів користувачів за цей період.
Цей ордер сигналізує про новий тренд у роботі слідчих: правоохоронні органи дедалі частіше розглядають платформи на кшталт ChatGPT як джерело доказів у кримінальних справах. Цей розвиток подій породжує важливі питання, пов’язані з:
– політиками збереження даних;
– забезпеченням приватності користувачів;
– нормативно-правовими умовами, які регламентують обов’язки компаній зі штучного інтелекту перед державними структурами.
Як зазначає Дженніфер Лінч з Electronic Frontier Foundation, ця справа підкреслює необхідність для OpenAI та подібних сервісів критично оцінити свої практики збору даних та посилити заходи для захисту приватності користувачів.
—
### Підсумкова таблиця ключових аспектів справи:
| Ідентифікатор | Тип вразливості / Запиту | Обслуговувана послуга | Оцінка CVSS 3.1 | Вплив |
|—————|—————————————-|————————————|—————–|————————————————|
| N/A – Ордер | Запит даних правоохоронних органів | Дані користувачів OpenAI ChatGPT | N/A | Порушення приватності користувача через ордер |
| N/A – Розслідування | Збір цифрових доказів | Журнали чатів і акаунти користувачів | N/A | Доступ до розмов та особистої інформації |
| N/A – Виявлення CSAM | Модерація та ідентифікація контенту | Системи виявлення CSAM | N/A | 31 500 випадків CSAM; 71 запит від уряду |
—
Спеціальна пропозиція у Місяць кібербезпеки: підвищуйте кваліфікацію з понад 100 преміум-курсів з кібербезпеки в рамках діамантового членства EHA. Приєднуйтесь сьогодні!