У значущому для сфери штучного інтелекту розвитку подій компанія OpenAI була звільнена від обтяжливої судової постанови, яка вимагала безстрокового збереження величезного обсягу даних користувачів ChatGPT. Це рішення ухвалила суддя-спостерігач США Она Т. Ванг, яка скасувала наказ про збереження інформації, накладений раніше в 2025 році у рамках гучного судового позову про порушення авторських прав, поданого виданням The New York Times проти OpenAI та Microsoft. Даний наказ змушував компанію зберігати всі взаємодії користувачів із ChatGPT, включно з тими, що вважалися користувачами вилученими, що викликало широкі дискусії щодо конфіденційності та управління даними в системах штучного інтелекту.
Позов, ініційований у грудні 2023 року, звинувачував OpenAI у використанні захищених авторським правом статей The New York Times для навчання своїх моделей без належного дозволу. У межах судового процесу у травні 2025 року була введена постанова про збереження даних для забезпечення нерозривності потенційних доказів. Проте ця всеохопна вимога спричинила негативну реакцію користувачів і захисників приватності, які стверджували, що таке зобов’язання підриває довіру до AI-платформ, змушуючи зберігати чутливі розмови.
Припинення безстрокового збереження даних
Рішення судді Ванг, детально викладене у нещодавній судовій заяві, дозволяє OpenAI відновити стандартну практику видалення даних для більшості користувачів. За повідомленнями порталу Engadget, скасування наказу означає, що компанія більше не зобов’язана безстроково зберігати всі журнали ChatGPT, що сприяє зменшенню операційних витрат. Проте винятки залишаються: інформація з облікових записів, помічених у справі — тобто підозрюваних у причетності до шуканих доказів — досі підлягає збереженню, щоб забезпечити доступ до релевантної інформації для поточного процесу.
Це виважене судове рішення відображає напруженість між необхідністю забезпечення доказової бази у правовому процесі та правами користувачів на конфіденційність у цифрову епоху. Раніше OpenAI висловлювала занепокоєння масштабами постанови, наголошуючи у дописі на офіційному блозі у червні 2025 року про прагнення збалансувати дотримання вимог суду із забезпеченням приватності. Відповідь компанії підкреслювала зусилля мінімізувати обсяг збережених даних, одночасно дотримуючись судових вимог, що було відзначено і в огляді Ars Technica, який висвітлював паніку користувачів через можливе розкриття приватних бесід.
Наслідки для приватності у штучному інтелекті та регулювання
Для експертів індустрії цей випадок ілюструє ширші виклики у регулюванні практик обробки даних у сфері штучного інтелекту. Закінчення дії постанови про збереження даних може встановити прецедент у тому, як суди розглядають питання даних у технологічних справах, потенційно впливаючи на майбутні конфлікти між такими компаніями, як Google та Meta. Фахівці з конфіденційності зазначають:
- Для більшості користувачів тепер доступне безпечне видалення чатів.
- Однак винятки, пов’язані з поміченими акаунтами, створюють невизначеність.
- Залишається неясним, яким чином відбувається ідентифікація таких акаунтів.
- Відсутні конкретні гарантії, що обмежують надмірне втручання у права користувачів.
Поводження OpenAI викликало неоднозначну реакцію. Аналіз Malwarebytes у червні 2025 року підкреслив, що початкова постанова сприяла прозорості, проте критики вказують, що вона виявила вразливості в безпеці даних штучного інтелекту. У міру просування процесу та продовження стадії виявлення доказів OpenAI, ймовірно, доведеться піддаватися додатковому контролю щодо джерел навчальних даних.
Перспективи: довіра користувачів і розвиток інновацій
Це судове рішення настає у визначальний момент для OpenAI, яка одночасно впроваджує інші зміни політики, наприклад, нові обмеження на взаємодію з неповнолітніми користувачами, про що повідомляв TechCrunch у вересні 2025 року. Скасування вимоги безстрокового збереження даних надає компанії можливість зосередитися на інноваціях, однак відновлення довіри користувачів залишається пріоритетом. За інформацією інсайдерів, це може призвести до посилення механізмів відмови від збереження даних або впровадження більш ефективних методів анонімізації, щоб уникнути перешкод для подальшого розвитку штучного інтелекту через побоювання щодо конфіденційності.
Зрештою, ця ситуація демонструє складну взаємодію між юридичними вимогами та етичними аспектами технологічного прогресу. Оскільки штучний інтелект дедалі глибше інтегрується у повсякденне життя, учасники ринку повинні підтримувати політики, які захищають користувачів і одночасно не стримують науково-технічний розвиток — баланс, який і намагається досягти рішення судді Ванг. Оскільки справа далека від завершення, світ технологій уважно стежить за її наслідками для управління даними.