Європейська Комісія розглядає можливість класифікації ChatGPT від OpenAI як «Дуже Великої Онлайн-Пошукової Системи» (VLOSE) відповідно до Європейського акту про цифрові послуги (DSA). Це рішення може стати прецедентом для регулювання генеративних чатботів на території Європейського Союзу.
Минулого тижня OpenAI повідомила, що функція пошуку в ChatGPT досягла в середньому 120,4 мільйона користувачів на місяць у ЄС за останні шість місяців. Цей показник значно перевищує поріг у 45 мільйонів користувачів, який запускає додаткові зобов’язання для «Дуже Великих Онлайн-Платформ» та «Дуже Великих Онлайн-Пошукових Систем» за DSA. Представник Комісії підтвердив виданню Tech Policy Press, що регулятори наразі «оцінюють надану інформацію та вирішують, чи необхідні подальші уточнення» для визначення, чи відповідає ChatGPT критеріям для такого позначення.
Статистика OpenAI стосується виключно функції пошуку ChatGPT, яка дає змогу користувачам отримувати актуальну інформацію з мережі. Проте для Комісії викликом є розмежування того, чи слід розглядати цей пошуковий інструмент як окрему послугу або як частину чатботу загалом. DSA застосовується до посередницьких сервісів, таких як пошукові системи, маркетплейси та соціальні мережі — категорії, які не зовсім відповідають природі та роботі ChatGPT.
### Що розглядають регулятори
У відповіді Tech Policy Press Європейська Комісія зазначила, що за DSA «великі мовні моделі, такі як ChatGPT, потенційно можуть потрапляти до сфери застосування акту, якщо вони інтегровані у сервіс, який визначений у рамках DSA». Відповідно, оцінка полягає в тому, чи розглядати генеративну модель ChatGPT як частину більш широкого посередницького сервісу, наприклад, пошукової функції, чи як окремий інструмент.
Юридичний експерт Жоан Барата, запрошений професор Школи права Католицького університету Порту, поділився своєю думкою:
– «Таке визначення видається мені дещо несподіваним», — сказав він.
– На його думку, ChatGPT не вписується у основні категорії DSA — простий канал, кешування або хостинг. Залежатиме від того, як відбудеться первісна класифікація.
Барата підкреслив, що у разі трактування ChatGPT як хостингової послуги регулятори можуть застосувати значний обсяг зобов’язань, що спричинить складні юридичні питання:
– «Умови обслуговування і політики контенту відносно традиційних платформ є відносно очевидними, — пояснює він. — Для AI-чатботів це складніше, оскільки не всі правила контенту формулюються у вигляді явних норм, а впроваджуються на технічному рівні.»
Також він повідомив, що Комісія розглядає можливість визначення ChatGPT як VLOSE, а не як платформу. Однак це може стати проблематичним, оскільки лише деякі функції ChatGPT можна строго вважати пошуковими, якщо не розширювати визначення послуг надто широко. За його словами, необхідно:
– Розмежовувати AI-інструменти, які допомагають виключно у пошуку, від інструментів, що надають розгорнуті відповіді, навіть якщо вони спираються на пошукові дані.
Він застеріг, що така класифікація приводить до численних проблем із дотриманням норм і ускладнює тлумачення як DSA, так і запропонованого в Європі закону про штучний інтелект (AI Act). До ключових викликів належать:
– Запитання про прозорість, де особливу увагу приділять аспектам конфіденційності.
– Вимоги до управління системними ризиками, які мають явні перетини з положеннями AI Act.
Ще одним важливим аспектом є спосіб впровадження чатботів типу ChatGPT у більш широкі цифрові екосистеми. Зокрема, якщо чатботи представлені як спеціалізовані сервіси на платформах або застосовуються інші AI-інструменти для створення користувацького контенту. У цьому випадку:
– Позначення застосовуватиметься лише до конкретної функції чатбота, окремо від інших зобов’язань платформ за DSA.
### Нові вимоги для OpenAI
У разі формального визначення ChatGPT в межах DSA, цей чатбот стане першим AI-продуктом, який офіційно підпадає під вимоги аудиту та звітності щодо системних ризиків, а також під зобов’язання щодо прозорості.
За словами Лорелін Лемуан, старшої юристки консалтингової компанії AWO, це означатиме:
– Проведення щорічних оцінок ризиків, які включатимуть аналіз дизайну ChatGPT, алгоритмів, модерації контенту та практик обробки даних.
– Оцінювання впливу на фундаментальні права, громадянський дискурс, виборчі процеси та психічне здоров’я.
Вона підкреслила:
– «OpenAI повинна оцінювати ризики негативного впливу на громадянський дискурс, виборчі процеси, захист неповнолітніх і психічне здоров’я.»
– «У межах заходів з пом’якшення ризиків компанія може бути змушена адаптувати системи, дизайн, функції та механізми роботи ChatGPT.»
Важливо, що такі перевірки мають проводитись не лише щороку, але й кожного разу, коли OpenAI впроваджує функції, здатні суттєво впливати на системні ризики. Це тягне за собою:
– Більш детальне тестування та необхідність коригування алгоритмів.
– Забезпечення користувачів чіткою інформацією про ризики та точність ChatGPT.
Лемуан зауважила:
– «Якщо VLOP і VLOSE не передбачать виконання вимог DSA заздалегідь, це може призвести до уповільнення впровадження нових функцій у Європі.»
Крім того, компанія зобов’язана буде дотримуватися нових вимог щодо доступу до даних, встановлених статтею 40 DSA, яка передбачає, що уповноважені дослідники зможуть запитувати інформацію про системні ризики та заходи їхнього пом’якшення.
Професорка інформаційного права Амстердамського університету Наталі Хельбергер звернула увагу, що наслідки далеко виходять за рамки модерації контенту. Класифікація ChatGPT як VLOSE посилить регуляторний контроль та розширить сферу уваги, порівняно з діючими положеннями AI Act. Вона відзначила:
– DSA надає дослідникам право доступу до даних, якого немає в AI Act, що породжує питання про межі такого права.
– «Це викличе цікаві дискусії щодо обсягу прав на доступ до даних та чи може стаття 40 поширюватися на навчальні дані або ваги моделей, якщо це необхідно для виявлення системних ризиків або оцінки заходів їхнього зниження.»
За словами Хельбергер, OpenAI також може бути зобов’язана забезпечувати прозорість у тому, як модерується вихідний контент моделей, що не охоплюється AI Act. Вона додала:
– «Хоча OpenAI уже виконує вимоги щодо управління ризиками за AI Act, положення DSA можуть розширити сферу контролю від ризиків самої моделі до потенційного використання моделі для масового поширення незаконного чи такого, що суперечить умовам використання OpenAI, контенту.»
### Підвищення планки для регулювання генеративного AI
Рішення Брюсселя щодо категоризації ChatGPT здатне визначити базові правила для всіх масштабних генеративних AI-систем в Європі. Водночас, DSA з введенням ChatGPT у сферу посередницького регулювання встановлює новий стандарт.
За словами Матьяса Фермеулена, директора з питань публічної політики компанії AWO:
– «Для індустрії, звичної до добровільних AI-безпекових рамок і самообумовлених стандартів, обов’язкові вимоги DSA стануть серйозним викликом.»
– «На сьогоднішній день стандарти зосереджені на вузьких ризиках, таких як упередженість або дезінформація, але під DSA «тестів на упередженість» буде недостатньо для відповідності.»
Він підкреслив, що OpenAI доведеться значно підвищити стандарти своєї роботи й не зможе просто відтворити нинішні підходи без змін.