Федеральні судді вважають, що помилки в замовленнях пов’язані з використанням Perplexity і ChatGPT

Олена Ткач

24 Жовтня, 2025

Два федеральні судді повідомили, що помилкові постанови, які вони видали, стали результатом використання працівниками генеративних штучних інтелектуальних інструментів та передчасного внесення інформації до реєстру справ. Ці заяви містяться у листах, оприлюднених у четвер головою Комітету з судочинства Сенату Чаком Грассліном.

Судді Генрі Т. Вінгейт і Жульєн Ксав’єр Нілс, які обіймають посади у федеральних окружних судах Південного округу Міссісіпі та округу Нью-Джерсі відповідно, у своїх листах заявили, що їхні юридичні помічники застосовували штучний інтелект для підготовки проєктів постанов, які були внесені до судових документів ще до проходження ними належного перегляду. Обидва судді також описали заходи, що вживатимуться для запобігання повторенню таких помилок.

Причиною появи листів стали постанови обох суддів, до яких увійшли численні помилки — серед них неправильні цитати та посилання на учасників, які не належать до поточних справ, і які згодом були відкликані. З’явилися припущення, що судді користувалися штучним інтелектом, який іноді генерує хибну інформацію (так звані “галюцинації”). На початку цього місяця Грасслін, республіканець з Айови, направив обом судам листи з проханням надати пояснення. Опубліковані в четвер документи стали відповіддю на ці запити.

У своїй відповіді Нілс підтвердив достовірність повідомлень Reuters про те, що “тимчасовий помічник” використовував ChatGPT. Він зазначив: «При цьому стажер діяв без дозволу, без повідомлення та всупереч не лише внутрішнім правилам кабінету, але й відповідній політиці юридичного факультету».

Нілс додав, що забороняє використання генеративного штучного інтелекту для юридичних досліджень і підготовки судових рішень. Якщо раніше ця заборона була усною, то зараз вона закріплена письмово.

Він пояснив:
– «Наразі я маю чітко сформульовану письмову політику, яка діє для всіх юридичних помічників та стажерів, доти доки Адміністративний офіс судів не надасть остаточних вказівок у вигляді усталених, загальнообов’язкових політик та процедур щодо належного використання штучного інтелекту».

Нілс також уточнив, що проєкт постанови з’явився у реєстрі до завершення рутинної перевірки, що також підтвердив і Вінгейт у своєму листі.

Вінгейт пояснив:
– «Стандартна практика в моєму кабінеті передбачає, що кожен проєкт судового рішення проходить кілька рівнів перевірки перед остаточним ухваленням та внесенням до реєстру, зокрема використання інструментів для перевірки цитат. Однак у випадку постанови, внесеної 20 липня 2025 року, було опубліковано ранній проєкт, який не пройшов стандартного процесу перевірки».

За словами Вінгейта, працівник його кабінету користувався інструментом Perplexity “виключно як базовим помічником для узагальнення публічно доступної інформації з реєстру” без введення конфіденційних чи непублічних даних.

Вінгейт також повідомив про вжиті заходи, аби запобігти подібним помилкам у майбутньому:
1. Усі проєкти судових рішень, постанов та меморандумів тепер проходять обов’язкову незалежну перевірку другим юридичним помічником перед поданням до судді.
2. Всі посилання на судові справи друкуються з Westlaw і додаються до фінального проекту.

Розповсюдження генеративних інструментів штучного інтелекту дало можливість більшій кількості користувачів звертатися до цієї безперервно вдосконалюваної технології, проте це також призвело до збільшення кількості помилок, зокрема у юридичній сфері.

Стаття, опублікована раніше цього року у Journal of Empirical Legal Studies Корнельського університету, вказує:
– «Юридична практика зіткнулася з різким зростанням продуктів, які включають елементи штучного інтелекту».
– Аналіз показав, що рекламні заяви низки AI-інструментів, спеціалізованих на юридичних дослідженнях, часто були перебільшені.

У зв’язку з цим, представник Perplexity прокоментував інцидент, зазначивши, що їхній AI-інструмент “ніколи не стверджував про 100% точність, проте ми єдина компанія, що цілком сфокусована на створенні максимально точного штучного інтелекту”.

У прес-релізі Perplexity йдеться:
– «Ми щоденно активно тестуємо і оцінюємо точність Perplexity (сьогодні рівень неточності становить 1,84%). Хоча ми ще не вивчали цей звіт чи його вихідні дані, радимо всім користувачам штучного інтелекту перевіряти роботу своїх AI-помічників. Саме тому ми впровадили систему посилань у AI».

На момент підготовки матеріалу у OpenAI, компанії-власника ChatGPT, не отримали запиту на коментар і не надали відповіді.

Відповідаючи на листи суддів, Грасслін відзначив їхню відкритість і висловив задоволення від прийнятих заходів щодо уникнення майбутніх проблем.

Він підкреслив:
– «Кожен федеральний суддя, а також судова влада як інституція, мають обов’язок гарантувати, що використання генеративного штучного інтелекту не порушує права учасників судового процесу та не заважає справедливому розгляду справ».
– «Судова гілка влади потребує більш чітких, значущих та постійних політик і рекомендацій щодо застосування штучного інтелекту. Не можна дозволяти ліні, байдужості або надмірній довірі до штучних помічників підривати відданість судів чесності та фактичній точності».

Автор матеріалу — Медісон Олдер, репортерка FedScoop у Вашингтоні, округ Колумбія. Вона спеціалізується на висвітленні тем урядових технологій, включно з впровадженням штучного інтелекту в державному секторі та змінами у федеральних закупівлях. До роботи у FedScoop Медісон працювала у Bloomberg Law, де висвітлювала роботу федеральної судової системи, питання охорони здоров’я та соціальних пільг. Уроженка Сіетла, вона є випускницею Школи журналістики та масової комунікації Волтера Кронкайта при Арізонському державному університеті.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне