Текст публікації про помилки штучного інтелекту у юридичних документах
Автор: Туфан Неупане, Cronkite News
Дата: 28 жовтня 2025 року
Вашингтон — Для непрофесіонала посилання на судові справи у апеляції з відхиленою претензією на соціальне забезпечення могли здатися правдоподібними, а то й вражаючими: Brown v. Colvin, Wofford v. Berryhill, Hobbs v. Commissioner of Social Security Administration.
Кожне з посилань супроводжувалося номером справи та ініціалами судді федерального суду округу Арізона.
Хоча судді з такими ініціалами дійсно існують, самі справи є фальшивими.
Загалом, 12 з 19 наведених справ виявилися «вигаданими, оманливими або необґрунтованими», — зазначила федеральний суддя Алісон Бачус у рішенні від 14 серпня, яким було накладено санкції на адвоката, відповідального за підготовку «підготовленого з численними порушеннями у посиланнях, що збігаються з проявами галюцинацій штучного інтелекту».
Із поширенням штучного інтелекту у трудовому середовищі та навчальних закладах його вплив дедалі більше проникає і до судових інстанцій.
База даних «AI Hallucination Cases», яку веде дослідник Даміен Шарлотен із HEC Paris, провідної бізнес-школи Франції, зафіксувала понад півдесятка федеральних судових документів у Арізоні з вересня 2024 року, що містять вигаданий матеріал, створений ChatGPT або іншим генеративним AI.
Цей показник є другим за кількістю серед усіх юрисдикцій США, поступаючись лише Південному округу Флориди зі семи подібними справами. Загалом база відображає 486 подань у всьому світі, з них 324 — у федеральних, штатних та племінних судах США.
Особи, які не мали професійної юридичної підготовки та захищали себе самостійно, складали чотири випадки у Арізоні та 189 — загалом по країні. Водночас, 128 адвокатів і два судді США також опинилися причетними до подань з галюцинаторними помилками.
За словами правового дослідника Меттью Дала, «вже нараховується сотні випадків, коли юристи (включно з представниками провідних юридичних фірм), експертні свідки та навіть судді подають до суду документи, що містять галюциновані посилання та інший недостовірний контент».
Меттью Дал, який одночасно навчається на юридичному факультеті та аспірантурі Єльського університету, співавтор дослідження 2024 року «Великі юридичні вигадки: аналіз галюцинацій у великих мовних моделях», наголосив:
– Під час застосування систем штучного інтелекту для юридичних досліджень рівень «галюцинацій» є значно вищим, ніж допустимо для відповідальної юридичної практики.
У дисциплінарній справі перед Верховним судом Колорадо адвокат із Денвера, який заперечував використання AI, погодився на 90-денне відсторонення. Розслідування виявило, що він обговорював вигадки у клопотанні, яке підготував за допомогою ChatGPT, і визнав, «що, як нерозумний, не перевірив цю роботу».
Проблеми, викликані помилками Microsoft Copilot, Google Gemini, Perplexity, Claude Sonnet та інших AI-моделей, також неодноразово виявлялися у судах по всій країні.
На запитання про роль ChatGPT-5 (який допомагав створювати заголовки цього матеріалу) у подібних випадках, штучний інтелект відповів:
– «Це безумовно має важливе значення і викликає занепокоєння з етичної та практичної точок зору. Подібні випадки демонструють, як неправильне використання штучного інтелекту або надмірна довіра до нього без перевірки можуть призвести до серйозної шкоди — особливо у сферах права, медицини та журналістики, де точність є критичною».
– Такі інциденти підкреслюють, чому прозорість, перевірка і людський контроль є незмінними та обов’язковими вимогами.
Експерти в юридичній сфері застерігають, що зростаюче використання штучного інтелекту несе значні ризики для правової системи, яка базується на прецедентному праві.
За словами професорки юридичного факультету Університету Маямі Крістіни Фрохок, «коли адвокати посилаються на галюциновані судові рішення, ці посилання можуть вводити в оману суддів і клієнтів». Її стаття «Привиди при вході: заклик до пильності проти створених AI судових вигадок» буде опублікована в зимовому випуску 2025 року Penn State Law Review.
Вона попереджає, що:
– Галюцинації можуть потрапити до судових рішень і вплинути на реальний спір між реальними сторонами, що, за словами федерального суду Каліфорнії, є «страшним» потенційним наслідком.
– Якщо фальшиві судові справи стануть поширеними та дієвими, це похитне довіру до правової системи і підриє авторитет судових рішень.
Суди ставляться до подібних порушень з усією серйозністю, а порушників, як правило, очікує публічне засудження.
У нещодавній справі на півдні Флориди адвокат отримав санкції за включення у вісім пов’язаних справ «фальшивих, підроблених, неіснуючих, створених AI юридичних джерел». Наступні два роки він зобов’язаний додавати копію постанови про санкції до кожного позову, поданого у цьому судовому окрузі.
У справі Mavy v. Commissioner of Social Security Administration в Арізоні суддя Алісон Бачус наказала адвокату Марен Енн-Міллер Бем письмово проінформувати трьох федеральних суддів Арізони, імена яких були застосовані до фальшивих судових рішень, про використання нею вигаданих справ.
Також Бем зобов’язали надати копію постанови про санкції судді у кожній справі, у якій вона є захисником.
«Суд не приймає це рішення легковажно», — наголосила суддя.
Адвокат представляла 54-річного чоловіка у спорі щодо пенсійних виплат за інвалідністю, чиї заяви були відхилені, і який програв адміністративне оскарження, перш ніж звернутися до федерального суду.
Бем не надала коментарів щодо санкцій. У судовому документі вона визнала використання вигаданих AI-судових справ і поклала провину на іншого адвоката, який готував апеляційні матеріали, запевнивши, що «жодної злого наміру не було, і посилання не були безпідставними».
Крім того, суддя наказала секретарю суду повідомити адвокатську колегію штату Вашингтон — рідного штату Бем, а також відкликала її тимчасове право виступати у цьому суді як адвокату з іншого штату.
Адвокатська асоціація штату Вашингтон не надала відповіді на запити щодо можливих дисциплінарних заходів.
З 2023 року суди США застосовують різноманітні заходи у відповідь на виявлення неправдивих матеріалів, створених за допомогою AI.
Серед прикладів:
1. Федеральний суддя Нью-Йорка оштрафував адвоката на 5 000 доларів у 2023 році за подання позову, згенерованого ChatGPT, в якому були наведенні вигадані справи.
2. Дехто отримував лише попередження.
3. Інші потрапляли на розгляд адвокатської колегії, отримували накази щодо підвищення кваліфікації або були тимчасово відсторонені від практики.
4. Окремі справи були відхилені з формулюванням «заборонено подавати повторно».
Також судді не застраховані від проблем з AI-підготовкою документів.
У штаті Міссісіпі федеральний суддя Генрі Вінгейт визнав, що видана ним постанова, яку швидко відкликали, містила хибну інформацію, згенеровану Perplexity. Винуватцем він назвав помилку секретаря.
Суддя пояснив, що подана постанова була «початковим проєктом, який не пройшов стандартну перевірку… Це була помилка», у відповіді на лист критики від голови комітету з судових справ Сенату Чака Грасслей, отриманий 6 жовтня.
У липні федеральний суддя Джулієн Ксав’є Нілс з Нью-Джерсі відкликав свою постанову після повідомлення від адвоката про наявність у ній вигаданих цитат і неправильних посилань на судову практику.
Адвокатська колегія штату Арізона видала рекомендації, які зобов’язують юристів перевіряти всі AI-згенеровані дослідження перед поданням їх до суду або клієнтам.
Рік тому Комітет з питань штучного інтелекту у системі судів Верховного суду Арізони випустив аналогічні настанови, наголошуючи, що «відповідальність за якість роботи лежить на суддях та адвокатах, а не на AI-інструментах».
У січні 2023 року SCOTUSblog, ресурс, що висвітлює діяльність Верховного суду США, перевірив правові здібності ChatGPT за допомогою 50 питань про цей найвищий суд, з яких лише 21 відповідь була правильною. Серед найгрубіших помилок — твердження, що ліберальна суддя Рут Бейдер Гінзбург нібито виступала з окремою думкою (дисидентом) у справі Obergefell v. Hodges 2015 року, у якій було встановлено конституційне право на одностатеві шлюби.
У щорічному звіті про стан федеральної судової системи наприкінці 2023 року голова Верховного суду Джон Робертс попередив, що «будь-яке використання штучного інтелекту вимагає обережності та смиренності».
Він додав, що посилання на неіснуючі справи «завжди є помилковою практикою».
Попри це, використання штучного інтелекту в юриспруденції продовжує зростати.
За словами дослідника Даміена Шарлотена, «до весни 2025 року ми реєстрували приблизно дві справи на тиждень, а тепер їх уже два або три на день».
Водночас він підкреслює, що помилки не є унікальною рисою штучного інтелекту — юристи давно покладаються на практикантів, помічників і молодших колег, які не завжди виконують роботу ідеально.
Він також відмічає, що «завдяки феномену галюцинацій AI увага громадськості зосереджується і на неякісній роботі деяких адвокатів».
Ця стаття вперше була опублікована на Cronkite News і перебуває у вільному доступі за ліцензією Creative Commons Attribution-NoDerivatives 4.0 International License.