Люди застосовують ChatGPT як юриста в суді, і дехто перемагає.

Олена Ткач

8 Жовтня, 2025

Незважаючи на те, що деякі позивачі досягають успіху у справах малого позову, юридичні фахівці, з якими поспілкувалося NBC News, відзначають, що судові документи, підготовлені за допомогою штучного інтелекту, часто містять помилки та хибні аргументи.

Адвокат Холмс пояснив, що позивачі «користуються справами, які ChatGPT їм надає, але коли я перевіряю ці справи, вони не існують». У більшості випадків такі позови відхиляються через відсутність обґрунтованих вимог, оскільки багато разів це, не хочеться бути різким, але – нісенітниця. Моделі штучного інтелекту нерідко створюють інформацію, що є помилковою або вводить в оману, але подається як факт — явище, відоме як «галюцинації». Чатботи навчаються на величезних масивах даних і намагаються передбачити найімовірнішу відповідь на запит, але іноді стикаються з прогалинами у знаннях. У таких випадках модель може заповнювати відсутні дані власними припущеннями, що може призводити до неточностей або вигаданих деталей.

Для позивачів наслідки таких галюцинацій штучного інтелекту можуть бути вельми витратними. Так, Джек Овок, яскравий бізнесмен із Флориди у сфері енергетичних напоїв, який програв справу про неправдиву рекламу на суму 311 мільйонів доларів і наразі представляє себе самостійно, був нещодавно оштрафований за подання судового клопотання з 11 цитатами штучного походження, які посилалися на неіснуючі судові рішення.

Овок визнав, що через обмежені фінансові можливості використовував генеративний ШІ для підготовки документів. Суд зобов’язав його відпрацювати 10 годин громадських робіт і вимагає розкривати інформацію про використання ШІ у всіх наступних документах справи.

Як зазначив сам Овок у листуванні, «як адвокатська контора перевіряє роботу молодшого юриста, так і ви маєте перевіряти тексти, створені штучним інтелектом».

Юристи, серед яких і Холмс, виділяють характерні ознаки необачного використання штучного інтелекту:

– посилання на неіснуючі судові справи;
– залишені не відредагованими заповнювачі тексту;
– форматування та навіть емодзі у стилі ChatGPT, що зовсім не схоже на типовий юридичний документ.

Юридичний дослідник та спеціаліст з аналізу даних Даміен Шарлотін організував публічну базу даних, яка відстежує судові рішення у справах, де позивачі були викриті у використанні штучного інтелекту. Починаючи з 2023 року, він зафіксував 282 таких випадки у США та понад 130 – в інших країнах.

На його думку, «інтенсивність таких випадків почала зростати з весни 2025 року».

Ця база далеко не повна: вона включає лише випадки, коли суд безпосередньо розглядав або висловлювався щодо фактів застосування ШІ, а більшість записів надходить до Шарлотіна від адвокатів або інших дослідників. Він виокремлює три основні типи галюцинацій ШІ:

1. Вигадана судова практика — простий для виявлення тип, оскільки справа не існує взагалі.
2. Несправжні цитати з реально існуючих судових справ — їх можна легко перевірити командою пошуку (Ctrl+F).
3. Неправильне трактування існуючої судової практики — найскладніший випадок, коли подають реальні справи, але їхній зміст суттєво викривляють.

Особисто зі специфікою «галюцинацій» ШІ зіткнувся Ерл Такефман, який зараз самостійно захищає свої інтереси у справах, пов’язаних із сумнівною угодою щодо бізнесу з піктлболу у Флориді, та почав використовувати ШІ для допомоги у судах минулого року.

Такефман зізнався NBC News, що ніколи не підозрював, що ChatGPT може вигадувати справи. Цю помилку виявив супротивний адвокат, вказавши на одну із вигаданих справ у документах Такефмана. Після цього він звернувся назад до ChatGPT, висловивши своє розчарування, на що алгоритм «вибачився».

Суддя притягнув Такефмана до дисциплінарної відповідальності за посилання на одну й ту ж неіснуючу справу «Hernandez v. Gilbert» 1995 року в двох різних документах, а також за інші помилки. Занепокоєний таким проявом халатності, позивач вирішив бути уважнішим. Він намагався отримати від ChatGPT достовірні цитати з потрібних справ, проте, як виявилось, ШІ також імітував ці цитати.

За словами пана Такефмана, він «без сумніву не мав наміру вводити суд в оману», проте підкреслив, що суд дуже серйозно ставиться до таких порушень, незалежно від того, чи позивач є самостійним учасником процесу.

На кінець серпня цього року суд змусив Такефмана пояснити, чому йому не слід накладати санкції за допущені помилки. Суд прийняв вибачення та не застосував стягнень.

Незважаючи на цей досвід, Такефман не відмовився від використання ШІ у судових справах. Він тепер порівнює відповіді з різних ШІ-систем, наприклад, отримує інформацію від Grok і перевіряє її через ChatGPT, щоб впевнитися в реальності та достовірності наведених фактів. Потім здійснює останню перевірку за допомогою Google, щоб мати змогу надавати суду впевнені заяви про справжність цих матеріалів.

Більшість випадків галюцинацій у базі даних Шарлотіна походять від самостійних позивачів (pro se), але багато таких проблем виникає й у роботі практикуючих адвокатів.

Так, на початку жовтня суд штату Каліфорнія оштрафував адвоката на 10 000 доларів за подання апеляції, в якій 21 із 23 наведених цитат із судових рішень були вигадані ChatGPT. За даними CalMatters, це найбільший штраф, накладений за штучні вигадки у судовій практиці.

Роберт Фройнд, юрист, який регулярно співпрацює з Шарлотіном, підкреслив, що:

– йому легше зрозуміти спокусу для осіб без адвоката, які не можуть дозволити собі юриста та звертаються до таких інструментів;
– він не може збагнути, чому адвокати свідомо порушують свої фундаментальні обов’язки перед клієнтами та обґрунтовують позови на підставі повної фальсифікації.

Фройнд зазначив, що наплив помилок із ШІ забирає час суду та протилежної сторони, змушуючи їх розбиратися з неправдивими фактами. Навіть після суворих попереджень від судді деякі позивачі продовжують надсилати «засмічені» ШІ документи.

Прикладом подібного є Метью Гарсес, зареєстрований медсестра з Нью-Мексико, котрий активно користується штучним інтелектом для самозахисту у суді, беручи участь у 28 федеральних цивільних справах, зокрема 10 активних апеляціях і кількох зверненнях до Верховного суду. Тематика справ різноманітна: від медичної недбалості до житлових спорів і навіть звинувачень про неправомірну поведінку суддів щодо нього.

Після того, як він подав документи з посиланнями на безліч неіснуючих справ, колегія суддів 5-го Апеляційного суду США офіційно попередила Гарсеса вдруге — у разі подальших «безпідставних, повторюваних або зловмисних позовів» йому загрожують суворіші санкції.

У ще одній справі суддя рекомендував заборонити Гарсесу подавати позови без дозволу старшого судді та визнати його «судовим зловмисником».

Незважаючи на це, Гарсес вважає, що «ШІ відкриває двері до судових установ, які часто закриті через фінансові бар’єри. Керувати майже 30 федеральними справами самому було б майже неможливо без ШІ, який допомагає організовувати, досліджувати та готувати документи».

У зв’язку з розширенням використання штучного інтелекту в судах, благодійні юридичні клініки почали навчати своїх клієнтів, які самостійно захищають свої інтереси, використовувати ШІ з користю, без шкоди, при цьому не надаючи прямих юридичних консультацій.

Зої Долан, керівний юрист неприбуткової організації Public Counsel у Лос-Анджелесі, зауважила:

– «Це найбільш захоплюючий час, щоб бути юристом».
– «Можливий вплив одного адвоката наразі обмежений лише уявою та організаційними рамками».

Минулого року вона допомогла створити курс для самостійних позивачів у Лос-Анджелесі, на якому навчали:

– використовувати різні запити для створення документів;
– перевіряти факти в результатах, наданих ШІ;
– порівнювати відповіді різних чатботів для верифікації отриманої інформації.

Декілька слухачів цього курсу, включно з позивачем на ім’я Вайт, успішно виграли справи за підтримки штучного інтелекту.

Багато юридичних фахівців, які критикують неграмотне застосування ШІ у судах, не проти його використання досвідченими юристами. Навпаки, вони налаштовані оптимістично щодо заходів, які допоможуть професіоналам перевіряти та аналізувати інформацію, створену ШІ.

Південно-каліфорнійський адвокат Ендрю Монтез повідомив, що, незважаючи на те, що його фірма протягом останніх шести місяців постійно стикається з тим, що самостійні позивачі використовують штучний інтелект, він сам знаходить ці інструменти корисними як вихідну точку для досліджень та генерації ідей. Водночас він ніколи не вводить у систему справжні імена клієнтів чи конфіденційну інформацію і ретельно перевіряє кожну цитату вручну.

За словами Монтеза, хоча штучний інтелект не може замінити глибокий юридичний аналіз, ці технології дозволяють швидше створювати докладно опрацьовані юридичні документи.

Він підкреслив:

– «У майбутньому в юридичній професії всі адвокати будуть змушені певною чи іншою мірою використовувати штучний інтелект, інакше їх просто випередять».
– «ШІ стає великим рівняючим фактором. Дослідження в інтернеті вже певною мірою зробили юридичні бібліотеки застарілими, а тепер ШІ – це новий рубіж».

Щодо самостійних позивачів, які не є фахівцями в юридичній сфері, Монтез вважає, що більшість справ надто складні, щоб ШІ міг повністю охопити контекст і надати достатньо якісний аналіз для успішного ведення в суді. Водночас він не виключає, що в майбутньому дедалі більше людей зможуть ефективно захищати себе за допомогою штучного інтелекту, особливо у судах з малими позовами.

Вайт, яку цього року вдалося захистити від виселення, отримавши суттєву допомогу від ChatGPT та Perplexity.ai, сприймає штучний інтелект як інструмент вирівнювання соціальної конкурентної спроможності. На запит, що вона могла б порадити іншим самостійним позивачам, Вайт відповіла, що, мабуть, найкраще зробити це за допомогою ChatGPT.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне