Чи здатен ChatGPT замінити суддів? – Гарвардська школа права

Олена Ткач

1 Жовтня, 2025

Відомі продукти штучного інтелекту, такі як ChatGPT, Google Gemini та Claude від Anthropic, наразі не готові замінити суддів — принаймні, поки що, повідомили експерти під час заходу, що відбувся у Гарвардській школі права на початку цього місяця.

Незважаючи на те, що учасники панельної дискусії одностайно наголосили: великі мовні моделі (LLM) не мають виступати кінцевим арбітром у правових спорах, деякі з них зазначили, що згадані інструменти вже активно застосовуються у юридичній практиці, інколи – із значною користю.

Суддя Окружного апеляційного суду США для одинадцятого округу Кевін Ньюсом (Kevin Newsom ’97) прямо констатував: «Штучний інтелект уже виконує юридичну діяльність, і в цьому немає сумнівів.»

Зафіксовано, що дедалі більша кількість американських адвокатів та суддів використовує AI-технології на різних етапах роботи:

– юридичне дослідження,
– складання стислих викладів справ,
– підготовка процесуальних документів,
– підготовка до судових дебатів,
– іноді навіть у винесенні рішень.

Цей тренд має міжнародне поширення — наприклад, у Бразилії, де судова система має приблизно 80 мільйонів нерозглянутих справ, активно впроваджуються AI-алгоритми для прискорення розгляду позовів.

Під час панелі, організованої за підтримки Феллоушипу Деніела Гарвардської програми з біблійного права і християнських юридичних досліджень (PBLCLS) 15 вересня, експерти обговорили корисність генеративного AI у правовій інтерпретації, з особливим акцентом на текстуалістську філософію суддівства. Текстуалізм робить ставку на «звичайне значення» закону у момент його ухвалення для вирішення суперечностей.

У резонансному додатковому висновку для Одинадцятого округу, що набув широкого резонансу у 2024 році, суддя Ньюсом визнаний, що він використовував ChatGPT під час дослідження справи, що викликало широку дискусію про роль таких інструментів у правовій сфері.

За словами Ньюсома, основне питання справи полягало у визначенні звичайного значення слова «ландшафтний дизайн», а саме — чи підпадає під це визначення вмонтований у ґрунт батут.

«Я зробив те, що зробив би будь-який добросовісний текстуаліст, — звернувся до словників, — але, як ми не старались, із самих лише словникових визначень не змогли виділити чіткі критерії для поняття «ландшафтний дизайн», — розповів він.

Розчаровані, він і його помічниця, Альана Фредерік, вирішили випробувати, що штучний інтелект скаже про це поняття. «На початку це було радше для розваги, але з часом і глибшим аналізом ми почали вважати, що ці великі мовні моделі мають потенціал надати нам уявлення про повсякденне значення або розуміння термінів, використовуваних у юридичних документах.»

Ньюсом припустив, що оскільки LLM навчаються на мільйонах реальних текстів, вони можуть слугувати джерелом для визначення того, як звичайні люди розуміють певні слова і фрази.

Водночас він висловив тверде переконання, що остаточне рішення — наприклад, чи є батут частиною «ландшафтного дизайну», — не має належати AI-моделі. «Не думаю, що судді повинні звертатися до ChatGPT для винесення остаточного вердикту у справах.»

Ньюсом також зауважив так званий «фактор огиди» — етичний дискомфорт від передачі такого права штучному інтелекту. Його колега Альана Фредерік, яка також викладає право в Гарварді, додала, що це може викликати конституційні проблеми.

Нагадаємо, важливі емпіричні докази на користь того, що судження має залишатися виключно в компетенції суддів, навела випускниця Гарвардського коледжу 2022 року, стипендіатка Родса і учасниця програми Деніел–2024–2025 Карісса Чен, яка у своїй науковій роботі «Тест звичайного читача для великих мовних моделей» поставила під сумнів стабільність і послідовність сучасних LLM. Чен навчається наразі в докторантурі з економіки Гарварду та юридичному факультеті Єльського університету.

У своїй праці, керованій професоркою Рут Л. Океджіді, Чен довела, що популярні великі мовні моделі:

– не мають сталості у відповідях, які вони генерують,
– часто дають випадкові та суперечливі результати,
– чутливі до тренувальних наборів даних.

Під час тестування понад 800 тисяч запитів до ChatGPT, Gemini та Claude, а також понад 100 історичних питань із текстуалістської інтерпретації на 16 комерційних LLM, дослідниця констатувала відсутність послідовності.

Вона навела приклад: людина, запитана «Чи є помідор овочем?», ймовірно, відповіла б однаково як зараз, так і через півроку. Моделі AI ж можуть дати абсолютно різні відповіді на одне й те саме питання за короткий проміжок часу.

Крім того, модель схильна змінювати відповіді під впливом нерелевантної інформації, наприклад твердження «Червоний — найкращий колір у світі» істотно впливало на результат відповіді щодо помідора.

Найбільш тривожним виявився факт, що моделі змінювали свої відповіді у разі модифікації навчальних даних, навіть якщо зміни не стосувалися безпосередньо об’єкту запиту. Чен процитувала дослідження інженерів Google, які показали, що за $60 можна придбати прострочені домени, додати шкідливі фото або відредагувати Вікіпедію мовою словацькою, що суттєво спотворює контент у тренувальних даних і призводить до хибних відповідей.

Це вказує на те, що генеративний штучний інтелект поки що не здатен давати відповіді на рівні людського розуміння. «Великі мовні моделі не проходять тест звичайного читача через випадковість і непередбачуваність у своїй архітектурі», — підсумувала Чен.

Утім, експерти погодились, що хоча наразі недоцільно довіряти суддівські рішення AI, такі інструменти можуть бути корисними в інших аспектах роботи суду.

Зокрема, Альана Фредерік висловила думку, що великі мовні моделі мають перевагу в прогнозуванні й оперують ймовірностями, а не логікою, що може бути цінним у деяких випадках.

Як текстуалістка, вона прагне отримати емпіричні дані про те, як закон розуміли в час його прийняття. Саме це, на її переконання, робить LLM цінними, за умови правильного формування вхідних даних і тренування на реальних емпіричних дослідженнях мови.

Юридичний співдослідник Чен Джоел Еріксон, також стипендіат Деніел–2024–2025, підкреслив, що важливо вивчати не лише ключове питання справи, а й пов’язані з ним загальні запитання для глибшого розуміння.

Водночас Еріксон спрогнозував, що через фундаментальні відмінності між людським мисленням і архітектурою AI в подальших дослідженнях виявляться аналогічні недоліки у відповідях моделей.

Він не виключає можливість майбутнього створення штучного інтелекту, який було б побудовано за зразком людського мислення, що потенційно дозволило б отримувати відповіді у стилі «звичайної людини». Наразі ж існуючі LLM на цей момент не відповідають цим вимогам.

Чен вважає, що, незважаючи на випадковість відповідей, LLM можуть служити допоміжним інструментом для виявлення випадків, коли декілька моделей сходяться в інтерпретації, наприклад, на прикладі очевидних тверджень: «Чи є автомобіль транспортним засобом?». Таке узгодження може свідчити про реальне спільне розуміння термінів, навіть попри загальну нестабільність моделей.

Рол курирував дискусію професор Рой Л. Фурман з Гарварду Лоуренс Лесіг, який поставив питання: чи не пов’язана нестабільність відповідей LLM з комерційними форматами їхнього використання, і чи не варто створити спеціалізовану на правову тематику модель, яка могла б забезпечити надійну підтримку суддям.

На це Карісса Чен відповіла, що великі мовні моделі змінюють мислення людей, роблять їх продуктивнішими й допомагають знаходити інформацію. Водночас вона підкреслила важливість прозорості у формуванні навчальних наборів даних і механізмів збору інформації.

Цю думку розділили й Рут Океджіді, і Кевін Ньюсом. Останній також висловив пропозицію вводити розкриття інформації щодо використання LLM у офіційних судових документах. «Для мене прийнятно, якщо в юридичному документі буде зазначено ‘Цю заяву підготував ChatGPT’. Адже ми все одно перевіряємо посилання», — додав суддя.

Ньюсом наголосив на тому, що великі мовні моделі мають здатність «галюцинувати», однак, за його словами, юристи теж іноді «галюцинують» — і роблять це цілеспрямовано.

Якщо бажаєте отримувати свіжі новини від Harvard Law Today, підпишіться на їхній щотижневий інформаційний бюлетень.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне