За останні роки значно зросла кількість людей, які звертаються до штучного інтелекту, зокрема таких інструментів, як ChatGPT та Perplexity, за юридичними консультаціями. У деяких випадках позивачі навіть відмовляються від послуг живих адвокатів на користь штучного інтелекту.
Лінн Вайт, яка використовувала обидва інструменти у справі про виселення в Лонг-Біч, Каліфорнія, розповіла NBC News: «Це було ніби Бог відповідав на мої запитання». Вона відставала зі сплатою за свій мобільний дім і не мала коштів на найм адвоката. Спочатку судовий призначений захисник програв справу. Під час апеляції Вайт замінила представника і самостійно вивчала справу за допомогою штучного інтелекту, аналізуючи рішення судді, досліджуючи прецеденти та готуючи відповіді. Завдяки цьому вдалося скасувати наказ на виселення та уникнути штрафів і заборгованості на суму понад 70 тисяч доларів.
Інший приклад – резидент Нью-Йорка Річард Гофман, який представив себе у цивільному позові проти колишнього роботодавця. Він поділився з виданням Staten Island Advance, що завдяки штучному інтелекту зміг визначити оптимальну стратегію для «шахового мату» у справі. Гофман зазначив, що дослідження, роздуми та підготовка за допомогою ШІ зайняли у нього п’ять днів, тоді як на це могли б піти місяці і робота кількох адвокатів.
Попри попередження від компаній, що розробляють ШІ про те, що не слід повністю покладатися на ці системи для юридичних консультацій, їхні можливості у цій сфері значні. Результати досліджень показали, що модель GPT-4 від OpenAI у 2023 році з високими балами склала іспит на адвоката.
Юридичні установи та адвокати також активно впроваджують штучний інтелект у свою роботу. Зокрема, за даними аналізу Стенфордського університету 2024 року, 75% юристів планують використовувати генеративний ШІ у своїй практиці. Крім того, фахівці вивчають, як ШІ може підвищити доступ до правосуддя.
Приклади ініціатив:
– Аляскинська судова система розробляє чат-бота на базі штучного інтелекту під назвою Alaska Virtual Assistant для допомоги особам, які представляють себе у справах про спадщину.
– Некомерційна організація Public Counsel проводить майстер-класи з використання ШІ для самозахисників.
Втім, поряд із оптимізмом існують і застереження щодо «галюцинацій» штучного інтелекту – ситуацій, коли інструменти генерують недостовірну інформацію або помилкові дані.
Реальні випадки:
1. Минулого місяця адвокат із Каліфорнії отримав штраф у 10 тисяч доларів за подання апеляції, де 21 із 23 юридичних посилань були вигаданими та створеними ШІ.
2. У липні двом адвокатам генерального директора MyPillow Майка Лінделла призначили штрафи по 3 тисячі доларів за те, що вони подали документи з неправдивими посиланнями на судові справи та невірно цитували правові норми.
3. Дослідження Інституту Thomson-Reuters, проведене з 30 червня по 1 серпня, виявило «поширені» випадки «галюцинацій» у судових документах. Зафіксовано 22 випадки, коли суди або сторони спору знаходили у документах посилання на неіснуючі справи, що у багатьох випадках призводило до дисциплінарних санкцій або покарань для осіб, які їх представили.
Один із відомих випадків стався у спорі між родиною та шкільною радою, де самозахисник подав позовні документи із 42 вигаданими юридичними посиланнями. Суддя дійшов висновку, що «штучний інтелект згенерував їх, намагаючись відповідати бажаному результату користувача на підставі заданого запиту».
Таким чином, застосування штучного інтелекту в юридичній сфері стає все більш поширеним і багатогранним явищем, що має як значні переваги, так і серйозні ризики, пов’язані з достовірністю генерованих даних.