Чи можна застосовувати ChatGPT як юриста?

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

28 Жовтня, 2025

Від моменту першого появи у публічному доступі у 2022 році, штучний інтелект ChatGPT проник у повсякденне життя американців унікальним чином. Спочатку він використовувався для звичних завдань: допомоги студентам у навчанні, планування подорожей і надання рекомендацій для покупок. Проте у 2025 році ChatGPT продовжує опинятися в центрі уваги, пов’язаний із набагато тривожнішими ситуаціями.

Загрози варіюються від емоційної залежності, коли користувачі буквально «закохуються» у штучний інтелект і втрачають зв’язок з реальністю, до трагічних випадків, що включають самогубства. Нині доповнюється новим аспектом ризику, пов’язаним з використанням AI — про це попереджає один із юристів, акцентуючи увагу користувачів, які активно застосовують ці технології, навіть розкриваючи особисті секрети.

### Чи можна використовувати ChatGPT як власного адвоката?

У популярному відео на TikTok адвокат Метт Марголіс (@itsmattslaw) звернувся зі застереженням до своїх 44 тисяч підписників. Він повідомив, що люди дедалі частіше використовують штучний інтелект, включно з ChatGPT та Claude, як юридичні консультації.

– «Я не говорю про те, що завтра хтось втратить роботу», — пояснює Марголіс. — «Маю на увазі, що при роботі з цими інструментами не діє адвокатська таємниця».

Він підкреслює, що на відміну від ліцензованих юристів, користувачі AI не отримують правового захисту конфіденційної інформації, яку називають адвокатською таємницею. Така таємниця забезпечує охорону ваших повідомлень адвокату від стороннього розголошення. За словами Марголіса, адвокатська таємниця «оповиває» будь-яку інформацію, яку ви передаєте своєму юристу.

– «Це не стосується цих інструментів», — застерігає адвокат. — «Вони не є юристами. Вже були випадки, коли суди направляли повістки таким сервісам. І тоді з’являються найінкримінуючіші запити й розмови».

Що це означає для користувача? Якщо ви, наприклад, звернетеся до ChatGPT із питанням щодо можливої кримінальної відповідальності за ваші дії, і це дійсно злочин, ваші слова не залишаться конфіденційними, якщо дані будуть використані в судовому процесі.

– «Спостерігати за цим у залі суду буде одночасно цікаво і тривожно», — зазначає Марголіс. — «Це нова реальність, з якою треба рахуватися».

### Чи справді це так?

Умовно кажучи, так. Сам Олтман, генеральний директор компанії OpenAI, яка є розробником ChatGPT, відкрито попереджав, що все, що ви розповідаєте чат-боту, може бути використане проти вас.

– «Якщо ви ділитеся найінтимнішою інформацією з ChatGPT, а потім виникає судова справа, ми можемо бути зобов’язані надати ці дані», — зазначив він у подкасті.

Варто підкреслити, що попередження стосується не лише осіб, які використовують AI замість юристів — навіть адвокатам слід виявляти обережність у використанні таких інструментів.

### Чи мають користувачі AI турбуватися?

Марголіс у розмові з BroBible підкреслив, що ризики не обмежуються лише ChatGPT, а стосуються всіх «безкоштовних» AI-сервісів, які мають бути забезпечені попередженнями. Як професіонал, що займається судовою практикою, він зазначає зростання кількості запитів до чат-ботів із «інкримінуючими» питаннями, порівнюючи це з пошуками у Google, які неодноразово ставали доказами у кримінальних справах.

– «Я підтримую прагнення людей отримувати більше інформації», — каже Марголіс. — «Але багато хто намагається використовувати ці AI-інструменти як юристів. Однак із адвокатами діє привілей: ви можете, наприклад, уточнити гіпотетичну ситуацію, і ця бесіда не підлягає виклику у суд».

Щодо безпечного застосування AI, Марголіс вбачає можливість майбутнього з обмеженими винятками, що поширюватимуться на такі сервіси. Водночас він підкреслює, що оплата послуг адвокатів має виправдовуватися наявністю конфіденційності, недоступної у випадку з AI.

– «Певна цінність існує в представленні інтересів юристом», — говорить він. — «Хоч багато хто може вважати, що це просто спроба зберегти роботу, це — частина принципів правової системи».

Марголіс позитивно оцінює бажання людини бути більш обізнаною у цьому питанні, але наполягає на обережності під час користування AI.

### Чи має значення формулювання запиту?

Деякі користувачі вважають, що спосіб, у який вони ставлять запитання AI про можливо протиправні дії, має вирішальне значення. Однак Марголіс пояснює, що остаточне рішення залишається за присяжними, а діалог із AI можна порівняти з пошуковими запитами у Google. Він наводить приклад підозрюваного у пожежі на Палісадес, якого затримали, використовуючи докази зі спілкування з ChatGPT.

### Чи можуть адвокати використовувати AI?

Водночас адвокати, що застосовують інструменти штучного інтелекту для дослідження, можуть отримати захист у межах привілею робочих матеріалів. Марголіс зазначає, що існують суперечки з цього питання, але наголошує, що такі інструменти виступають лише допоміжними засобами у ході судового процесу.

Особисто він співпрацює з певними AI-сервісами у галузі юридичних технологій і визнає їхню користь за умови правильного застосування. Водночас він критикує величезний потік недосконалих AI-даних, що заповнюють інтернет.

– «Я підтримую прагнення бути обізнаним і забезпечити, щоб ті, хто стикається з правовими процесами, були відповідно підготовлені», — наголошує адвокат. — «Водночас слід розуміти обмеження AI».

Він радить враховувати питання конфіденційності, безпеки та інтелектуальної власності при роботі з AI-технологіями.

– «Якщо ви усвідомлюєте, що робите, і дотримуєтеся обережності, — так само, як роблять це професіонали — інформація буде корисною. Але будьте дуже уважні», — додає Марголіс.

Редакція BroBible звернулася до OpenAI з офіційним запитом електронною поштою для отримання додаткових коментарів з цього приводу.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне