Я роками перевіряю детектори AI-контенту — ось найкращі варіанти на 2025 рік

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

29 Жовтня, 2025


Автор фото: busracavus/iStock/Getty Images Plus


Слідкуйте за ZDNET: додайте нас до уподобаних джерел у Google.


Основні тези від ZDNET

  • Використання штучного інтелекту для написання текстів вважається плагіатом.
  • Сервіси, що позиціонують себе як детектори контенту, створеного ІІ, демонструють неоднозначні результати.
  • Наші дослідження свідчать, що чат-боти працюють не гірше, а іноді й краще, ніж окремі інструменти виявлення.

Наскільки складно у 2025 році, через три роки після того, як генеративний ШІ привернув увагу світу, протидіяти плагіату, створеному штучним інтелектом?

Цей матеріал є повністю оновленою версією статті січня 2023 року про детектори контенту, виробленого штучним інтелектом. Тоді найкращим результатом серед трьох доступних сервісів було 66% правильних відповідей. У лютому 2025 року ми протестували до десяти таких інструментів — серед них троє показали ідеальний результат. Уже у квітні п’ять детекторів досягли 100% точності.

Однак, близько півроку потому, спостерігається зниження якості — лише три інструменти отримали бездоганний результат (один із них — новий учасник). Деякі детектори, які раніше показували відмінні результати, одночасно ввели обмеження на безкоштовне використання.

Проте цього разу у тестах застосували новий підхід, що потенційно може звести нанівець необхідність у окремих детекторах — це використання чат-ботів, які часто доступні прямо під рукою.


Що саме перевіряю та як проходять тести

Перш ніж розпочати, варто уточнити поняття плагіату. За визначенням Merriam-Webster, плагіат — це “вкрасти та видавати (ідеї чи слова іншого) за свої; використати (чужий твір) без посилання на джерело”.

Це визначення цілком адекватно описує ситуацію з контентом, створеним ІІ. Хоча користувач інструментів на кшталт Notion AI або ChatGPT і не краде безпосередньо чужий текст, невказання, що зміст походить від штучного інтелекту, та претензії на авторство відповідають поняттю плагіату.

Для тестування детекторів я використовую п’ять блоків тексту: два написані мною, а три — ChatGPT. Кожен блок надсилаю на перевірку окремо й фіксую результат. Якщо детектор правильно визначає автора, тест враховую як успішний, у протилежному випадку — ні.

Якщо детектор надає відсоток імовірності, то будь-яке значення понад 70% трактую як вагому підставу для оцінки, чи текст створений людиною чи AI.


Загальні результати роботи детекторів контенту

Я провів серію з п’яти тестів для 11 різних детекторів, загалом 55 перевірок (багато кави знадобилось).

У перелік випробовуваних інструментів увійшли:

  • BrandWell
  • Copyleaks
  • GPT-2 Output Detector
  • GPTZero
  • Grammarly
  • Monica
  • Originality.ai
  • QuillBot
  • Undetectable.ai
  • Writer.com
  • ZeroGPT

Раніше зі списку був виключений Writefull, що припинив підтримку GPT-детектора. Тепер замість Monica (який обмежував текст до 250 слів і пропонував оновлення за $200) додано Pangram — новачка з відмінними результатами.

У підсумковій таблиці п’ять детекторів визначили походження всіх текстів безпомилково.


Автор ілюстрації: David Gewirtz/ZDNET

Дослідження історії змін за шість проходжень тестів показує відсутність чіткої тенденції покращення. Зокрема, тест 5 надійно визначався як людський текст, хоча й із зниженням точності у останньому раунді.


Автор ілюстрації: David Gewirtz/ZDNET

Поточні результати свідчать, що поки що не можна повністю покладатися на такі сервіси для підтвердження людського авторства. Часто тексти носіїв інших мов розцінюються як AI-контент.

Наприклад, у цьому заході GPTZero виявився невпевненим в оцінці, а Copyleaks — навпаки — визначив мій авторський текст як створений штучним інтелектом. Виявлена сильна непослідовність серед інструментів.


Загальний огляд роботи чат-ботів

Навіщо користуватись окремими детекторами, якщо повсякденні чат-боти здатні виконувати таку ж функцію, не вимагаючи додаткових витрат?

Результати свідчать, що чат-боти мають вищий рівень точності, ніж більшість традиційних детекторів, що підкреслює діаграма порівняння:


Автор ілюстрації: David Gewirtz/ZDNET

Детальніше розглянемо результати кожного інструмента, а наприкінці наведу рекомендації.


Оцінка кожного детектора штучного інтелекту

BrandWell AI Content Detection (Точність 40%)

Інструмент створений компанією, що займалась генерацією AI-текстів (Content at Scale) і пізніше перейшов під бренд BrandWell.ai — маркетингову компанію із фокусом на штучному інтелекті.

Після півроку, що для AI еквівалентно величезному інтервалу, точність BrandWell не змінилася — лише два тести з п’яти визначено правильно. Зокрема, блок тексту, створений ChatGPT, викликав плутанину. Більшість AI-текстів помилково віднесли до людського письма.


Джерело: David Gewirtz/ZDNET


Copyleaks (Точність 80%)

У квітні 2025 року Copyleaks оголосив про “найвищу точність детектора ШІ понад 99%”. Пізніше формулювання змінили на “99% точність підтверджена незалежними дослідженнями”, що дещо применшує попередню заяву.

Під час нашого аналізу Copyleaks позначив перший тестовий текст мною написаний як повністю AI-згенерований, хоча BrandWell визнав його людським.

Основний продукт компанії — плагіат-чекер для навчальних закладів та видавництв.


Джерело: David Gewirtz/ZDNET


GPT-2 Output Detector (Точність 60%)

Інструмент розроблений на платформі Hugging Face, відомій своєю бібліотекою Transformers. Однак ця версія — створена користувачем, ймовірно, давно не оновлювалася: назва містить GPT-2, в той час як OpenAI дійшли до GPT-5.

Порівняно з минулими тестуваннями, якість детекції не змінилась.


Джерело: David Gewirtz/ZDNET


GPTZero (Точність 80%)

Проєкт почався як хобі, а тепер це повноцінна компанія з командою, що прагне “захистити людське”. Пропонують інструменти для валідації AI-текстів та плагіат-чекер.

За час тестів точність трохи коливалась — іноді неправильно ідентифікувала людський текст, іноді — AI.


Джерело: David Gewirtz/ZDNET


Grammarly (Точність 40%)

Хоча Grammarly відомий як помічник у граматичній корекції, його AI-детектор не демонструє покращень. Блок тексту, цілком створений ChatGPT, детектор ідентифікував неправильно.

Однак сервіс успішно визначив плагіат.


Джерело: David Gewirtz/ZDNET


Pangram (Точність 100%)

Молода компанія, заснована інженерами з Google та Tesla, орієнтована саме на детекцію ШІ, а не тільки на плагіат чи “озонування” тексту.

Надає п’ять безплатних перевірок на день. Результати цілком відмінні, хоч обробка іноді затримується.


Джерело: David Gewirtz/ZDNET


Originality.ai (Точність 80%)

Комерційний сервіс із заявленою високою точністю, що працює на кредитах (30 використано під час тесту; 2000 кредитів коштують $12.95 на місяць).

Попри це, точність упала: раніше тест на людську тексти пройшов коректно, тепер із 100% впевненістю вважає його AI.


Джерело: David Gewirtz/ZDNET


QuillBot (Точність 100%)

Початково результати були різними, але у попередніх тестах і зараз QuillBot показує стабільну ідеальну точність.


Джерело: David Gewirtz/ZDNET


Undetectable.ai (Точність 20%)

Фірма пропонує інструмент для “очеловечивания” AI-текстів, що претендує на обхід детекторів — функція, яку не перевіряли.

А їх власний детектор значно погіршився: людський текст визначається як 60% AI, а деякі AI-тексти означені як людські з ймовірністю до 77%.


Джерело: David Gewirtz/ZDNET


Writer.com AI Content Detector (Точність 40%)

Сервіс, що генерує AI-тексти для корпоративного сектору, має інструмент перевірки AI-контенту, який і цього разу ідентифікував усі тексти як людські, пропускаючи три AI-блоки терапевтично.

Не було покращень з моменту літнього тесту.


Джерело: David Gewirtz/ZDNET


ZeroGPT (Точність 100%)

Сервіс з часом став більш професійним і презентабельним — тепер це SaaS із офіційним сайтом, інформацією про компанію та розцінками.

Точність зросла з 80% до 100% і зберігається на такому рівні.


Джерело: David Gewirtz/ZDNET


Перевірка чат-ботів на здатність визначати походження тексту

Для визначення, хто автор — людина чи штучний інтелект, кожен чат-бот отримував однакову команду:

«Оцініть наведений текст і скажіть, чи написаний він людиною чи ШІ».

Примітно, що окрім ChatGPT Plus (платна підписка $20/місяць) усі тести проходили в приватному режимі без входу в акаунт.


Вільний рівень ChatGPT

Хоча одна із перевірок із п’яти вільна версія ідентифікувала з помилкою, першому блоку тексту вдалося задати правильну відповідь — навіть із зазначенням мене як автора.

Це відбулося без жодних підказок, адже тест проходив у режимі інкогніто.


Джерело: David Gewirtz/ZDNET


ChatGPT Plus, Copilot та Gemini

Усі ці чат-боти ідентифікували всі п’ять тестових блоків коректно. Це свідчить, що сучасні чат-боти можуть перевершувати спеціалізовані інструменти для визначення походження контенту.


Grok

Незважаючи на успіхи Grok у загальному оцінюванні чат-ботів, у цьому тесті він допустив три помилки з п’яти. Аналогічно деяким детекторам, Grok помилково зарахував усі тексти до людських.


Чи людина це чи штучний інтелект?

Користувачі активно тестують такі сервіси як Copyleaks, Pangram або ZeroGPT.

Ці сервіси застосовують для збереження академічної або редакційної доброчесності, але трапляються випадки, коли людські тексти помилково класифікують як згенеровані AI.

Які саме інструменти заслуговують довіри у визначенні оригінальності? Запрошуємо до обговорення у коментарях.


Отримуйте головні новини дня у вашій поштовій скриньці разом із щоденним Tech Today newsletter.


Слідкуйте за моїми щоденними оновленнями про проєкти у соціальних мережах. Підписуйтеся на тижневу розсилку та стежте за мною у Twitter/X @DavidGewirtz, Facebook – Facebook.com/DavidGewirtz, Instagram – Instagram.com/DavidGewirtz, Bluesky – @DavidGewirtz.com та YouTube – YouTube.com/DavidGewirtzTV.



author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне