У Нью-Йорку існує принаймні два Білли де Блазіо, і це стало джерелом неочікуваної плутанини. Нещодавно журналіст британської газети намагався отримати коментарі одного з них для матеріалу про кандидата на посаду мера Нью-Йорка Зохрана Мамдані, але помилково надіслав листа не тій особі. Не знаменитий ДеБлазіо (що пише своє прізвище як “DeBlasio”, а не “de Blasio”) відповів, нібито скориставшись ChatGPT, щоб надати собі риси колишнього мера. Ця помилка призвела до видалення статті і поставила під сумнів майбутнє журналістики в епоху штучного інтелекту (ШІ).
Історія розпочалася з того, що журналіст Times of London надіслав листа Біллу DeBlasio з проханням прокоментувати “плани політики Зохрана Мамдані та їх орієнтовну вартість”, як повідомляє Semafor. Мамдані здобув статус політичної суперечливої фігури в США через свої демократичні соціалістичні погляди, що спричинило критику з боку Fox News та колишнього президента Дональда Трампа, які називали його “комуністом”, здатним нібито зруйнувати Нью-Йорк у разі обрання на посаду мера.
Журналістська практика отримання коментаря від де Блазіо у контексті планів Мамдані цілком логічна, з огляду на особливий статус першого як колишнього мера від Демократичної партії. Проте, відсутність точних контактних даних потрібної особи створила проблему. Ситуація ускладнилася ще й тим, що сучасні чат-боти на кшталт ChatGPT дозволяють будь-кому імітувати голос відомої публічної особи, ідентифікувати підробку при цьому надзвичайно складно.
Так, журналіст випадково зв’язався з 59-річним імпортером вина з Лонг-Айленда, який, за даними Semafor, скористався ChatGPT, щоб скласти відповідь із критикою податкових планів Мамдані, у тому числі припускаючи, що вони не здатні забезпечити потрібні доходи. Times of London опублікували статтю з заголовком: “Союзник Зохрана Мамдані Білл де Блазіо каже, що його політики «не сходяться»”.
Публікація базувалася на вигаданих цитатах DeBlasio, нібито він критикував такі основні пункти передвиборчої кампанії Мамдані, як безкоштовний транспорт та універсальна дитяча опіка. Вже скоро після виходу статті справжній колишній мер висловився в соціальних мережах:
– “Хочу чітко заявити: історія в Times of London повністю хибна і вигадана,” — написав де Блазіо у твіттері вівторка.
– “Мені щойно про це повідомили, і я вражений. Я ніколи не спілкувався з цим журналістом і не казав таких речей. Ці цитати не мої і не відображають моїх поглядів.”
Times of London видалили статтю й випустили офіційну заяву для Associated Press, у якій зазначили, що їхній журналіст став жертвою обману людини, яка помилково видала себе за екс-мера Нью-Йорка.
Цей випадок не є першим. У 2020 році видання Mel magazine описувало цього самого не-мера DeBlasio як 54-річного фахівця з кібербезпеки, який часто отримував повідомлення, адресовані меру. Водночас він сам охоче користувався цією плутаниною:
– “Одного разу, з жарту, я змінив своє фото профілю на фото Білла де Блазіо. О, Боже, за два тижні мені надійшло 600 запитів на додавання у друзі,” — розповідав тоді DeBlasio.
– Він також зізнався, що під час жартівливого імітування мера казав “найабсурдніші, найскандальніші речі”.
Зміни, які трапилися відтоді, стосуються передусім технологій. Тепер DeBlasio має інструмент, якого не мав у 2020 році — генеративний ШІ, що значно полегшує емуляцію голосу відомої особи. До 2025 року кожен охочий може скористатися таким ресурсом для створення ілюзії реальної особи, що призводить до нових викликів у журналістиці. Зловживання маніпулятивними прийомами можуть йти не лише від потенційних джерел інформації, а й від самих авторів.
Згідно з Press Gazette, щонайменше шість медіа видалили статті, підписані одним автором на ім’я Марго Бланшар за останній рік. Вважається, що “вона” є продуктом AI, але це не завадило публікаціям Wired, Business Insider, Mashable і Fast Company вміщувати її матеріали. У серпні Wired повідомив про помилку, детально описавши часові рамки від моменту подання статті редактору до появи підозрілих моментів, пов’язаних із оплатою праці “автора”.
Цікаво, що Wired зазначив, що історія Бланшар була перевірена двома зовнішніми інструментами детекції ШІ, які визначили, що її написав скоріше людина. Проте ШІ лише погано виявляє власних “колег”, і цьому прикладом є платформа Grok.
Wired підкреслив:
– “Вигадки та плагіат існують у медіа з самого початку.”
– “Проте ШІ створює нову проблему. Він дозволяє будь-кому зіграти роль журналіста та переконливо подати ідею, використовуючи просту команду. Ми швидко відреагували після виявлення обману і вжили заходів, щоб такого більше не сталося. У цю нову еру кожна редакція повинна бути готовою діяти подібним чином.”
Традиція вигадок і фальсифікацій у медіа не нова, про що свідчить і кінострічка 2003 року «Shattered Glass», присвячена журналісту Стівену Гласу, який у 1990-х видавав вигадані історії за правдиві. Утім нині, зі зростанням доступності ШІ, процес обману значно спрощується і прискорюється.
З огляду на це, можна прогнозувати посилення навмисної дезінформації у сучасних ЗМІ з використанням ШІ. Це питання також стосується масштабу: більшість людей навряд чи повірять у фальшиві відео з Ілоном Маском, що закликають укласти угоду з шахрайською криптовалютою. Але при достатньому розповсюдженні такого контенту знайдуться жертви шахрайства.
Подібна ситуація можливе і в журналістиці. Невідомо, скільки видань отримало “пропозиції” від Марго Бланшар перед тим, як вона була опублікована. А коли текст надрукували в одному ЗМІ, це могло послужити підставою для інших вважати автора надійним, підвищуючи шанси на подальше прийняття.
Медіаринок у США переживає серйозні труднощі: видання втрачають прибутки через домінування технологічних гігантів, а також через проникнення правих ідеологів у керівництво традиційних медіа, як-от Washington Post і CBS News. Зокрема, редактор, який працював над матеріалом про Білла де Блазіо для Times of London, раніше співпрацював із Free Press — виданням правого спрямування, заснованим новопризначеною керівницею CBS News Барі Вайс.
Штучний інтелект додається до арсеналу інструментів, що пришвидшують руйнування довіри до інформації в інтернеті. Механізм протидії цьому поки обмежений і зводиться здебільшого до постійного критичного ставлення до джерел і фактів. Проте рівень скептицизму має межі, особливо враховуючи неоднакову ефективність програм для виявлення ШІ-контенту. Журналісти і надалі мають докладати максимум зусиль для перевірки фактів через кілька джерел, хоча ця робота ускладнюється, оскільки ті, хто прагне обманути, можуть просто генерувати велику кількість неправдивої інформації, користуючись нескладними текстовими командами чат-ботів.