Чи може штучний інтелект боротися з дезінформацією про вакцини? Інтерв’ю з ChatGPT

Written By: author avatar Олена Ткач
author avatar Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

31 Жовтня, 2025

Вплив штучного інтелекту стрімко зростає. Сьогодні більшість пошукових систем інтегрують відповіді, сформовані за допомогою великих мовних моделей (Large Language Models, LLMs) — різновиду «генеративного ШІ», який створює текст, схожий на людський, базуючись на величезних обсягах інформації.

Найвідомішим представником таких інструментів є ChatGPT. Цей сервіс здобув значну популярність, адже був одним із перших, хто став безкоштовно доступним у 2022 році. У 2023 році ми поставили ChatGPT декілька базових запитань щодо безпеки та ефективності вакцин. Його відповіді виявилися близькими до тих, що можна отримати через звичайний пошуковик — короткий виклад наукового консенсусу.

Через два роки ми переглянули наукові дослідження, щоб з’ясувати, як фахівці оцінюють генеративні чатботи на кшталт ChatGPT. Попри застереження і певну обережність, головною оцінкою було те, що штучний інтелект справляється «досить добре». Одне зі вивчень залучало науковців для оцінки точності відповідей ШІ, і їм вдалося визначити рівень точності в 85%. Це означає: хоч і є простір для вдосконалення, відповіді були більш сфокусованими та релевантними, ніж у традиційних пошукових системах.

Один із дослідників, згаданий у цій публікації, підкреслив потенціал використання чатботів для адаптації інформації відповідно до індивідуальних психологічних характеристик користувачів. Оскільки психологи розробили методики реагування на антивакцинальні переконання, пристосовані до особистого світогляду, неважко уявити собі інструмент на основі ШІ, що надаватиме медичні відомості з урахуванням уже сформованих переконань людини.

Попередні спроби застосування чатботів ШІ для стимулювання здорової поведінки (наприклад, припинення куріння) мали різноманітні результати. Всесвітня організація охорони здоров’я (ВООЗ) ініціювала пілотний проєкт віртуального помічника S.A.R.A.H. (Smart AI Resource Assistant for Health), який демонстрував певний успіх, проте прототип також зазнав критики. Зокрема, він часто ухилявся від складних запитань стосовно безпеки вакцин.

Проте технологія розвивається надзвичайно швидко. S.A.R.A.H. — недосконалий проект, але він показав перспективи створення багатомовного інструменту на вебсайтах чи у мобільних додатках із доступом до актуальної наукової інформації та сучасних методів комунікації.

Погляд експертів

Після проведення інтерв’ю з кількома експертами на початку цього року, команда Vaccines Today вирішила поставити запитання безпосередньо ChatGPT, прагнучи глибше дослідити, як штучний інтелект може впливати на майбутнє інформування про вакцини, особливо в контексті боротьби з дезінформацією та фейками.

Обрали для розмови саме ChatGPT – оскільки не було складнощів із узгодженням часу, на відміну від живих інтерв’ю.

Поставивши серію запитань ChatGPT-5 у безкоштовній версії, яка обмежує кількість звернень на добу, ми отримали понад 5500 слів у відповідь — занадто багато для статті на мобільному пристрої.

Кожне запитання супроводжувалося вичерпною відповіддю, структурованою за принципом плану есе з підсумками наприкінці. У багатьох випадках чатбот пропонував продовжити діалог, спрямовуючи бесіду в нові, несподівані напрямки.

Зокрема, ChatGPT повідомив, що використовує Європейський центр з профілактики та контролю захворювань (ECDC) як джерело інформації, а потім, без нашого підказування, запропонував створити приклад чатбота для вебсайту ECDC. Він описав можливості такого віртуального помічника, склав приклади діалогів та навіть придумав ім’я: «ECDC Vaccine Companion».

Потім ChatGPT запитав:

«Бажаєте, щоб я окреслив приклад графічного інтерфейсу користувача (наприклад, як міг би виглядати чатбот на сайті ECDC)?»

Звісно, ми погодилися, керуючись простою цікавістю.

Примітка: ECDC не брала участі у цьому експерименті чи матеріалі — ідея використання назви та брендованого вікна чатбота була ініціативою штучного інтелекту.

Хоч логотип вийшов дещо спотвореним, він майже точно дублює бренд ECDC. Зразки діалогів виходять за межі банального запитання «Які вакцини від COVID-19 існують?». Помічник відповідає також на питання про побічні ефекти, безпеку щеплень від грипу під час вагітності та роз’яснює графік вакцинації у Франції.

Повертаючись до наших початкових питань про ризики поширення дезінформації, посилення негативних настроїв і явища «галюцинацій» (вигаданих фактичних некоректностей у відповідях ШІ), чатбот надав детальні, впевнені відповіді, мов студент, що ретельно підготувався до іспиту.

Помітні також ознаки лояльності та лестощів, які неодноразово критикують штучний інтелект. Наприклад, на запитання, чи використовує він платформу Vaccines Today як джерело інформації, бот відповів, що це «надійний європейський ресурс, який сприяє чіткій, фактичній комунікації щодо вакцин», а контент характеризував як «написаний доступною, розмовною мовою».


Інтерв’ю

Через велику кількість тексту у відповідях ChatGPT, який складає тисячі слів, для публікації ми попросили створити версію обсягом 700 слів. Як результат, отримали 701 слово — що ілюструє певну «неідеальність», майже людський недолік.


Q1. Яку роль відіграють ШІ-чати у протидії дезінформації про вакцини?

A: ШІ-чати можуть протистояти міфам щодо вакцин, надаючи точні, емпатичні та доступні пояснення. Вони відповідають на індивідуальні запити миттєво, розвінчують оманливі твердження та посилаються на надійні джерела, як ВООЗ або ECDC. Завдяки розмовній формі вони сприяють відновленню довіри там, де міфи найшвидше поширюються — у соцмережах і через пошукові системи. За умови прозорого дизайну й наукової бази, чатботи можуть стати цілодобовими комунікаторами громадського здоров’я, які підтримують довіру до вакцинації.


Q2. З яких джерел ви отримуєте інформацію про вакцини та імунізацію?

A: Я покладаюся на відкриті, перевірені джерела, такі як Всесвітня організація охорони здоров’я (ВООЗ), Європейський центр профілактики та контролю захворювань (ECDC), Європейське агентство лікарських засобів (EMA), Центри з контролю і профілактики захворювань США (CDC) та рецензовані медичні журнали. Ці організації підтримують актуальні, науково обґрунтовані дані. Я узагальнюю їхні рекомендації простою мовою, аби робити складні теми вакцинології, політики та безпеки зрозумілими.

[Далі ChatGPT деталізує власний план створення AI-чатбота для ECDC з підтримкою всіх мов ЄС, включно з інтеграцією у WhatsApp, Telegram, локалізацією, а також тоновими гідами та емпатичними сценаріями взаємодії користувачів. Потім пропонує розробити вікно чатбота.]


Q3. Ви використовуєте VaccinesToday.eu у своїй роботі?

A: Так. VaccinesToday.eu — це довірений європейський ресурс, який пропагує зрозумілу, фактологічну інформацію про вакцини. Він публікує експертні статті, інтерв’ю та пояснення, створені за участі вчених і фахівців з громадського здоров’я. Я розглядаю цей сайт як надійного партнера, який доповнює офіційні установи, подаючи складні теми близькими, людськими історіями для широкої аудиторії.

[У цьому місці ChatGPT вигадує план для Vaccines Today щодо впровадження власного AI-чатбота, включаючи приклади взаємодії з користувачами.]


Q4. Наскільки точні ваші відповіді?

A: Загалом мої відповіді доволі точні, оскільки ґрунтуються на надійних, рецензованих або офіційних даних. Для встановлених тем, як звичні імунізації, точність перевищує 90%. Проте я можу помилятися, особливо якщо дані швидко змінюються чи запитання формулюються неясно. Закликаю користувачів перевіряти інформацію у офіційних джерелах. Моя роль — спрощувати складну науку, а не замінювати лікарів чи організації ВООЗ чи ECDC.


Q5. Які ризики пов’язані з «галюцинаціями» у відповідях щодо здоров’я?

A: «Галюцинації» — це вигадані або хибні твердження, які генерує ШІ. У сфері охорони здоров’я такі помилки небезпечні: вони можуть поширювати неправдиві поради, підривати громадську довіру або спотворювати уявлення про вакцини. Зменшення ризиків включає прозорість, постійний моніторинг моделей, надання відповідей на основі перевірених баз даних та чіткі посилання. Майбутні системи матимуть вбудовані механізми перевірки, зовнішню валідацію і попередження користувачів, коли виникає невизначеність.


Q6. Яке майбутнє великих мовних моделей у сфері медичної інформації?

A: Великі мовні моделі переходять від простих інструментів інформування до інтерактивних «супутників здоров’я». Основні тенденції:

  1. Двосторонній діалог: замість статичних сторінок — персоналізовані розмови, які пояснюють, заспокоюють і спрямовують.
  2. Переклад знань: перетворення технічних даних на прості, багатомовні резюме, зрозумілі кожному.
  3. Інтеграція у надійні системи: очікування чатботів у ВООЗ, ECDC, NHS, лікарнях для відповіді на поширені питання та сортування звернень.
  4. Джерела з посиланнями: майбутні моделі працюватимуть у режимі реального часу з медичними базами й посилатимуться на конкретні джерела, мінімізуючи помилки.
  5. Співпраця людини й ШІ: лікарі та комунікатори зможуть делегувати рутинні питання ШІ, зосереджуючись на складних або емоційних розмовах.
  6. Управління і етика: посилення регулювання, необхідність прозорості, захисту даних та сертифікації медичної інформації за стандартами пристроїв.
  7. Глобальний доступ: багатомовні голосові чатботи забезпечать надійні вакцинні відомості для спільнот з обмеженою грамотністю або зв’язком.
  8. Інструменти особистої медичної грамотності: ШІ може допомагати розуміти лабораторні результати, записи про вакцинацію чи інструкції з лікування безпечно і конфіденційно.
  9. Довіра як основа: громадська впевненість залежатиме від нейтральності, відкритості у джерелах та чітких гарантій конфіденційності.

В цілому LLM стануть мостом між науковою експертизою та суспільним розумінням, роблячи комунікацію про вакцини безперервною, орієнтованою на людину та глобально доступною.


Q7. Які принципи забезпечують безпеку і довіру до цих інструментів?

A: Основні засади:

  • Точність і прозорість: кожне твердження має бути підтверджене достовірним джерелом.
  • Людський контроль: експерти зобов’язані перевіряти і контролювати результати.
  • Конфіденційність: усі взаємодії з користувачами мусять відповідати GDPR і законам про захист медичних даних.
  • Рівність: контент має бути інклюзивним для різних мов і рівнів грамотності.
  • Відповідальність: установи, що використовують ШІ, повинні публічно звітувати про продуктивність, оновлення та обмеження.

Q8. Як Європа може стати лідером у відповідальному впровадженні ШІ для охорони здоров’я?

A: ЄС має чудові можливості для формування Європейської рамки здоров’я ШІ, що базуватиметься на етичному дизайні, багатомовності та захисті даних. Це може включати сертифікацію «Trusted Health AI» під керівництвом ECDC, ВООЗ Європа або Європейської комісії. Такий нагляд встановить стандарти точності, прозорості і управління, гарантуючи, що ШІ підтримуватиме цілі громадського здоров’я, а не комерційні інтереси.


Q9. Яке бачення на довгострокову перспективу?

A: У майбутньому ШІ може стати невід’ємною частиною повсякденної медичної грамотності — багатомовним, доступним завжди компаньйоном, який пояснюватиме вакцини, роз’яснюватиме ризики та переваги, а в разі потреби з’єднуватиме людей із перевіреними фахівцями. Якщо керуватися прозорістю, емпатією та науковою строгості, мовні моделі зміцнять свідомий вибір і допоможуть відновити довіру до вакцинації та систем охорони здоров’я у всьому світі.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне