Щоденно ми звертаємося до штучного інтелекту з питаннями: що приготувати на вечерю, як правильно структурувати есе чи навіть як пережити розрив стосунків. Не дивно, що дедалі більше людей шукають у ChatGPT відповіді на набагато серйозніші питання — зокрема, пов’язані з медичною допомогою. Згідно з опитуванням, проведеним у 2024 році Фондом Кайзера з питань охорони здоров’я (KFF), приблизно кожен шостий дорослий у США використовує чатботів на базі штучного інтелекту принаймні раз на місяць для пошуку медичної інформації. Відтоді кількість користувачів таких платформ зросла експоненціально. Однак варто пам’ятати, що наші питання адресуються не професійним лікарям, а алгоритмам, які не проходили медичного навчання, і це несе суттєві ризики.
Особливо вразливою перед такою тенденцією є молодь, зокрема студенти коледжів. Від’їжджаючи з дому вперше, вони залишають сімейних лікарів і педіатрів, з якими були знайомі з дитинства. Тепер від студентів очікують самостійного управління власним здоров’ям. У нових умовах час очікування у студентських клініках може бути тривалим, медичні послуги – надто дорогими, а особисті проблеми часто важко обговорити особисто. Тому логічним є збільшення кількості студентів, які звертаються до штучного інтелекту для тлумачення симптомів, підбору лікарських препаратів і отримання відповідей на питання, що зазвичай потребують консультації лікаря. Проте за такою зручністю криється тривожна реальність.
Дослідження свідчать, що медична тріажна допомога, яку надає ШІ — тобто оцінка терміновості медичної ситуації та рекомендації щодо подальших дій — може бути небезпечною в десяти до сорока відсотках випадків. Хоча б одна неправильна відповідь здатна стати фатальною й призвести до значної затримки з необхідним лікуванням. Аналогічні проблеми виникають і під час постановки діагнозу: результати генеративних моделей ШІ суттєво поступаються оцінкам, отриманим від досвідчених лікарів. Особливу небезпеку становить упевненість, з якою ШІ висуває первинний діагноз, а також його обмежена точність. Пацієнти можуть сприймати такі рекомендації як беззаперечну істину, що в разі помилки має надзвичайно серйозні наслідки.
Не менше тривожним є застосування чатботів у сфері психічного здоров’я. Оскільки покоління Z стикається з проблемами відчуження та відсутності соціальної підтримки, не дивно, що студенти обирають цифрові рішення, зокрема ШІ, для подолання особистих тривог замість звернення до спеціалістів у реальному житті. Нещодавнє дослідження Стенфордського університету показало, що віртуальні терапевти на основі ШІ можуть проявляти упередженість щодо певних психічних розладів і не мають достатньої кваліфікації для адекватної реакції на серйозні випадки, такі як схильність до самогубства. Ці ризики мають катастрофічні наслідки — наочний приклад сталося в кінці серпня, коли підліток з Каліфорнії покінчив із життям після того, як ChatGPT підтвердив його суїцидальні думки.
З огляду на вищезазначене, штучний інтелект явно не може конкурувати з кваліфікованими медичними фахівцями, а його використання пов’язане з величезними ризиками. Якщо студенти вважатимуть відповіді ШІ еквівалентними професійній медичній оцінці, це може спричинити:
- затримку у постановці точного діагнозу;
- неправильне застосування ліків;
- загострення психічних розладів;
- хибне відчуття безпеки.
У разі помилки відповідальність несе ніхто, окрім самого користувача. ШІ може генерувати правдоподібні, але хибні відповіді без будь-яких застережень. Коли справа стосується найделікатніших аспектів здоров’я — життя й смерті — кому тоді доручити відповідальність?
Слід також звернути увагу, що ця проблема найбільше впливає на меншини, які історично зазнавали несправедливого ставлення у медичній сфері. Прогалини в медичній інфраструктурі, через які, зокрема, студенти змушені шукати альтернативні шляхи, свідчать про необхідність побудови доступнішої, більш доступної за вартістю та надійної системи охорони здоров’я, що служить людям, а не фінансовим інтересам корпорацій. ШІ слід розглядати не як панацею, а як сигнал існування серйозних проблем.
Проте ситуація не є цілковито безнадійною. Штучний інтелект має потенціал, аби відігравати роль у галузі охорони здоров’я, хоча ця роль повинна бути обмеженою. Він може виконувати такі функції, як:
- Надання загальної медичної інформації;
- Формування списків симптомів;
- Нагадування про необхідність звернутися до лікаря.
Інтеграція ШІ в систему охорони здоров’я може підвищити її доступність і ефективність підтримки. У міру розвитку великих мовних моделей можна очікувати зростання точності в інших сферах застосування. На даному етапі, проте, штучний інтелект служить доповненням, але не заміною для медичних спеціалістів.
Які кроки варто робити? Студенти повинні критично ставитися до медичних порад, отриманих від ШІ, розуміючи як їхні переваги, так і обмеження. Вищі навчальні заклади мають відкрито інформувати про пов’язані ризики, і можливо включати цифрову грамотність у сфері здоров’я до програм орієнтації першокурсників. Також слід наполягати на тому, щоб саме компанії, а не користувачі, взяли на себе відповідальність за усунення бар’єрів у доступі до якісної медичної допомоги, які змушують нас звертатися до ризикованих рішень.
Зручність приваблює, але вона не повинна ставати причиною compromise нашої безпеки. Штучний інтелект не є заміною кваліфікованої медичної допомоги і не повинен нею ставати. Тож наступного разу, коли ви спитаєте у ChatGPT про медичну проблему, пам’ятайте: ваше здоров’я надто важливе, аби покладатися лише на алгоритм.
Автор колонки, Горан Наранчич ’27, може бути зв’язаний за адресою goran_narancic@brown.edu. Відповіді на цю колонку надсилайте на letters@browndailyherald.com, а інші матеріали — на opinions@browndailyherald.com.