Світ стрімко змінюється під впливом штучного інтелекту, таких інструментів, як ChatGPT і Sora, які за лічені місяці стали невід’ємною частиною нашого повсякдення. Через це виникає спокуса сприймати їх як всемогутні джерела розв’язання будь-яких життєвих проблем. Проте варто пам’ятати: ChatGPT – майстер впевнених вигадок. Цей інструмент чудово вміє залишатися „переконливо помилковим“, надаючи відповіді, які можуть бути упередженими, застарілими або просто неправильними, але звучать так упевнено, ніби їх надає доктор наук.
Таке ставлення не несе шкоди, якщо, наприклад, ви просите написати вірш про свого кота. Але це може стати справжньою катастрофою, коли йдеться про поради щодо фінансів, здоров’я чи серйозних юридичних питань. Неправильна відповідь у цих сферах може мати важкі реальні наслідки. Тому важливо знати, у чому цей штучний інтелект особливо слабкий. Нижче наведено 11 тем, у яких не рекомендується звертатися за порадою до ChatGPT.
(Відкритий факт: компанія Ziff Davis, материнська компанія CNET, у квітні подала позов проти розробника ChatGPT, OpenAI, з обвинуваченням у порушенні авторських прав Ziff Davis в процесі навчання та експлуатації їхніх систем ШІ.)
Не пропустіть жодного об’єктивного матеріалу та лабораторних оглядів з техніки. Додайте CNET до улюблених джерел Google.
- 
Діагностика фізичного здоров’я 
 З цікавості я декілька разів вводив у ChatGPT опис своїх симптомів, і відповіді, що надходили, могли би обернутися вашим найгіршим кошмаром. В пошуку можливих діагнозів можна опинитися від зневоднення чи грипу аж до якогось виду раку. Наприклад, я вводив інформацію про грудну пухлину, і ChatGPT припустив, що це може бути рак. Насправді ж у мене був ліпома — доброякісне утворення, що трапляється в одного з тисячі людей, і про це мені повідомив сертифікований лікар.
 При цьому я не заперечую користь ШІ для здоров’я: він допоможе сформулювати питання для наступного візиту до лікаря, роз’яснити медичні терміни та систематизувати симптоми у хронологічному порядку, що зробить консультацію менш напруженою. Проте ШІ не може призначити лабораторні аналізи або провести огляд, і звісно ж, не має страховки від професійної недбалості. Важливо розуміти ці обмеження.
- 
Підтримка психічного здоров’я 
 ChatGPT може запропонувати техніки заземлення, але він не зможе дзвонити вам під час реальної кризи психічного стану. Дехто використовує його замість терапевта. Журналістка CNET Корін Цезарік виявила, що він може трохи допомогти в опрацюванні скорботи, за умови усвідомлення обмежень такого інструменту. Проте для глибшої, складної роботи над психікою, яку веде справжній, компетентний фахівець, ChatGPT — лише бліда імітація, а у гіршому випадку — ризик.
 ШІ не має життєвого досвіду, не вміє читати мову тіла або тон голосу і не здатен до щирої емпатії. Він лише імітує це. Ліцензований терапевт керується етичними нормами та законодавством, аби захистити пацієнта від шкоди. В порадах чатбота можливі промахи, пропуски важливих сигналів чи небажане укріплення наявних упереджень у навчальній базі. Тож залиште роботу над внутрішніми проблемами кваліфікованій людині. У разі кризи телефонуйте 988 у США або місцеву лінію допомоги.
- 
Прийняття невідкладних заходів безпеки 
 Якщо задзвонив сигнал датчика чадного газу, не відкривайте ChatGPT, щоб запитати, чи існує реальна загроза. Найперше вийдіть назовні, а вже потім задавайте питання. Великі мовні моделі не можуть відчути запах газу, виявити дим або викликати рятувальників. Кожна секунда, витрачена на набір тексту у критичній ситуації, — це секунда, що могла би врятувати життя. ChatGPT може працювати лише з інформацією, яку ви йому надаєте, але в надзвичайних випадках ці дані можуть бути недостатніми й запізнілими. Уявляйте чатбота як підтримку після інциденту, а не як першого рятувальника.
- 
Індивідуальне фінансове та податкове планування 
 ChatGPT пояснить, що таке ETF, але він не знає вашого співвідношення боргів до доходів, податкової ставки у вашому штаті, статусу подачі, пільг, цілей накопичення чи готовності до ризику. Його навчальна база, можливо, не містить актуальної інформації про поточний податковий рік чи останні зміни в ставках, тому поради можуть бути застарілими на момент запиту.
 Друзі інколи вводять ChatGPT свої доходи з форм 1099 для самостійного заповнення декларацій, але чатбот не здатен замінити сертифікованого бухгалтера, який зможе виявити приховані знижки або помилки, здатні забезпечити заощадження на сотні доларів чи уникнути штрафів у тисячі. Коли на кону великі гроші, терміни подачі і ризик покарань з боку податкової, краще звернутися до фахівця, а не до ШІ. Також пам’ятайте, що будь-яка інформація, якою ви поділитесь з чатботом, швидше за все буде використана для подальшого навчання моделей, включно з вашими доходами, номерами соціального страхування та банківськими даними.
- 
Обробка конфіденційних або регульованих даних 
 Як журналіст технічної тематики, я щодня отримую інформацію під ембарго, але ніколи не вводив такі пресрелізи у ChatGPT для отримання резюме або коментарів. Це пов’язано з тим, що будь-який текст, введений у ШІ, перестає бути під вашим контролем і може потрапити на сторонні сервери поза межами умов угоди про нерозголошення.
 Ця загроза також стосується договорів із клієнтами, медичних карток, а також інформації, захищеної законами Калифорнійського закону про захист споживачів, HIPAA, GDPR або правилами збереження комерційної таємниці. Аналогічно це стосується податкових декларацій, свідоцтв про народження, водійських посвідчень і паспортів. Після введення у вікно запиту неможливо гарантувати, де зберігатимуться дані, хто їх може переглянути та чи не стануть вони частиною майбутніх навчальних наборів. ChatGPT також уразливий до хакерських атак та загроз безпеці. Якщо ви не хочете розміщувати інформацію у публічному каналі Slack, не вводьте її у чатбот.
- 
Вчинення незаконних дій 
 Цей пункт зрозумілий без коментарів.
- 
Шахрайство з навчальними завданнями 
 Не буду приховувати, що у школі я користувався першим поколінням iPod Touch для підглядання складних формул із курсу AP калькулясу, що не викликає особливої гордості. Однак у порівнянні з сучасним масштабом шахрайства за допомогою ШІ це здається дрібницею.
 Програми на кшталт Turnitin постійно вдосконалюють системи виявлення текстів, створених штучним інтелектом, а викладачі вже безпомилково розпізнають „голос ChatGPT“ із далекої відстані (дякую за знищення мого улюбленого тире). Відсторонення, виключення з навчального закладу і навіть позбавлення ліцензій – реальні наслідки. Краще використовувати ChatGPT як помічника у вивченні, а не як „привида-письменника“. Тим більше, що отримавши відповіді без власної праці, ви просто позбавляєте себе якісної освіти.
- 
Моніторинг інформації та останні новини 
 З запуском ChatGPT Search наприкінці 2024 року (який став доступним для всіх у лютому 2025) чатбот здатен миттєво знаходити актуальні веб-сторінки, котирування акцій, ціни на паливо, спортивні результати та інші оперативні дані з клікабельними посиланнями для перевірки джерела. Проте він не веде безперервне оновлення інформації. Кожен новий запит потребує введення запиту заново, тому у випадках, коли швидкість є критичною, кращими залишаються стрічки новин, офіційні пресрелізи, новинні сайти, push-сповіщення та живі трансляції.
- 
Азартні ігри 
 Особисто мені поталанило з ChatGPT, коли я вгадав трипарний парлей під час чоловічого чемпіонату з баскетболу NCAA, але я б нікому цього не радив. Я неодноразово бачив, як чатбот вигадує помилкові статистики гравців, неправильно повідомляє про травми та результати ігор. Виграш стався лише через те, що я перепровірив усю інформацію з реальними коефіцієнтами, і все одно це була справа удачі. ChatGPT не може передбачити майбутні ігрові результати, тож не варто покладатися лише на нього.
- 
Складання заповіту або інших юридично обов’язкових документів 
 ChatGPT добре підходить для пояснення базових юридичних понять. Якщо вас цікавить, наприклад, що таке відзивний довірчий фонд, можете спокійно запитувати. Але щойно справа доходить до створення юридичного тексту, ситуація ускладнюється. Правила спадкування й сімейного права різняться залежно від штату, а іноді навіть округу, тому пропуск свідків або відсутність нотаріального посвідчення може призвести до визнання документу недійсним. Краще дайте ChatGPT допомогти у формуванні переліку питань для адвоката, а вже фахівець перетворить цей список у юридично обґрунтований документ.
- 
Створення мистецтва 
 Це не об’єктивний факт, а особиста позиція, але я переконаний: штучний інтелект не повинен використовуватися для створення мистецтва. Я не виступаю проти штучного інтелекту: використовую ChatGPT для генерації ідей, допомоги у заголовках, але це доповнення, а не заміна. Звісно, використовуйте ChatGPT, але не створюйте за його допомогою твори, які потім видаєте за свої. Це викликає певний етичний дискомфорт.