InvestigateTV повідомляє, що ChatGPT — інструмент штучного інтелекту, який є простим у користуванні, зазнав вибухового зростання популярності за останні роки. За словами Р. Дж. Кросса, керівника онлайн-програми життя в організації US PIRG, «ChatGPT став найшвидше освоюваною споживчою технологією в історії. Мільйони людей миттєво почали використовувати його».
Ця програма ґрунтується на технології штучного інтелекту, відомій як велика мовна модель. Користувач вводить запит або питання, а штучний інтелект практично миттєво формує відповідь. Кросс зазначає, що саме ChatGPT «зламав бар’єр» і привернув увагу американської аудиторії до генеративного штучного інтелекту та чат-ботів.
Разом із тим, за словами експерта, ChatGPT не збирається зникати, проте створює серйозні занепокоєння щодо конфіденційності даних:
– Конфіденційність є ключовим питанням у всіх чатбот-сервісах, особливо у ChatGPT.
– Не слід вважати, що будь-яка ваша переписка з ChatGPT є приватною.
– OpenAI зобов’язана зберігати журнали чатів необмежений час через юридичний наказ у рамках поточного судового розгляду, адже видалення цих даних могло б означати знищення доказів.
– Відповідно, будь-яка інформація, яку ви передаєте ChatGPT, швидше за все, зберігатиметься на серверах OpenAI навіть після вашого запиту про видалення.
Кросс також повідомила, що OpenAI раніше надавала інструменти для видалення даних і висловила сподівання на їх відновлення. В особистій практиці вона радить ніколи не ділитися з ChatGPT інформацією, якою не хочете, щоб хтось інший міг ознайомитися. Також експертка рекомендує уникати надання конфіденційних відомостей, зокрема таких, що стосуються здоров’я. Вона пояснює:
– OpenAI не зобов’язана дотримуватися стандартів HIPAA.
– Жодна технологічна компанія не підпадає під дію цих норм.
– Ваші медичні дані захищені HIPAA лише тоді, коли вони перебувають у руках лікарів, медичних закладів або страхових компаній.
– Вся інформація, яку ви вводите до ChatGPT, а також у застосунки для фітнесу або контролю харчування, не захищена згідно з HIPAA.
Для користувачів, які стурбовані безпекою своїх даних, PIRG підготувала рекомендації з конфіденційності, включно з порадами, як відмовитися від використання їхніх чатів для навчання моделей ШІ.
Щодо дослідників, які планують застосовувати ChatGPT у своїй роботі, Кросс застерігає діяти обережно:
– ChatGPT не може розрізняти правду і неправду.
– Модель розпізнає мовні закономірності, але не здатна гарантувати достовірність фактів.
– Ця особливість, на думку експерта, залишатиметься характерною для таких технологій.
InvestigateTV звернувся до OpenAI з проханням надати коментарі щодо покращення інструментів конфіденційності. Нещодавно компанія повторно запровадила функцію «тимчасових чатів», яка автоматично видаляє дані через 30 днів. Однак у Кросс залишаються питання про те, яку саме інформацію справді стирають, з огляду на поточні судові обмеження та юридичні зобов’язання компанії.
© 2025 Gray Media Group, Inc. Всі права захищені.