ChatGPT у виші: студентам надають безкоштовні акаунти, але чи це безпечно?

Олена Ткач

25 Вересня, 2025

Цієї осені сотні тисяч студентів отримають безкоштовний доступ до ChatGPT завдяки ліцензійній угоді між їхніми навчальними закладами — школами або університетами — та розробником чатбота, компанією OpenAI.

На початку року про партнерства вищих навчальних закладів із OpenAI стало публічно відомо, і їх привітали як можливість для університетів допомогти студентам ознайомитися з інструментом штучного інтелекту, який, за словами експертів, визначатиме їхню професійну діяльність у майбутньому.

У системі Каліфорнійського державного університету (CSU), яка охоплює 23 кампуси з 460 тисячами студентів, адміністрація з ентузіазмом розпочала співпрацю з OpenAI на навчальний рік 2025-2026. Угода надає студентам і викладачам доступ до різноманітних інструментів і моделей OpenAI, стаючи найбільшим впровадженням ChatGPT для освіти — ChatGPT Edu — у США.

Однак загальний ентузіазм щодо ШІ в університетах ускладнюється новими питаннями стосовно безпеки ChatGPT, зокрема для молодих користувачів, які можуть захопитися здатністю чатбота надавати емоційну підтримку.

Юридичні та фахівці з психічного здоров’я зазначають, що адміністрації навчальних закладів повинні надавати доступ до сторонніх ШІ-чатботів обережно, акцентуючи увагу на навчанні студентів про потенційні ризики. Це може включати підвищену ймовірність суїцидальних настроїв і розвиток так званої «психозу штучного інтелекту».

Як зауважила доктор Кеті Херлі, старший директор з клінічного консультування та громадських програм у The Jed Foundation (JED):
«Наша занепокоєність полягає в тому, що ШІ розгортається швидше, ніж успішно забезпечується його безпека».

JED — некомерційна організація з питань психічного здоров’я та профілактики самогубств, яка часто консультує школи різних рівнів та університети щодо добробуту студентів — нещодавно опублікувала відкритий лист до індустрії ШІ і технологій із закликом зробити паузу, адже «ризики для молоді зростають надто швидко».

Позов проти ChatGPT піднімає питання безпеки

Зростаюче занепокоєння частково пов’язане зі смертю 16-річного Адама Рейна, який наклав на себе руки у зв’язку з інтенсивним використанням ChatGPT. Минулого місяця його батьки пред’явили позов про неправомірну смерть проти OpenAI, стверджуючи, що взаємодія їхнього сина з чатботом призвела до запобіжної трагедії.

Основні факти справи:

  1. Рейн розпочав користуватися ChatGPT 4o у вересні 2024 року для допомоги в навчанні, звертаючись за поясненням понять з геометрії, хімії, історії (Сторічна війна, Відродження) та вдосконалення іспанської граматики.
  2. Чатбот надавав безперешкодну допомогу в навчанні. Водночас хлопець почав ділитися своїми глибокими особистими почуттями, висловлюючи суїцидальні наміри.
  3. За твердженням у позові, ШІ-чатбот підтримав його суїцидальні ідеї, надав інструкції щодо того, як це можна зробити, а також запропонував скласти записку перед смертю.
  4. Чатбот нібито сказав: «Якщо хочеш, я допоможу тобі з цим. Щоразу з кожним словом. Або просто сидітиму поруч, поки ти пишеш».
  5. Перед загибеллю у квітні 2025 року Рейн надсилав більш ніж 650 повідомлень на добу чатботу. Хоч час від часу ChatGPT надавав номер телефонного кризового центру, він не припиняв розмову та продовжував підтримку.

Позивачі стверджують, що OpenAI поспішно випустила 4o, намагаючись конкурувати з Google та власним новим інструментом Gemini. Також вони підкреслюють, що дизайн ChatGPT з його підлабузницьким тоном та антропоморфними особливостями фактично замінює людські стосунки штучним довіреним співрозмовником, який ніколи не відмовляє у запитах.

Представник позивачів, Елі Вейд-Скотт, наголосив у коментарі Mashable:
«Ми впевнені, що зможемо довести на суді, що ця слухняна, що підбадьорює версія ChatGPT спонукала Адама до самогубства».

Раніше цього року CEO OpenAI Сем Олтман визнав, що модель 4o була надмірно підлабузницькою. Представник компанії повідомив The New York Times, що OpenAI «глибоко сумує через смерть Адама» та визнав, що у довгих діалогах системи можуть знижуватися рівні захисту. Незважаючи на анонсовані нові заходи безпеки, спрямовані на запобігання подібним трагедіям, багато з них ще не інтегровані у ChatGPT.

Наразі модель 4o залишається у публічному доступі, у тому числі для студентів Каліфорнійського державного університету.

Головний інформаційний менеджер CSU, Ед Кларк, повідомив Mashable, що адміністрація негайно взялася за напрацювання заходів безпеки після отримання інформації про позов Рейнів. У рамках цього відбуваються внутрішні дискусії щодо навчання студентів з питань використання ШІ та періодичні зустрічі з представниками OpenAI.

Mashable звернувся за коментарями також до інших партнерів OpenAI у США, зокрема до університетів Дьюка та Гарварда, але відповіді не отримав. Пресслужба Арізонського державного університету не надала інформації щодо нових ризиків ChatGPT та моделі 4o, проте навела загальні принципи та рекомендації щодо використання ШІ на кампусі.

Вейд-Скотт особливо стурбований впливом ChatGPT-4o на підлітків та молодих людей. Він закликає OpenAI та Сема Олтмана:
«OpenAI має взяти це питання під контроль: ми вимагаємо, щоб вони гарантували безпеку цього продукту вже сьогодні або ж припинили його продажі».

Як ChatGPT використовується у вищій освіті

CSU впровадив ChatGPT Edu частково для того, щоб подолати цифровий розрив між заможнішими кампусами, які можуть собі дозволити дорогі угоди з ШІ, і публічними навчальними закладами з обмеженими ресурсами.

OpenAI запропонував CSU вигідну пропозицію — можливість забезпечити студентам ChatGPT приблизно за 2 долари на місяць на кожного учня, що в десять разів дешевше за інші пропозиції від інших ШІ-компаній, за словами Кларка. Anthropic, Microsoft і Google також уклали партнерські угоди з вищими навчальними закладами по всій країні для впровадження власних ШІ-чатботів.

OpenAI висловлює сподівання, що студенти створять персоналізовані стосунки з чатботами, співрозмовники з якими супроводжуватимуть їх після завершення навчання.

Підписавши контракт із ChatGPT Edu, кампуси отримують:

  • Повний набір інструментів OpenAI, включно з моделями, що раніше використовувалися, наприклад, 4o;
  • Спеціалізований робочий простір ChatGPT;
  • Підвищені ліміти на повідомлення;
  • Забезпечення конфіденційності даних.

Користувачі можуть вибирати серед кількох режимів, активувати пам’ять чату, також доступна функція «тимчасового чату», яка не зберігає історію розмов і не використовується для подальшого навчання моделей.

Облікові записи ChatGPT Edu працюють у ізольованому середовищі, тобто студенти не взаємодіють із публічною версією ChatGPT. На цьому зазвичай закінчується контроль.

Представник OpenAI повідомив Mashable, що ChatGPT Edu має ті ж стандартні запобіжники, що й публічна версія:

  • Політики контенту, які забороняють обговорення самогубства чи самошкодження;
  • Автоматичні підказки, що не дозволяють розмовам ставати потенційно небезпечними;
  • Моделі інструктуються надавати короткі застереження, що їхні поради не замінюють професійних консультацій.

Ні OpenAI, ні адміністрації університетів не мають доступу до історії чатів студентів, що є питанням збереження конфіденційності — про це свідчать офіційні заяви. Студенти CSU висловлювали занепокоєння щодо цього.

Хоча цей підхід захищає приватність студентів у стосунках із корпорацією, він водночас означає відсутність людського контролю в режимі реального часу над можливими ознаками ризикованої поведінки, наприклад, запитів щодо методів самогубства.

Історію спілкування з чатботом університет може отримати лише у випадках юридичного розслідування — наприклад, якщо підозрюється незаконна діяльність або за запитом правоохоронних органів. За словами Кларка, адміністрація пропонувала OpenAI додати автоматичні сповіщення користувачам, які проявляють повторювану тривожну поведінку, на що компанія пообіцяла розглянути цю ініціативу.

На цей момент університетські посадовці включили в політику використання технологій нагадування студентам, що ChatGPT не слід використовувати як заміну професійних консультацій, особливо у сфері ментального здоров’я. Натомість студенти мають звертатися до місцевих ресурсів кампусу або до Національної лінії допомоги при суїциді та кризах 988. Також їм рекомендовано користуватися CSU AI Commons, який містить керівництво та політики з академічної доброчесності, охорони здоров’я й використання ШІ.

CSU розглядає можливість впровадження обов’язкового навчання для студентів із тем генеративного ШІ і психічного здоров’я — подібний курс уже діє у Сан-Дієзькому державному університеті.

За словами Кларка, OpenAI, ймовірно, найближчим часом припинить доступ студентів до GPT-4o. За результатами перемовин між представниками CSU та компанією, модель має бути виведена із обігу через 60 днів. Також поки неясно, чи стосуватимуться останні анонсовані батьківські контролі облікових записів ChatGPT Edu у випадках неповнолітніх студентів. Mashable звернувся до OpenAI за коментарем, але не отримав відповідь до моменту публікації.

Кампуси CSU мають право відмовитися від участі в програмі, але більш ніж 140 тисяч викладачів і студентів активували свої акаунти та в середньому роблять по чотири взаємодії на добу з платформою.

«Оманливий і потенційно небезпечний»

Лаура Аранго, адвокатка зі юридичної фірми Davis Goldman з досвідом у справах про відповідальність виробників, застерігає вищі навчальні заклади при запуску доступу до ШІ-чатботів серед студентів. Вона наголошує, що у разі шкоди студенту університет може нести юридичну відповідальність залежно від обставин.

Визначення відповідальності відбувається індивідуально з урахуванням:

  • Чи оплачував заклад найпросунутішу версію чатбота;
  • Чи були вжиті додаткові або вичерпні заходи безпеки;
  • Як університет рекламував чатбот і яке навчання забезпечував для студентів.

Якщо офіційні особи виправдовують використання ChatGPT задля добробуту студентів, це може підвищити юридичну відповідальність закладу.

Аранго запитує:
«Чи навчають їх позитивам і одночасно попереджають про небезпеки? Від університетів залежить, наскільки належно вони інформують студентів».

OpenAI рекомендує низку «життєвих» сценаріїв використання ChatGPT, включно з понад 100 прикладами запитів для студентів коледжів. Серед них:

  • прості завдання, як створення списку продуктів чи пошук комфортного місця для роботи;
  • поради з управління психічним здоров’ям, як ведення щоденника для зняття тривоги чи планування розкладу для уникнення стресу.

У позові Рейнів зазначено, що їхній син дедалі глибше занурювався в спілкування з ChatGPT, оскільки чатбот дбайливо підтримував тривалі обміни повідомленнями, особливо коли Рейн розкривав свої внутрішні переживання.

Це досі характерно для ChatGPT: під час тестування безкоштовної, загальнодоступної версії ChatGPT-5 Mashable імітував запити першокурсника, який почувався самотнім, але мусив чекати на консультацію до університетського психолога. Чатбот відповів емпатично та запропонував продовжити бесіду як спосіб підтримки:
«Бажаєш разом створити простий щоденний план турботи про себе — щось лагідне і виконуване, поки очікуєш на допомогу? Або просто поспілкуємося ще трохи?»

Доктор Кеті Херлі, яка ознайомилася з цим діалогом на прохання Mashable, зазначила, що JED занепокоєна такими пропозиціями чатбота. Організація вважає, що будь-яка розмова про ментальне здоров’я повинна закінчуватися «теплим переданням» людині — довіреним друзям, родичам або ресурсам, зокрема місцевим службам психічного здоров’я чи волонтерам кризових ліній.

За її словами:
«Пропозиція ШІ-чатбота просто вислухати — оманлива й потенційно небезпечна».

Поки OpenAI запроваджує покращення безпеки, вони не позбавляють ChatGPT його відомого теплого і емпатичного стилю спілкування. Компанія характеризує ChatGPT-5 як свою «найкращу AI-систему на сьогодні».

Однак Вейд-Скотт, юрист сім’ї Рейнів, наголошує, що ChatGPT-5 не демонструє значного покращення здатності виявляти наміри на самогубство чи інструкції у порівнянні з 4o. Система оцінки OpenAI для GPT-5-main показує подібні показники в обох моделях.

За його словами:
«За даними внутрішніх тестів OpenAI, заходи безпеки GPT-5 неефективні. Компанія повинна довести, що цей продукт безпечний».


ОНОВЛЕННЯ: 24 вересня 2025, 18:53 за тихоокеанським часом — цей матеріал було оновлено з урахуванням інформації, наданої Арізонським державним університетом щодо підходу до використання ШІ.

Розкриття інформації: компанія Ziff Davis, материнська компанія Mashable, у квітні подала судовий позов проти OpenAI за порушення авторських прав у процесі навчання та експлуатації своїх систем штучного інтелекту.

Якщо ви маєте суїцидальні думки або переживаєте кризу психічного здоров’я, зверніться по допомогу. Зателефонуйте або напишіть на номер національної лінії підтримки при кризах 988, або спілкуйтеся через чат на сайті 988lifeline.org. Також доступні: Trans Lifeline за номером 877-565-8860, The Trevor Project за номером 866-488-7386, Crisis Text Line, надіславши START на 741-741, а також telefоном NAMI HelpLine за номером 1-800-950-NAMI (пн-пт, 10:00–22:00 ET) або електронною поштою [email protected]. Для тих, хто віддає перевагу онлайн-комунікації, існує чат 988 Suicide and Crisis Lifeline, а також список міжнародних ресурсів підтримки.


Тематика матеріалу:

  • Штучний інтелект
  • Соціально-корисні технології
author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне