OpenAI Заблокувала Облікові Записи ChatGPT, Пов’язані з Китайськими Хакерами, Що Розробляють Шкідливе Програмне Забезпечення

Олена Ткач

8 Жовтня, 2025

OpenAI провела рішучі заходи для припинення зловживань своїми моделями ChatGPT, заблокувавши акаунти, що були пов’язані з групою хакерів із Китаю. Цей крок відповідає ключовій меті компанії — забезпечити, щоб штучний загальний інтелект приносив користь усім. Визначаючи чіткі правила й оперативно реагуючи на порушення політики, OpenAI прагне зберегти безпеку та доступність своїх інструментів для легітимних користувачів.

З моменту запуску публічного звітування про загрози у лютому 2024 року, компанія виявила та ліквідувала понад 40 мереж, які неправомірно використовували її сервіси. У своєму останньому квартальному оновленні OpenAI повідомила про ідентифікацію хакерської групи в Китаї, яка застосовувала ChatGPT для створення та покращення коду шкідливого програмного забезпечення.

Особливості діяльності цієї групи:

  • Поєднання рекомендацій штучного інтелекту зі застарілими методами експлуатації вразливостей для пришвидшення кібератак;
  • Виявлення командою з аналізу загроз атипових шаблонів запитів і повторюваних запитів щодо створення шкідливих payload’ів;
  • При явних порушеннях політики акаунти були заблоковані й позбавлені подальшого доступу.

Повідомлення підкреслює, що зловмисники здебільшого модифікують існуючі методики, а не створюють принципово нові. За останній квартал більшість загроз становили:

  1. Сценарії фішингу, посилені штучним інтелектом;
  2. Автоматизовані запити для соціальної інженерії;
  3. Код, призначений для обходу систем виявлення.

Документуючи ці кейси, OpenAI демонструє, як групи загроз інтегрують ШІ у традиційні схеми дій, віддаючи перевагу швидкості над новизною.

Заблокована китайська група — лише один із прикладів подібних інцидентів, проте їх викриття слугує чітким сигналом: зловживання штучним інтелектом спричинять швидкі та прозорі протидії. Для виявлення зловживань OpenAI використовує комплексний підхід, який поєднує моніторинг сигналів, експертний аналіз і вивчення поведінки моделей. Зокрема:

  • Автоматизовані системи виявляють підозрілі дії, такі як неодноразові спроби генерувати прихований shell-код чи інструкції для шифрування файлів без згоди користувача;
  • Після активації тригерів, навчена команда переглядає записи бесід для підтвердження шкідливих намірів;
  • У разі підтвердження, акаунти негайно блокуються.

Ключові висновки з цих інцидентів передаються партнерам із кібербезпеки та органам правопорядку для посилення колективних заходів захисту. Принцип прозорості стає фундаментом цього підходу: кожен квартальний звіт детально висвітлює методи, які застосовують кіберзлочинці, а також вказує на нові тенденції.

Крім того, OpenAI активно співпрацює з іншими розробниками штучного інтелекту, компаніями з кібербезпеки та академічними дослідниками для обміну знаннями і посилення загальних захисних механізмів. Така відкритість дозволяє ширшій спільноті дотримуватися передових практик безпеки моделей і ефективніше протистояти еволюції загроз.

Дії OpenAI демонструють, як проактивна політика та відкрите звітування можуть зменшувати ризики, пов’язані зі штучним інтелектом. Виявляючи й блокуючи акаунти, пов’язані з китайськими хакерами та іншими недобросовісними користувачами, компанія підтверджує свою відданість безпечному і відповідальному впровадженню ШІ.


Для оперативного отримання новин підписуйтеся на нас у Google News, LinkedIn та X, а також встановлюйте GBH як вподобане джерело в Google.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне