OpenAI Перешкоджає Світовим Хакерам Зловживати ChatGPT

Олена Ткач

9 Жовтня, 2025

Компанія OpenAI зробила суттєві кроки у боротьбі з кіберзлочинністю, яка експлуатує можливості платформи ChatGPT для проведення кібернападів. У своїй останній заяві, датованій жовтнем 2025 року, компанія повідомила про успішне нейтралізування трьох скоординованих хакерських операцій, що походили з Росії, Північної Кореї та Китаю. Ці групи використовували чат-бот для злочинних цілей, таких як створення шкідливого програмного забезпечення та проведення фішингових кампаній.

Зокрема, OpenAI констатувала: «Ці акаунти, ймовірно, пов’язані з російськомовними злочинними угрупованнями, які публікували докази своїх дій у спеціалізованому Telegram-каналі, що належить цим суб’єктам».

Тіньова сторона генеративного штучного інтелекту

Цей випадок наочно демонструє подвійний потенціал великих мовних моделей (LLM), таких як ChatGPT, які можуть слугувати як законним інструментом для підвищення продуктивності, так і ефективним засобом у руках кіберзлочинців. Нездатність контролювати використання генеративного ІІ для розробки шкідливих програм, соціального інженерингу та викрадення інформації стає дедалі більшою загрозою для фахівців із кібербезпеки та державних регуляторів.

Перша група, яка була нейтралізована, складалася з російськомовних атакуючих, які розробляли троян віддаленого доступу (RAT) та програми для викрадення облікових даних. Хоча ChatGPT відмовлявся генерувати явний шкідливий код, зловмисники використовували його для створення окремих модульних фрагментів коду, таких як скрипти для обфускації та механізми виведення даних, які потім збиралися в робоче шкідливе програмне забезпечення.

У свою чергу, північнокорейська група, пов’язана з кампанією, виявленою компанією Trellix у серпні 2025 року, використовувала ChatGPT для підтримки інфраструктури шкідливого програмного забезпечення та командно-контрольних серверів (C2). Атакуючі випробовували конфігурації систем Windows і macOS, шаблони фішингових повідомлень та техніки API-хукінгу, орієнтуючись на дипломатичні установи та органи державної влади.

Третя група, пов’язана з китайським угрупованням UNK_DropPitch, застосовувала ChatGPT для створення багатомовного фішингового контенту та розробки бекдорів, спрямованих на тайванський сектор напівпровідників. За словами OpenAI, ця група характеризується як «технічно компетентна, але недостатньо досвідчена».

Штучний інтелект посилює традиційні тактики атак

Усі три групи прагнули використовувати ChatGPT для прискорення існуючих методів атак, а не для винайдення нових шкідливих способів. Російські оператори покращували свій код через декілька сесій з чат-ботом для оптимізації функціональності RAT. Північнокорейські хакери симулювали фішингові пастки та автоматизували сценарії розгортання шкідливого ПЗ. Тим часом, пов’язані з Китаєм акаунти генерували фішингові повідомлення англійською, китайською та японською мовами, а також вивчали можливості автоматизації віддаленого виконання через HTTPS-канали.

Крім цих трьох основних угруповань, OpenAI також виявила менші мережі з Камбоджі, М’янми та Нігерії, які намагалися використовувати ChatGPT для онлайн-шахрайств та інформаційних кампаній. Деякі акаунти, пов’язані з китайськими державними структурами, нібито аналізували соціальні медіа та створювали пропагандистські матеріали щодо етнічних меншин і геополітичних питань.

Заходи протидії зловживанню штучним інтелектом

OpenAI вжила низку заходів, серед яких блокування зловмисних акаунтів, посилення систем моніторингу та обмін отриманими даними з партнерами у сфері кібербезпеки. Компанія підтверджує, що її великі мовні моделі мають багатошарові захисти, що блокують шкідливі запити, проте зловмисники іноді обходять їх шляхом поетапного генерування фрагментів коду.

Для мінімізації ризиків АІ-атак та посилення загальної кібербезпеки організаціям рекомендується впровадити такі заходи:

  1. Моніторинг і виявлення загроз: Відстеження індикаторів компрометації (IOC), RAT і атак з використанням штучного інтелекту за допомогою EDR та SIEM-рішень.

  2. Посилення контролю доступу: Застосування принципу найменших привілеїв, багатофакторної автентифікації (MFA) і сегментації мереж для обмеження розповсюдження атак.

  3. Закріплення системної безпеки: Захист середовищ розробки та кінцевих пристроїв, використання білого списку додатків і регулярне оновлення залежностей.

  4. Управління використанням ІІ: Визначення політик зі штучного інтелекту, моніторинг активності користувачів і ведення журналів запитів для забезпечення підзвітності.

  5. Навчання персоналу: Підготовка співробітників до розпізнавання підозрілих фішингових повідомлень.

  6. Співпраця і тестування: Обмін інформацією про загрози, а також проведення практичних тренувань із застосуванням методів «червоних команд» і відпрацювання реагування на інциденти з фокусом на ІІ.

У звіті OpenAI наголошується, що кіберзлочинці не винаходять принципово нові методи, а радше інтегрують штучний інтелект у відомі схеми для підвищення швидкості атак. У міру того, як генеративний штучний інтелект поширюється в різних галузях, фахівці з безпеки повинні враховувати, що супротивники також використовують ці технології для розвідки, допомоги у програмуванні та психологічного впливу.

З огляду на зростаюче застосування штучного інтелекту злочинцями для обману та маніпуляцій, інструменти виявлення дипфейків стають важливою складовою лінією захисту.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне