OpenAI протидіє зловживанню ChatGPT хакерами з Росії, Північної Кореї та Китаю для кібератак

Олена Ткач

8 Жовтня, 2025

OpenAI у вівторок оголосила про припинення діяльності трьох груп, які зловживали її штучним інтелектом ChatGPT для створення шкідливого програмного забезпечення.

Перша з цих груп — російськомовний загрожуючий суб’єкт — використовувала чатбот для розробки та вдосконалення трояна віддаленого доступу (RAT), а також інструменту для викрадення облікових даних із метою обходу систем виявлення. Оператор застосовував декілька облікових записів ChatGPT для створення прототипів і налагодження технічних компонентів, що забезпечують післяексплуатаційні можливості та викрадення облікових даних.

OpenAI повідомила:
– “Ці акаунти, ймовірно, пов’язані з кримінальними групами російськомовного сегменту, оскільки ми спостерігали публікації доказів їхньої діяльності у спеціальному Telegram-каналі, присвяченому цим акторам.”
– Хоча великі мовні моделі (LLM) відмовлялися виконувати прямі запити на створення шкідливого коду, злочинці обходили це обмеження, створюючи частини коду, які потім комбінували для формування складних робочих процесів.
– Серед результатів були скрипти для ускладнення коду, моніторингу буфера обміну та базові утиліти для виведення даних через Telegram-бота. Важливо зазначити, що окремо взяті фрагменти коду не є у своїй суті шкідливими.
– Оператори надсилали запити різного рівня складності: деякі вимагали глибоких знань платформи Windows та багатократного налагодження, тоді як інші автоматизували рутинні завдання, наприклад, масове генерування паролів чи написання скриптів для подання заявок на роботу.
– Застосовувалась невелика кількість облікових записів ChatGPT із подальшою ітерацією одного й того самого коду в різних сесіях, що свідчить про постійний розвиток, а не разові спроби.

Друга група, пов’язана з Північною Кореєю, співпадає з кампанією, описаною у серпні 2025 року компанією Trellix, яка спрямовувалася на дипломатичні представництва Південної Кореї шляхом фішингових атак зі шкідливим RAT Xeno. За даними OpenAI, ця група застосовувала ChatGPT для розробки шкідливого ПЗ та систем командування й контролю (C2), зокрема:
– Створення розширень для Finder у macOS
– Налаштування VPN-серверів на базі Windows Server
– Конвертація розширень Chrome у відповідні Safari

Також зловмисники використовували інструмент для складання фішингових листів, експериментів з хмарними сервісами та функціями GitHub, а також для дослідження методів завантаження DLL в пам’ять, виконання коду в оперативній пам’яті, перехоплення Windows API та викрадення облікових даних.

Третя група, за даними OpenAI, має спільні ознаки з кластером, що відстежувався Proofpoint під ім’ям UNK_DropPitch (або UTA0388) — китайською хакерською організацією, відповідальною за фішингові кампанії проти провідних інвестиційних компаній із акцентом на тайванську напівпровідникову галузь. До їхнього арсеналу входила бекдор-утиліта HealthKick (позначена також як GOVERSHELL). Ця група застосовувала ChatGPT для:
– Генерації контенту фішингових кампаній англійською, китайською та японською мовами
– Підтримки інструментів для прискорення рутинних завдань, таких як віддалене виконання команд і захист трафіку через HTTPS
– Підбір інформації для встановлення відкритого програмного забезпечення, зокрема nuclei та fscan

OpenAI охарактеризувала цю групу як “технічно компетентну, але недостатньо складну”.

Окрім цих трьох кіберзлочинних груп, компанія також заблокувала акаунти, які використовувалися для шахрайських і інформаційно-впливових операцій:
1. Мережі, ймовірно з Камбоджі, М’янми та Нігерії, зловживали ChatGPT у спробах ошукати людей онлайн, використовуючи ШІ для перекладу, написання повідомлень та створення контенту для соціальних мереж з метою реклами інвестиційних шахрайств.
2. Особи, пов’язані з урядовими структурами Китаю, застосовували ChatGPT для допомоги у спостереженні за громадянами, зокрема етнічними меншинами, як-от уйгурами, та аналізі даних із західних та китайських соцмереж. Вони зверталися до ШІ для створення рекламних матеріалів із зазначених тем, але не використовували чатбот для безпосередньої реалізації своїх задумів.
3. Російський загрозливий суб’єкт, пов’язаний із Stop News і, ймовірно, керований маркетинговою компанією, застосовував моделі штучного інтелекту та інші інструменти для генерування контенту й відео, поширюваних у соціальних мережах. Створений ними контент критикував роль Франції та США в Африці, а також позиціонування Росії на континенті, при цьому продукувалася англомовна інформація, що просувала антиукраїнські наративи.
4. Таємна інформаційна операція з Китаю, відома як “Nine—emdash Line”, використовувала ШІ для створення контенту в соцмережах, спрямованого на критику президента Філіппін Фердинанда Маркоса, а також на публікації про нібито екологічний вплив В’єтнаму в Південно-Китайському морі та політичних діячів і активістів про-демократичного руху в Гонконзі.

У двох різних випадках підозрювані китайські користувачі звертались до ChatGPT із проханням ідентифікувати організаторів петиції в Монголії та джерела фінансування акаунту X, що критикував китайський уряд. OpenAI зазначила, що в обох випадках модель надавала лише інформацію, доступну у відкритих джерелах, без розкриття конфіденційних даних.

Компанія також відзначила нову тенденцію в цій інформаційній війні:
– Одна зі злочинних мереж із Камбоджі просила модель видалити «длинні тире» (emdash) із генерованого тексту або робила це вручну перед публікацією. Це пов’язано з тим, що еmdash довгий час розглядається у дискусіях як потенційний індикатор використання ШІ.

Водночас Anthropic, один із конкурентів OpenAI, випустив інструмент з відкритим кодом для аудиту під назвою Petri (скорочення від “Parallel Exploration Tool for Risky Interactions”) з метою прискорення досліджень з безпеки штучного інтелекту та кращого розуміння поведінки моделей за різними критеріями, такими як:
– Обман
– Лицемірство
– Заохочення ілюзій у користувача
– Співпраця з шкідливими запитами
– Самозбереження

Anthropic пояснює роботу Petri так:
– Автоматичний агент тестує цільову AI-систему через різноманітні багатокрокові діалоги із симульованими користувачами та інструментами.
– Дослідники надають Petri список початкових інструкцій, спрямованих на перевірку певних сценаріїв і моделей поведінки.
– Petri паралельно опрацьовує кожну інструкцію. Для кожного запиту аудитор-агент розробляє план і взаємодіє з моделлю у циклі використання інструментів.
– Наприкінці суддя оцінює кожен з отриманих транскриптів за кількома критеріями, що дозволяє швидко знаходити та фільтрувати найцікавіші діалоги для подальшого аналізу.

OpenAI підкреслює, що хоча її інструменти надали зловмисникам нові можливості, яких вони не могли отримати з численних публічних джерел, використання цих технологій призвело до підвищення ефективності їхніх уже наявних робочих процесів.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне