Підвищення кібертероризму за підтримки штучного інтелекту: хакерська група Kimsuky застосовує дипфейкові посвідчення, фішинг та військову дезінформацію
За останній час технології штучного інтелекту (ШІ) перестали бути лише атрибутом наукової фантастики й кінематографу, перетворившись на потужний інструмент у сфері державного шпигунства. Доказом цього стала нещодавня операція північнокорейської хакерської групи Kimsuky, яка широко застосувала генеративні моделі ШІ, зокрема ChatGPT, для створення підроблених військових та урядових посвідчень у рамках цілеспрямованої фішингової атаки, націленої на Південну Корею.
Основні особливості останньої кампанії Kimsuky:
– Використання штучного інтелекту, який дозволив створювати реалістичні дипфейкові ідентифікатори.
– Генерація зображень і підроблених документів із застосуванням офіційних логотипів для підвищення достовірності шкідливих електронних листів.
– Фокус на південнокорейських журналістах та дослідниках, котрі спеціалізуються на тематиці Північної Кореї.
– Розповсюдження шкідливих вкладень, зокрема архівованих файлів і ярликів (.lnk), що слугували для встановлення бекдорів, витягання інформації або відтермінування дій для обходу систем пісочниць.
Для обходу обмежень, запроваджених компанією OpenAI щодо створення підроблених ID, нападники використовували так звану «маніпуляцію запитами» (або техники jailbreaking), змінюючи формулювання команд, щоб отримати потрібний контент.
Ширший контекст і наслідки атаки
– Сьогодні засоби генерації тексту та зображень на основі великих мовних моделей (LLM) стають дедалі доступнішими, що дає змогу навіть користувачам з мінімальним досвідом створювати переконливий контент.
– Хакерська група Kimsuky, пов’язана з державними структурами, роками займається розвідкою, націлюючись на дипломатичні установи, урядові корпорації та оборонний сектор.
– Цей інцидент став першою підтвердженою операцією, в якій державна хакерська група застосувала штучний інтелект як складову частину своєї діяльності.
– Зі зростанням поширення генеративних моделей традиційні системи фільтрації фішингових атак і детекції шкідливого програмного забезпечення поступово втрачають ефективність.
Заходи захисту від таких загроз
– Працівникам, які виконують чутливі функції, необхідно проводити навчання щодо нових форм соціальної інженерії, що використовують ШІ.
– Важливо навчити уважно перевіряти домени відправників, виявляти аномалії в листах та підтверджувати запити на інформацію через зовнішні офіційні канали.
– Треба впровадити застосування спеціалізованих ШІ-інструментів для виявлення маніпуляцій і контенту, створеного штучним інтелектом.
– Обмеження використання вкладень та скриптів, дозволяючи працювати лише з надійними та перевіреними джерелами.
– Південнокорейська компанія Genians, яка виявила кампанію Kimsuky, рекомендує застосовувати технології Endpoint Detection and Response (EDR) для постійного моніторингу смартфонів, комп’ютерів та інших пристроїв.
– Компаніям, що розробляють AI, слід посилити внутрішні бар’єри та заходи безпеки для запобігання зловживанням.
Нова ера кібербезпеки
Кампанія Kimsuky демонструє, що світ увійшов у нову етапу цифрової війни, де інструменти на базі штучного інтелекту активно застосовуються для створення більш витончених і переконливих форм обману. Хоча ця операція стала першою великомасштабною міждержавною атакою такого типу, вірогідність появи інших подібних кампаній залишається високою.
Одночасно це є сигналом для всіх країн та організацій посилити свої оборонні стратегії і удосконалити технічні й організаційні заходи безпеки, щоб мінімізувати потенційні збитки від витоків даних, шпигунства, маніпуляції громадською думкою та підриву критичної інфраструктури.
Те, що колись було лише сюжетом для наукової фантастики, стає суворою реальністю. Відповідь на питання не в тому, чи відбудуться подальші атаки, а коли саме вони матимуть місце і наскільки підготовленими будуть потенційні жертви.