Зловмисники маскують шкідливе ПЗ у ChatGPT та офісних програмах для атак на компанії

Олена Ткач

23 Вересня, 2025

У динамічно мінливому світі кіберзагроз зловмисники все частіше використовують популярність інструментів підвищення продуктивності для проникнення у корпоративні мережі. Останні дослідження фіксують збільшення кількості шкідливого програмного забезпечення, замаскованого під знайомі додатки — такі як ChatGPT, Microsoft Office та Google Drive, — спрямованого на нічого не підозрюючих співробітників, які завантажують їх із пошукових систем. Згідно з детальним аналізом IT Pro, кіберзлочинці створюють підроблені аплікації, що імітують легітимне програмне забезпечення, заманюючи користувачів обіцянками покращеної функціональності або безкоштовного доступу. Ця методика використовує поспіх зайнятих фахівців, що часто призводить до ненавмисного встановлення шкідливого ПЗ, яке загрожує безпеці цілих систем.

Механізми таких атак базуються на складних схемах соціальної інженерії. Кіберзловмисники оптимізують результати пошукових систем, щоб підняти шкідливі посилання на верх, враховуючи довіру користувачів до відомих брендів, зокрема OpenAI та Google. Після встановлення, шкідливе ПЗ має можливості для:

  1. Викрадення конфіденційної інформації.
  2. Розгортання програм-вимагачів.
  3. Створення “зворотних дверей” для подальшого проникнення.

Прикладом є виявлення дослідниками безпеки Microsoft декількох варіантів PipeMagic — модульного бекдору, прихованого в нібито офіційних настільних додатках ChatGPT, про що повідомляло видання The Record з Recorded Future News.

Зростання кампаній зі шкідливим ПЗ, спрямованого на штучний інтелект

Ця тенденція не є локальною аномалією, а відображає ширший тренд озброєння AI-інструментів. Кібербезпекова компанія Kaspersky зафіксувала зростання кібератак із підробками ChatGPT на 115% у першій половині 2025 року. Понад 8 500 малих та середніх підприємств стали жертвами фейкових додатків, зокрема підробок Zoom і DeepSeek. Ці дані, наведені у статті TechRadar, свідчать про те, що зловмисники активно використовують ажіотаж навколо AI для розповсюдження шкідливих файлів через фішингові та спам-кампанії. Невідкладність впровадження передових інструментів створює небезпечні вразливості, даючи змогу шкідливому програмному забезпеченню маскуватися під важливі оновлення або інтеграції.

Інтеграції між AI-чатботами та хмарними сервісами підсилюють потенційні ризики. Зокрема, уразливість у роботі ChatGPT з файлами Google Drive, виявлена PCMag, дозволяла зловмисникам вставляти шкідливі підказки, що могли викрасти персональні дані без взаємодії користувача. OpenAI оперативно закрила цю пролом, але інцидент демонструє, як атаки без жодного кліку можуть перетворити колабораційні платформи на канали для злочинної діяльності.

Атаки, що зачіпають критичну інфраструктуру

Підроблені додатки часто використовуються як частина масштабних операцій з програм-вимагачів. Microsoft попередила про використання зловмисниками підроблених ChatGPT-додатків для запуску PipeMagic, який експлуатує нульові дні в Windows, як повідомляло Hackread. Цей бекдор сприяє викраденню даних і контролю над системами, що може призвести до серйозних збою в таких секторах як охорона здоров’я та фінанси. Публікації на платформі X від експертів кібербезпеки, наприклад, The Hacker News, вказують на подібні безконтактні уразливості в Microsoft 365 Copilot із CVSS-рейтингом до 9,3, підкреслюючи можливість тихого витоку інформації через email-інтеграції.

Індустріальні аналітики пов’язують ці загрози з діяльністю державних акторів. Наприклад, північнокорейська хакерська група Kimsuky застосовувала ChatGPT для створення підроблених військових посвідчень Південної Кореї з метою фішингових атак на журналістів та дослідників, за даними Mitrade. Такі операції поєднують AI-генеровані дипфейки із розповсюдженням шкідливих програм, ускладнюючи виявлення традиційними антивірусними рішеннями.

Стратегії захисту та перспективи майбутніх оборонних заходів

Для зменшення ризиків фахівці рекомендують:

  • Завантажувати програмне забезпечення виключно з офіційних джерел.
  • Використовувати багатофакторну автентифікацію.
  • Застосовувати просунуті рішення для виявлення загроз на кінцевих пристроях.

Дослідження Radware, представлене у PCMag, підкреслює небезпеку прихованих інструкцій AI у веб-контенті, які можуть маніпулювати чатботами для виконання шкідливих дій. Організаціям слід регулярно проводити аудит систем безпеки та навчати працівників ідентифікувати пошукову оптимізацію із шкідливим впливом.

Ураховуючи наближення квантових загроз — про це свідчать прогнози, опубліковані на платформі X відомими фахівцями, зокрема доктора Хулуд Альмані — пріоритети мають зміщуватись у напрямку криптографії, стійкої до AI-атакам. SecurityWeek висвітлив серверний інцидент викрадення даних ChatGPT під назвою ShadowLeak, який OpenAI оперативно ліквідувала, однак цей випадок демонструє важливість проактивного підходу до захисту. Інтеграція інтелектуальної інформації із численних авторитетних джерел допомагає підприємствам випереджати загрози, перетворюючи потенційні слабкі місця на надійні бар’єри проти дедалі витонченіших ворогів.

author avatar
Олена Ткач
Фахівчиня з цифрового маркетингу. Пише просто про складне: штучний інтелект, мобільні додатки, технології в Україні.Гасло: «Технології — це просто. Особливо, коли пояснюю я».

різне