Корпоративна безпека даних опинилася перед безпрецедентним викликом: нові дослідження свідчать, що більшість працівників неусвідомлено надають витік конфіденційної інформації компанії через генеративні інструменти штучного інтелекту, такі як ChatGPT.
Згідно з доповіддю LayerX Security «Enterprise AI and SaaS Data Security Report 2025», працівники регулярно копіюють у буфер обміну та вставляють чутливі корпоративні дані в AI-чатботи, часто використовуючи особисті, ненадійно контрольовані акаунти, які обходять корпоративні механізми контролю. Переважна більшість – 77% – користувачів звертається до ChatGPT серед великих мовних моделей (LLM). Близько 18% працівників компаній вставляють інформацію у генеративні AI-сервіси, з яких понад половина випадків містить конфіденційні корпоративні дані.
У коментарі для видання The Register, Ор Ешед, генеральний директор LayerX Security, зауважив, що «витік корпоративних даних через AI-інструменти може призводити до геополітичних проблем, порушень регуляторних норм і відповідності, а також ставить під загрозу правильне використання корпоративних даних під час тренування моделей, якщо вони розкриваються через особисте використання AI».
Продуктивність на основі AI та ризики, пов’язані з відповідністю
Ці висновки вказують на зростаючу кризу ідентифікації та управління даними в корпоративному середовищі. Дані телеметрії LayerX, зібрані через моніторинг браузерів у великих глобальних організаціях, свідчать, що 45% співробітників активно використовують генеративні AI-платформи, із них 43% працюють виключно з ChatGPT.
Звіт попереджає, що генеративні AI-інструменти стали головним каналом витоку корпоративних даних у персональні середовища, на який припадає 32% всіх несанкціонованих переміщень даних.
- Майже 40% завантажених у сервіс файлів містять персональні ідентифікаційні дані (PII) або інформацію платіжної системи (PCI).
- 22% вставленого текстового контенту містить чутливу регуляторну інформацію.
Для компаній, що підпадають під такі регуляторні вимоги, як GDPR, HIPAA, SOX, це створює критичну загрозу дотриманню законодавства.
Приховані загрози тіньового AI
Дослідники LayerX виявили, що найбільш ризиковані дії відбуваються через ненадійні браузери та особисті облікові записи, які повністю перебувають поза системами управління ідентифікацією.
- 71.6% доступу до генеративних AI-ресурсів здійснюється через некомерційні акаунти.
- Аналогічна тенденція спостерігається в інших ключових SaaS-платформах: Salesforce — 77%, Microsoft Online — 68%, Zoom — 64%.
Справжня загроза криється в простоті методу: копіювання та вставка. Серед користувачів, що працюють із генеративним AI, середній показник — 6.8 вставок на день, із яких понад половина (3.8 вставок) містять чутливі корпоративні дані.
Цей ручний, непомітний процес обходить звичайні системи запобігання втраті даних (DLP), міжмережеві екрани та механізми контролю доступу.
Зловмисники та збирачі даних мають змогу експлуатувати витік інформації у різноманітних цілях: від тренування великих мовних моделей на відкритих даних до цілеспрямованих атак на окремі галузі, використовуючи витік коду, облікових даних або власних робочих процесів.
Формування багаторівневого захисту в епоху штучного інтелекту
Для протидії атакам та витокам даних, зумовленим AI, організаціям рекомендовано впроваджувати багатошарові стратегії безпеки, орієнтовані на захист як користувацьких взаємодій, так і бекенд-інфраструктури. Основні заходи включають:
- Впровадження централізованих механізмів контролю доступу, таких як єдиний вхід (SSO), принцип найменших привілеїв і політики, що враховують тип пристрою, для всіх AI-інструментів.
- Моніторинг браузерів і кінцевих точок для відстеження потоків даних та блокування неавторизованого використання AI або витоків інформації.
- Посилення безпеки AI-систем і API шляхом сегментації, валідації запитів і фільтрування команд для запобігання злочинним атакам.
- Спостереження за виконанням та контейнерами, що дозволяє виявляти аномальні явища, несанкціоновану активність або спроби закріплення.
- Впровадження управління AI-безпекою та управління позицією безпеки (AI-SPM) для інвентаризації ресурсів, оцінки ризиків і застосування політик.
- Навчання персоналу безпечному використанню AI, з особливим наголосом на ризиках передачі даних та методах маніпуляції командами.
Безпекові команди також мають здійснювати судову експертизу журналів браузерів і мережевого трафіку для виявлення потенційних витоків, пов’язаних із AI, та тестувати плани реагування на інциденти.
Розрив між інноваціями в AI та заходами безпеки
Звіт LayerX ілюструє суттєвий розрив між швидкістю впровадження AI та рівнем корпоративного управління цими технологіями.
За даними Національного бюро економічних досліджень, 23% працівників сьогодні використовують генеративний AI на робочому місці.
Попри це, більшість організацій не має цілісної системи безпеки для керування ризиками, пов’язаними з AI.
Ця тенденція свідчить про зміну парадигми в управлінні корпоративними ризиками: де раніше витоки даних відбувалися через фішинг чи неправильну конфігурацію зберігання, тепер вони виникають у процесі повсякденної роботи з AI.
За впровадженням AI у робочі процеси компаніям належить збалансувати прагнення до інновацій з дисципліною безпеки, щоб забезпечити продуктивність без компромісів для конфіденційності.
Окрім ризиків витоку даних, зростання технології дипфейків породжує новий клас загроз, заснованих на AI, які розмивають межу істини, підірвує довіру та вимагають застосування передових засобів виявлення.