OpenAI провела рішучі заходи для припинення зловживань своїми моделями ChatGPT, заблокувавши акаунти, що були пов’язані з групою хакерів із Китаю. Цей крок відповідає ключовій меті компанії — забезпечити, щоб штучний загальний інтелект приносив користь усім. Визначаючи чіткі правила й оперативно реагуючи на порушення політики, OpenAI прагне зберегти безпеку та доступність своїх інструментів для легітимних користувачів.
З моменту запуску публічного звітування про загрози у лютому 2024 року, компанія виявила та ліквідувала понад 40 мереж, які неправомірно використовували її сервіси. У своєму останньому квартальному оновленні OpenAI повідомила про ідентифікацію хакерської групи в Китаї, яка застосовувала ChatGPT для створення та покращення коду шкідливого програмного забезпечення.
Особливості діяльності цієї групи:
- Поєднання рекомендацій штучного інтелекту зі застарілими методами експлуатації вразливостей для пришвидшення кібератак;
- Виявлення командою з аналізу загроз атипових шаблонів запитів і повторюваних запитів щодо створення шкідливих payload’ів;
- При явних порушеннях політики акаунти були заблоковані й позбавлені подальшого доступу.
Повідомлення підкреслює, що зловмисники здебільшого модифікують існуючі методики, а не створюють принципово нові. За останній квартал більшість загроз становили:
- Сценарії фішингу, посилені штучним інтелектом;
- Автоматизовані запити для соціальної інженерії;
- Код, призначений для обходу систем виявлення.
Документуючи ці кейси, OpenAI демонструє, як групи загроз інтегрують ШІ у традиційні схеми дій, віддаючи перевагу швидкості над новизною.
Заблокована китайська група — лише один із прикладів подібних інцидентів, проте їх викриття слугує чітким сигналом: зловживання штучним інтелектом спричинять швидкі та прозорі протидії. Для виявлення зловживань OpenAI використовує комплексний підхід, який поєднує моніторинг сигналів, експертний аналіз і вивчення поведінки моделей. Зокрема:
- Автоматизовані системи виявляють підозрілі дії, такі як неодноразові спроби генерувати прихований shell-код чи інструкції для шифрування файлів без згоди користувача;
- Після активації тригерів, навчена команда переглядає записи бесід для підтвердження шкідливих намірів;
- У разі підтвердження, акаунти негайно блокуються.
Ключові висновки з цих інцидентів передаються партнерам із кібербезпеки та органам правопорядку для посилення колективних заходів захисту. Принцип прозорості стає фундаментом цього підходу: кожен квартальний звіт детально висвітлює методи, які застосовують кіберзлочинці, а також вказує на нові тенденції.
Крім того, OpenAI активно співпрацює з іншими розробниками штучного інтелекту, компаніями з кібербезпеки та академічними дослідниками для обміну знаннями і посилення загальних захисних механізмів. Така відкритість дозволяє ширшій спільноті дотримуватися передових практик безпеки моделей і ефективніше протистояти еволюції загроз.
Дії OpenAI демонструють, як проактивна політика та відкрите звітування можуть зменшувати ризики, пов’язані зі штучним інтелектом. Виявляючи й блокуючи акаунти, пов’язані з китайськими хакерами та іншими недобросовісними користувачами, компанія підтверджує свою відданість безпечному і відповідальному впровадженню ШІ.
Для оперативного отримання новин підписуйтеся на нас у Google News, LinkedIn та X, а також встановлюйте GBH як вподобане джерело в Google.