AI Exposure Gap
БезопасностьИИ

AI Exposure Gap — самый недооценённый риск безопасности, о котором ваш бизнес может даже не подозревать

По мере стремительного внедрения искусственного интеллекта и машинного обучения в корпоративные процессы растёт не только производительность, но и новые классы угроз. Исследование Tenable показывает: 89% организаций уже используют или тестируют AI-нагрузки, однако уровень их кибербезопасности не поспевает за темпами технологического роста.

Результат? Появляется опасное явление, которое эксперты называют “AI Exposure Gap” — разрыв между тем, как компании используют ИИ, и тем, как они защищают данные, инфраструктуру и модели.

И этот разрыв уже привёл к последствиям: каждая третья компания (34%) сообщила о хотя бы одном инциденте, связанном с AI-системами.


⚠️ ИИ сам по себе не опасен — опасны пробелы в безопасности компаний

Исследование подчёркивает важный тезис:

❗ Большинство атак, связанных с ИИ, происходят не из-за сложных атак на модели, а из-за базовых уязвимостей в самих компаниях.

То есть злоумышленники не взламывают сам искусственный интеллект, они используют:

  • ошибки конфигураций,
  • слабые пароли и доступы,
  • незашифрованные данные,
  • недостаточную сегментацию,
  • отсутствующие политики безопасности,
  • ошибки DevOps / MLOps процессов.

По данным Tenable:

📌 21% инцидентов были вызваны эксплуатацией софт-уязвимостей

📌 18% — инсайдерскими угрозами

📌 19% — ошибками в самих ИИ-моделях

Это подтверждает вывод: источник угроз — инфраструктура, а не алгоритмы.


🔐 Тревожный факт: только 22% компаний шифруют данные ИИ

Самый шокирующий вывод исследования:

❗ Лишь одна из пяти компаний шифрует данные, используемые в AI-системах.

Это означает, что 78% организаций фактически оставляют:

  • обучающие датасеты,
  • промпты,
  • ответы моделей,
  • внутренние корпоративные документы,
  • чувствительные данные о клиентах,
  • исходный код моделей

доступными для злоумышленников при любом взломе или утечке.

С учётом того, что модели часто обучаются на производственных данных, масштаб потенциального ущерба огромен.

Эксперты называют это криптографическим кризисом ранней эпохи ИИ.


🧩 Почему образовался “AI Exposure Gap”: мнение экспертов

Лиат Хайюн, VP Product & Research в Tenable, подчёркивает:

«Главные риски — это знакомые уязвимости: идентификация, ошибки конфигурации, технические дыры. Это не фантастические сценарии о восстании ИИ, а обычные проблемы безопасности, которые мы не успеваем закрывать».

Причины разрыва:

1️⃣ AI внедряется быстрее, чем успевают внедрять безопасность

Команды Data Science и ML часто двигаются «быстрее рынка», в обход процедур кибербезопасности.

2️⃣ Разрозненная инфраструктура

Данные и модели находятся в:

  • облаках,
  • edge-средах,
  • локальных серверах,
  • MLOps-конвейерах.

Результат: низкая видимость и отсутствие единого контроля.

3️⃣ Реактивная, а не проактивная защита

Компании тушат пожары вместо того, чтобы строить защиту заранее.

4️⃣ Делегирование ответственности регуляторам

51% организаций просто ориентируются на NIST AI RMF или EU AI Act,
делая минимум, необходимый для формального соответствия.


🏭 “AI Exposure Gap” становится критичным для крупных предприятий

Экспертный анализ показывает:

✔ чем крупнее организация,
✔ чем больше данных она использует для моделей,
✔ чем активнее внедряет генеративный ИИ,

— тем сильнее растёт разрыв между реальными рисками и существующими мерами защиты.

Это выражается в нескольких ключевых тенденциях:


🔥 Тенденция 1: экспоненциальный рост внутренних угроз

Инсайдеры составляют 18% AI-инцидентов.

Причины:

  • неконтролируемый доступ к моделям,
  • возможность выгрузки чувствительных данных,
  • отсутствие журналирования запросов,
  • незащищённые API.

🔥 Тенденция 2: рост количества утечек из-за AI-кода

Около 20% всех утечек, по данным TechRadar, происходят из-за кода, написанного ИИ.

Чаще всего:

  • уязвимости из-за небезопасных шаблонов кода,
  • отсутствие проверки безопасности,
  • blind trust в генеративные инструменты.

🔥 Тенденция 3: компании не проводят тестирование безопасности моделей

Только 26% организаций проводят:

  • пентест моделей,
  • adversarial testing,
  • stress-тестирование,
  • проверку устойчивости к prompt injection.

Остальные запускают модели «как есть», надеясь на вендоров.


🛡 Как компаниям устранить “AI Exposure Gap”: рекомендации от экспертов по кибербезопасности

Tenable выделяет ряд приоритетов, но мы расширили их с учётом корпоративной практики и опыта MLOps-безопасности.


✔ 1. Строить AI-безопасность на фундаменте Identity и Access Governance

Необходимы:

  • строгая сегментация данных,
  • ограничение доступа по принципу least privilege,
  • многофакторная аутентификация для всех MLOps процессов,
  • контроль сервисных аккаунтов моделей.

✔ 2. Классифицировать и шифровать данные, связанные с ИИ

Не только хранилища, но и:

  • датасеты для обучения,
  • результаты inference,
  • логи запросов,
  • промпты пользователей.

Используйте:

  • TDE,
  • HSM,
  • KMS,
  • атрибутивное шифрование.

✔ 3. Проводить регулярное adversarial и red-team тестирование моделей

Цель — выявить:

  • prompt injection,
  • data poisoning,
  • jailbreak-атаки,
  • model extraction,
  • уязвимости в API.

✔ 4. Мониторинг конфигураций и MLOps-инфраструктуры

Выявляйте:

  • открытые порты,
  • ошибочные роли IAM,
  • неправильные настройки хранения,
  • слабые политики доступа к S3 / buckets / datasets,
  • устаревшие бэкенды inference.

✔ 5. Усилить защиту моделей на ранних этапах разработки (shift-left AI security)

Одновременно:

  • автоматизировать проверку безопасности кода (SAST, SCA),
  • внедрять MLOps-технологии,
  • внедрять CI/CD-проверки уязвимостей моделей,
  • использовать защищённые каналы передачи данных.

✔ 6. Исключить dependency on compliance как единственную стратегию

Соответствие стандартам — это основа, но не верх защиты.

Минимальный набор документов никогда не заменит:

  • комплексную архитектуру безопасности,
  • динамическое тестирование,
  • ручные проверки,
  • анализ моделей и данных.

📌 Вывод: “AI Exposure Gap” — это новый класс корпоративных рисков

ИИ не является источником угроз.
Опасность — в том, что компании внедряют его быстрее, чем строят защиту.

Если этот разрыв не закрыть, бизнес получает:

  • повышенный риск утечек;
  • инциденты со стороны внутренних сотрудников;
  • эксплуатацию уязвимостей, связанных с моделями;
  • репутационные потери;
  • юридические последствия;
  • длинные цепочки атак через AI-инфраструктуру.

Компании, которые сейчас инвестируют в AI-безопасность, получат серьёзное конкурентное преимущество: прозрачность данных, доверие клиентов и устойчивость к новым угрозам.