По мере стремительного внедрения искусственного интеллекта и машинного обучения в корпоративные процессы растёт не только производительность, но и новые классы угроз. Исследование Tenable показывает: 89% организаций уже используют или тестируют AI-нагрузки, однако уровень их кибербезопасности не поспевает за темпами технологического роста.
Результат? Появляется опасное явление, которое эксперты называют “AI Exposure Gap” — разрыв между тем, как компании используют ИИ, и тем, как они защищают данные, инфраструктуру и модели.
И этот разрыв уже привёл к последствиям: каждая третья компания (34%) сообщила о хотя бы одном инциденте, связанном с AI-системами.
⚠️ ИИ сам по себе не опасен — опасны пробелы в безопасности компаний
Исследование подчёркивает важный тезис:
❗ Большинство атак, связанных с ИИ, происходят не из-за сложных атак на модели, а из-за базовых уязвимостей в самих компаниях.
То есть злоумышленники не взламывают сам искусственный интеллект, они используют:
- ошибки конфигураций,
- слабые пароли и доступы,
- незашифрованные данные,
- недостаточную сегментацию,
- отсутствующие политики безопасности,
- ошибки DevOps / MLOps процессов.
По данным Tenable:
📌 21% инцидентов были вызваны эксплуатацией софт-уязвимостей
📌 18% — инсайдерскими угрозами
📌 19% — ошибками в самих ИИ-моделях
Это подтверждает вывод: источник угроз — инфраструктура, а не алгоритмы.
🔐 Тревожный факт: только 22% компаний шифруют данные ИИ
Самый шокирующий вывод исследования:
❗ Лишь одна из пяти компаний шифрует данные, используемые в AI-системах.
Это означает, что 78% организаций фактически оставляют:
- обучающие датасеты,
- промпты,
- ответы моделей,
- внутренние корпоративные документы,
- чувствительные данные о клиентах,
- исходный код моделей
доступными для злоумышленников при любом взломе или утечке.
С учётом того, что модели часто обучаются на производственных данных, масштаб потенциального ущерба огромен.
Эксперты называют это криптографическим кризисом ранней эпохи ИИ.
🧩 Почему образовался “AI Exposure Gap”: мнение экспертов
Лиат Хайюн, VP Product & Research в Tenable, подчёркивает:
«Главные риски — это знакомые уязвимости: идентификация, ошибки конфигурации, технические дыры. Это не фантастические сценарии о восстании ИИ, а обычные проблемы безопасности, которые мы не успеваем закрывать».
Причины разрыва:
1️⃣ AI внедряется быстрее, чем успевают внедрять безопасность
Команды Data Science и ML часто двигаются «быстрее рынка», в обход процедур кибербезопасности.
2️⃣ Разрозненная инфраструктура
Данные и модели находятся в:
- облаках,
- edge-средах,
- локальных серверах,
- MLOps-конвейерах.
Результат: низкая видимость и отсутствие единого контроля.
3️⃣ Реактивная, а не проактивная защита
Компании тушат пожары вместо того, чтобы строить защиту заранее.
4️⃣ Делегирование ответственности регуляторам
51% организаций просто ориентируются на NIST AI RMF или EU AI Act,
делая минимум, необходимый для формального соответствия.
🏭 “AI Exposure Gap” становится критичным для крупных предприятий
Экспертный анализ показывает:
✔ чем крупнее организация,
✔ чем больше данных она использует для моделей,
✔ чем активнее внедряет генеративный ИИ,
— тем сильнее растёт разрыв между реальными рисками и существующими мерами защиты.
Это выражается в нескольких ключевых тенденциях:
🔥 Тенденция 1: экспоненциальный рост внутренних угроз
Инсайдеры составляют 18% AI-инцидентов.
Причины:
- неконтролируемый доступ к моделям,
- возможность выгрузки чувствительных данных,
- отсутствие журналирования запросов,
- незащищённые API.
🔥 Тенденция 2: рост количества утечек из-за AI-кода
Около 20% всех утечек, по данным TechRadar, происходят из-за кода, написанного ИИ.
Чаще всего:
- уязвимости из-за небезопасных шаблонов кода,
- отсутствие проверки безопасности,
- blind trust в генеративные инструменты.
🔥 Тенденция 3: компании не проводят тестирование безопасности моделей
Только 26% организаций проводят:
- пентест моделей,
- adversarial testing,
- stress-тестирование,
- проверку устойчивости к prompt injection.
Остальные запускают модели «как есть», надеясь на вендоров.
🛡 Как компаниям устранить “AI Exposure Gap”: рекомендации от экспертов по кибербезопасности
Tenable выделяет ряд приоритетов, но мы расширили их с учётом корпоративной практики и опыта MLOps-безопасности.
✔ 1. Строить AI-безопасность на фундаменте Identity и Access Governance
Необходимы:
- строгая сегментация данных,
- ограничение доступа по принципу least privilege,
- многофакторная аутентификация для всех MLOps процессов,
- контроль сервисных аккаунтов моделей.
✔ 2. Классифицировать и шифровать данные, связанные с ИИ
Не только хранилища, но и:
- датасеты для обучения,
- результаты inference,
- логи запросов,
- промпты пользователей.
Используйте:
- TDE,
- HSM,
- KMS,
- атрибутивное шифрование.
✔ 3. Проводить регулярное adversarial и red-team тестирование моделей
Цель — выявить:
- prompt injection,
- data poisoning,
- jailbreak-атаки,
- model extraction,
- уязвимости в API.
✔ 4. Мониторинг конфигураций и MLOps-инфраструктуры
Выявляйте:
- открытые порты,
- ошибочные роли IAM,
- неправильные настройки хранения,
- слабые политики доступа к S3 / buckets / datasets,
- устаревшие бэкенды inference.
✔ 5. Усилить защиту моделей на ранних этапах разработки (shift-left AI security)
Одновременно:
- автоматизировать проверку безопасности кода (SAST, SCA),
- внедрять MLOps-технологии,
- внедрять CI/CD-проверки уязвимостей моделей,
- использовать защищённые каналы передачи данных.
✔ 6. Исключить dependency on compliance как единственную стратегию
Соответствие стандартам — это основа, но не верх защиты.
Минимальный набор документов никогда не заменит:
- комплексную архитектуру безопасности,
- динамическое тестирование,
- ручные проверки,
- анализ моделей и данных.
📌 Вывод: “AI Exposure Gap” — это новый класс корпоративных рисков
ИИ не является источником угроз.
Опасность — в том, что компании внедряют его быстрее, чем строят защиту.
Если этот разрыв не закрыть, бизнес получает:
- повышенный риск утечек;
- инциденты со стороны внутренних сотрудников;
- эксплуатацию уязвимостей, связанных с моделями;
- репутационные потери;
- юридические последствия;
- длинные цепочки атак через AI-инфраструктуру.
Компании, которые сейчас инвестируют в AI-безопасность, получат серьёзное конкурентное преимущество: прозрачность данных, доверие клиентов и устойчивость к новым угрозам.
