ИИНовости

Aardvark — новый агент безопасности на базе GPT-5 от OpenAI

Что такое Aardvark?

OpenAI представила Aardvark — автономного «агента-исследователя по безопасности», работающего на модели GPT-5. Этот инструмент интегрируется в процессы разработки, постоянно анализирует кодовые базы, выявляет потенциальные уязвимости, оценивает возможность эксплуатации и предлагает точечные исправления.

Главное отличие Aardvark — он анализирует код как человек-исследователь, используя логические рассуждения, а не только традиционные сканеры, фреймворки и сигнатуры.

  • Агент работает в режиме закрытой беты и способен подключаться к GitHub и другим CI/CD-системам.
  • GPT-5, на котором основан Aardvark, использует новую архитектуру «router model» — она автоматически выбирает оптимальную под-модель под конкретную задачу.
  • Модель поддерживает мультимодальность и расширенное контекстное рассуждение, что позволяет ей понимать сложные цепочки уязвимостей, включая логические ошибки.

Почему это важно для команд разработки и безопасности

Число уязвимостей растёт каждый год, кодовые базы разрастаются, а скорость разработки увеличивается. Aardvark меняет подход от периодических проверок к непрерывной автоматизированной защите.

Исследовательские данные:

МетрикаЗначение
Доля найденных известных уязвимостей в тестовых репозиториях~92%
Тип анализане только сигнатуры, но и причинно-следственная логика
Формат результатаобъяснение, проверка, предложение исправления

В отличие от SAST/DAST-инструментов, Aardvark понимает контекст и намерения разработчика, что снижает шум и количество ложных срабатываний.


Как работает агент Aardvark (упрощённо)

  1. Построение модели угроз: анализирует архитектуру и расположение критичных компонентов.
  2. Мониторинг изменений кода: отслеживает коммиты и pull-requests.
  3. Выявление уязвимостей: ищет логические ошибки, небезопасные функции, неправильные зависимости.
  4. Валидация уязвимости в песочнице: проверяет, может ли ошибка быть реально использована.
  5. Формирование исправлений: предлагает патчи, пишет pull-request и оставляет комментарии кода.
  6. Человек подтвердает изменения: финальное решение остаётся за разработчиками и AppSec-командой.

Контекст и комментарии экспертов

Исследования показывают, что LLM-агенты обладают новыми типами поведения:

  • могут координировать использование инструментов;
  • способны выполнять многошаговые задачи без прямого контроля;
  • могут ошибаться нестандартным образом, если контекст интерпретирован неверно.

Публикации в arXiv отмечают, что такие агенты требуют прозрачности и аудитируемости, особенно в области безопасности.


Применение Aardvark

Сценарий примененияПольза
Большие корпоративные кодовые базыавтоматизация рутинных ревью
CI/CD и DevOpsуязвимости обнаруживаются до релиза
Финансовые и критические системыснижает операционные риски
Open-source проектыповышает качество безопасности сообщества

Ограничения и риски

  • Агент не заменяет AppSec-специалистов, а усиливает их.
  • Возможны ложные срабатывания или пропуски, особенно в сложных архитектурах.
  • Важно обеспечить прозрачность решений ИИ и понятность причинно-следственных объяснений.
  • Необходимо внимательно управлять доступами и средами исполнения.

Вывод

Aardvark — важный шаг в сторону постоянного, интеллектуального и автономного контроля безопасности.
Он не просто ищет ошибки, а объясняет их и помогает исправлять, приближая команду к модели «безопасность встроена по умолчанию».

Будущее безопасной разработки всё больше зависит от сотрудничества человека и ИИ, где ИИ помогает масштабировать экспертизу, а человек обеспечивает стратегические решения.