Amazon RuleForge:利用代理式 AI 实现漏洞检测规则生成效率提升 336%

2026/04/09 00:17阅读量 2

Amazon 推出名为 RuleForge 的代理式 AI 系统,旨在解决全球海量漏洞披露与防御响应之间的时间差问题。该系统通过将规则创建流程分解为多个阶段,利用专用 AI 智能体并行生成、评估和验证检测规则,使生产级规则的生成速度比传统人工方法快 336%。引入独立的“裁判”模型并结合特定领域的负面提示技术,成功将误报率降低了 67%,同时保持了高召回率。

事件概述

面对 2025 年国家漏洞数据库(NVD)发布的超过 48,000 个新通用漏洞和暴露(CVEs),安全团队亟需将漏洞披露快速转化为有效的检测逻辑。Amazon 为此构建了 RuleForge 系统,这是一个基于代理式 AI(Agentic AI)的自动化平台,能够从漏洞利用代码示例中直接生成可直接投入生产的检测规则。该系统在保持高精度要求的同时,实现了比人工手动编写规则快 336% 的生产力优势。

核心机制与架构

RuleForge 并未试图用单一模型解决端到端问题,而是将规则创建过程重构为模仿人类专家工作流的流水线,包含以下关键阶段:

  1. 自动化摄入与优先级排序

    • 利用内容分析和威胁情报源对每个 PoC 进行评分,确保资源集中在最关键的威胁上。
  2. 并行规则生成

    • 针对每个优先级的 CVE,运行在 AWS Fargate 上的生成智能体(Generation Agent)利用 Amazon Bedrock 并行提出多个候选检测规则。
    • 候选规则可根据后续阶段的反馈进行多轮迭代优化,从而探索不同的检测策略。
  3. AI 驱动的评估(独立裁判模型)

    • 创新点:RuleForge 不使用生成模型自我评估,而是采用一个专门的“裁判”模型(Judge Model)对候选规则进行打分。
    • 评估维度
      • 敏感性(Sensitivity):规则未能标记 CVE 描述中恶意请求的概率。
      • 特异性(Specificity):规则是否仅针对与漏洞相关的特征,而非无关特征。
    • 效果:通过领域特定的提示词(Prompts)和否定性表述(Negative Phrasing),该模型将误报率降低了 67%,同时维持了真阳性率。
  4. 多阶段验证与人机协同

    • 通过裁判模型的规则进入多阶段验证管道。
    • 最终保留“人在回路”(Human-in-the-loop)设计,由人类专家进行最终审批,确保生成的规则符合生产环境标准。

背景与数据支撑

  • 应用场景:生成的 JSON 格式检测规则应用于 Amazon 的全球蜜罐系统 MadPot(用于捕获黑客行为)以及内部检测系统 Sonaris 标记的潜在攻击尝试。
  • 传统流程痛点:过去的人工流程包括下载分析 PoC 代码、编写检测逻辑、查询日志验证、调优减少误报、同行评审及部署。虽然质量高,但耗时过长,导致团队无法覆盖所有高危漏洞。
  • 当前成效:RuleForge 使得团队能够以传统方法无法企及的速度和规模,将高危 CVE 转化为经过验证的检测规则,有效填补了漏洞披露与防御实施之间的空白。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。