AI Agent Evaluator & Red Team Platform
Rogue 是一个专为 AI Agent 设计的评估与红队测试平台,旨在帮助开发者在系统上线前主动识别安全隐患。通过自动化评估与对抗性测试,该项目能够有效验证 AI Agent 的合规性、鲁棒性以及业务逻辑的正确性。
提供基于业务策略的自动化评估功能,通过预设场景验证 Agent 的行为是否符合业务要求并生成详细报告。 内置强大的红队测试模块,涵盖超过 75 种漏洞检测及多种攻击技术,全面覆盖 OWASP、NIST 等主流安全合规框架。 支持多种主流协议接入,包括 Google 的 A2A 协议、模型上下文协议 (MCP) 以及直接的 Python 函数调用,具备极高的集成灵活性。 提供命令行界面 (CLI) 与交互式终端界面 (TUI),支持自动化集成至 CI/CD 流水线,实现高效的安全测试流程。
适用于需要对 AI Agent 进行严格质量把控的开发团队,特别是在金融、医疗或企业级应用等对安全性、合规性有极高要求的场景中使用。