© 2026FindAgent  · @simprr
返回列表
r

raga-ai-hub/RagaAI-Catalyst

Python SDK for Agent AI Observability, Monitoring and Evaluation Framework. Includes features like agent, llm and tools tracing, debugging multi-agentic system, self-hosted dashboard and advanced analytics with timeline and execution graph view

agentic-aiagentic-ai-developmentagentneoagentsai-agent-monitoringai-application-debuggingai-evaluation-toolsai-performance-optimizationai-tool-interaction-monitoringllm-testingllm-tracingllmops
⭐

16.1k

Stars

🔱

3.6k

Forks

👁

35

Watchers

📋

33

Issues

PythonApache-2.0创建于 2024/8/26更新于 今天
在 GitHub 上查看访问主页
README
由 Gemini 翻译整理

RagaAI Catalyst  GitHub release (latest by date) GitHub stars Issues

RagaAI Catalyst 是一个综合性平台,旨在提升 LLM 项目的管理与优化效率。它提供了丰富的功能,包括项目管理、数据集管理、评估管理、Trace 管理、Prompt 管理、合成数据生成以及护栏(Guardrail)管理。通过这些功能,您可以高效地评估并保障 LLM 应用的安全性。

目录

  • RagaAI Catalyst
    • 安装
    • 配置
    • 使用指南
      • 项目管理
      • 数据集管理
      • 评估管理
      • Trace 管理
      • Agentic Tracing
      • Prompt 管理
      • 合成数据生成
      • 护栏管理
      • 红队测试 (Red-teaming)

安装

您可以通过 pip 安装 RagaAI Catalyst:

pip install ragaai-catalyst

配置

在使用 RagaAI Catalyst 之前,您需要设置凭证。可以通过设置环境变量或直接在 RagaAICatalyst 类中传递参数来完成:

from ragaai_catalyst import RagaAICatalyst

catalyst = RagaAICatalyst(
    access_key="YOUR_ACCESS_KEY",
    secret_key="YOUR_SECRET_KEY",
    base_url="BASE_URL"
)

您需要生成认证凭证:

  1. 进入您的个人资料设置(Profile settings)
  2. 选择“Authenticate”
  3. 点击“Generate New Key”以创建您的 access key 和 secret key

How to generate authentication keys

注意:执行下方任何操作都需要先完成 RagaAICatalyst 的身份验证。

使用指南

项目管理

使用 RagaAI Catalyst 创建和管理项目:

# 创建项目
project = catalyst.create_project(
    project_name="Test-RAG-App-1",
    usecase="Chatbot"
)

# 获取项目用例
catalyst.project_use_cases()

# 列出所有项目
projects = catalyst.list_projects()
print(projects)

Projects

数据集管理

为您的项目高效管理数据集:

from ragaai_catalyst import Dataset

# 初始化特定项目的 Dataset 管理
dataset_manager = Dataset(project_name="project_name")

# 列出已有数据集
datasets = dataset_manager.list_datasets()
print("Existing Datasets:", datasets)

# 从 CSV 创建数据集
dataset_manager.create_from_csv(
    csv_path='path/to/your.csv',
    dataset_name='MyDataset',
    schema_mapping={'column1': 'schema_element1', 'column2': 'schema_element2'}
)

# 获取项目 Schema 映射
dataset_manager.get_schema_mapping()

Dataset

关于数据集管理的更多详细信息(包括 CSV Schema 处理和高级用法),请参考 Dataset Management 文档。

评估管理

创建并管理 RAG 应用的指标评估:

from ragaai_catalyst import Evaluation

# 创建实验
evaluation = Evaluation(
    project_name="Test-RAG-App-1",
    dataset_name="MyDataset",
)

# 获取可用指标列表
evaluation.list_metrics()

# 将指标添加到实验中
schema_mapping={
    'Query': 'prompt',
    'response': 'response',
    'Context': 'context',
    'expectedResponse': 'expected_response'
}

# 添加单个指标
evaluation.add_metrics(
    metrics=[
      {"name": "Faithfulness", "config": {"model": "gpt-4o-mini", "provider": "openai", "threshold": {"gte": 0.232323}}, "column_name": "Faithfulness_v1", "schema_mapping": schema_mapping},
    
    ]
)

# 添加多个指标
evaluation.add_metrics(
    metrics=[
        {"name": "Faithfulness", "config": {"model": "gpt-4o-mini", "provider": "openai", "threshold": {"gte": 0.323}}, "column_name": "Faithfulness_gte", "schema_mapping": schema_mapping},
        {"name": "Hallucination", "config": {"model": "gpt-4o-mini", "provider": "openai", "threshold": {"lte": 0.323}}, "column_name": "Hallucination_lte", "schema_mapping": schema_mapping},
        {"name": "Hallucination", "config": {"model": "gpt-4o-mini", "provider": "openai", "threshold": {"eq": 0.323}}, "column_name": "Hallucination_eq", "schema_mapping": schema_mapping},
    ]
)

# 获取实验状态
status = evaluation.get_status()
print("Experiment Status:", status)

# 获取实验结果
results = evaluation.get_results()
print("Experiment Results:", results)

# 为新数据追加指标
# 如果您向数据集添加了新行,可以重新计算指标
贡献者
kvS2jRpVrs
项目信息
默认分支main
LicenseApache License 2.0
创建时间2024/8/26
最近更新今天
GAI 中文摘要

RagaAI-Catalyst 是一个专为 LLM 项目打造的全方位可观测性与评估框架,通过提供 Python SDK 帮助开发者高效管理、调试并优化智能体及 RAG 应用。它旨在解决复杂 AI 系统在开发与部署过程中的黑盒问题,实现对数据、性能及执行逻辑的全链路监控与保障。

该平台支持对智能体、大模型以及各类工具调用的全链路追踪,确保能够深入洞察复杂系统的执行过程。它提供全面的评估管理功能,用于系统性量化 LLM 应用的性能指标并进行深度测评。通过内置的合成数据生成与红队测试工具,开发者可以主动挖掘潜在风险并优化模型鲁棒性。其自托管的仪表盘具备强大的分析能力,支持通过时间轴与执行图直观展示智能体的行为逻辑。系统还集成了严密的防护栏管理机制,能够有效管控提示词及其生成内容的合规性与安全性。

该项目适用于正在构建复杂 AI 智能体或 RAG 应用的开发者与企业团队,特别适合在 AI 产品研发、性能调优及上线前安全合规性审查等场景中使用。