© 2026FindAgent  · @simprr
返回列表
l

lmnr-ai/lmnr

Laminar - open-source observability platform purpose-built for AI agents. YC S24.

agent-observabilityagentsaiai-observabilityaiopsanalyticsdeveloper-toolsevalsevaluationllm-evaluationllm-observabilityllmopsmonitoringobservabilityopen-sourcerustrust-langself-hostedtstypescript
⭐

2.7k

Stars

🔱

183

Forks

👁

12

Watchers

📋

87

Issues

TypeScriptApache-2.0创建于 2024/8/29更新于 今天
在 GitHub 上查看访问主页
README
由 Gemini 翻译整理

Static Badge X (formerly Twitter) Follow Static Badge

Laminar banner

Laminar

Laminar 是一个专为 AI Agent 构建的开源可观测性平台。

  • Tracing(链路追踪)。文档
    • 基于 OpenTelemetry 的强大 Tracing SDK - 只需一行代码,即可自动追踪 Vercel AI SDK, Browser Use, Stagehand, LangChain, OpenAI, Anthropic, Gemini 等。
  • Evals(评估)。文档
    • 无偏见、可扩展的 SDK 和 CLI,用于在本地或 CI/CD 流水线中运行评估。
    • 用于可视化评估结果并进行对比的 UI。
  • AI 监控。文档
    • 使用自然语言描述定义事件,以跟踪 Agent 的问题、逻辑错误和自定义行为。
  • 所有数据的 SQL 访问权限。文档
    • 使用内置的 SQL 编辑器查询 Traces、Metrics 和事件。可通过查询批量创建数据集,并提供 API 访问。
  • 仪表盘。文档
    • 功能强大的仪表盘构建器,支持 Traces、Metrics、事件以及自定义 SQL 查询。
  • 数据标注与数据集。文档
    • 自定义数据渲染 UI,用于快速进行数据标注并创建评估用的数据集。
  • 极高性能。
    • 使用 Rust 编写 🦀
    • 自定义实时引擎,可即时查看链路追踪过程。
    • 针对 Span 数据提供超快的全文搜索。
    • 用于追踪数据的 gRPC 导出器。

Traces

文档

查看完整文档请访问 docs.laminar.sh。

快速开始

最快、最简单的入门方式是使用我们的托管平台 -> laminar.sh

使用 Docker Compose 进行自托管

Laminar 非常容易在本地进行自托管。如需快速启动,请克隆仓库并使用 docker compose 启动服务:

git clone https://github.com/lmnr-ai/lmnr
cd lmnr
docker compose up -d

这将启动一个轻量级但功能齐全的技术栈版本。这适用于快速入门或轻量级使用。你可以在浏览器中访问 http://localhost:5667 进入 UI。

你还需要使用 baseUrl 和正确的端口正确配置 SDK。请参考自托管指南。

对于生产环境,我们建议使用我们的托管平台或运行 docker compose -f docker-compose-full.yml up -d。

启用 Signals 功能

若要在自托管模式下启用 Signals / AI 监控,请在你的 .env 文件中设置 GOOGLE_GENERATIVE_AI_API_KEY 环境变量。此密钥是应用服务器和前端所必需的。

# 在仓库根目录下的 .env 文件中
GOOGLE_GENERATIVE_AI_API_KEY=your_key_here

贡献

如需在本地运行和构建 Laminar,或了解更多关于 docker compose 文件的信息,请遵循 CONTRIBUTING.md 中的指南。

TS 快速入门

首先,创建一个项目并生成项目 API Key。然后:

npm add @lmnr-ai/lmnr

这将安装 Laminar TS SDK 以及所有相关的仪表化包(OpenAI、Anthropic、LangChain 等)。

要开始追踪 LLM 调用,只需添加:

import { Laminar } from '@lmnr-ai/lmnr';
Laminar.initialize({ projectApiKey: process.env.LMNR_PROJECT_API_KEY });

要追踪函数的输入/输出,请使用 observe 包装器:

import { OpenAI } from 'openai';
import { observe } from '@lmnr-ai/lmnr';

const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });

const poemWriter = observe({name: 'poemWriter'}, async (topic) => {
  const response = await client.chat.completions.create({
    model: "gpt-4o-mini",
    messages: [{ role: "user", content: `write a poem about ${topic}` }],
  });
  return response.choices[0].message.content;
});

await poemWriter();

Python 快速入门

首先,创建一个项目并生成项目 API Key。然后:

pip install --upgrade 'lmnr[all]'

这将安装 Laminar Python SDK 以及所有相关的仪表化包。查看所有仪表化支持列表请点击此处。

要开始追踪 LLM 调用,只需添加:

from lmnr import Laminar
Laminar.initialize(project_api_key="")

要追踪函数的输入/输出,请使用 @observe() 装饰器:

import os
from openai import OpenAI

from lmnr import observe, Laminar
Laminar.initialize(project_api_key="")

client = OpenAI(api_key=os.environ["OPENAI
贡献者
dosRlSkdst
项目信息
默认分支main
LicenseApache License 2.0
创建时间2024/8/29
最近更新今天
GAI 中文摘要

Laminar 是一个专为 AI Agent 设计的开源可观测性平台。该项目旨在通过全方位的追踪、评估与监控功能,帮助开发者深入洞察 AI 代理的行为逻辑并快速定位问题。

通过原生支持 OpenTelemetry 的 SDK 实现对主流 AI 框架与模型的自动化追踪。提供灵活的可扩展工具链,支持在本地或 CI/CD 环境中执行高效的 AI 模型评估。内置自然语言事件追踪功能,可自定义监测代理运行中的逻辑错误与特定行为。提供全功能的仪表盘与 SQL 编辑器,支持通过查询语言对所有运行数据进行深度分析与自定义可视化。基于 Rust 开发的高性能架构确保了实时追踪查看与大规模数据的极速搜索能力。

适用于正在开发和维护 AI Agent 的研发团队及 AI 应用工程师,特别是在需要进行模型评估、生产环境监控以及复杂链路排查的场景下使用。