© 2026FindAgent  · @simprr
返回列表
w

wassim249/fastapi-langgraph-agent-production-ready-template

A production-ready FastAPI template for building AI agent applications with LangGraph integration. This template provides a robust foundation for building scalable, secure, and maintainable AI agent services.

agentagentic-aidockerfastapifastapi-templatelangchainlangchain-pythonlanggraphlanggraph-pythonllmmemory
⭐

2.1k

Stars

🔱

483

Forks

👁

11

Watchers

📋

18

Issues

PythonMIT创建于 2025/4/7更新于 今天
在 GitHub 上查看
README
由 Gemini 翻译整理

FastAPI LangGraph Agent 模板

这是一个生产就绪的 FastAPI 模板,用于构建集成了 LangGraph 的 AI Agent 应用程序。该模板为构建可扩展、安全且易于维护的 AI Agent 服务提供了坚实的基础。

🌟 特性

  • 生产就绪架构

    • FastAPI:结合 uvloop 优化,实现高性能异步 API 端点
    • LangGraph 集成:支持带状态持久化的 AI Agent 工作流
    • Langfuse:用于 LLM 可观测性和监控
    • 结构化日志:支持针对环境的特定格式化及请求上下文绑定
    • 限流控制:支持按端点配置限流规则
    • PostgreSQL 与 pgvector:用于数据持久化和向量存储
    • Docker 和 Docker Compose 支持
    • Prometheus 指标与 Grafana 仪表盘:用于系统监控
  • AI 与 LLM 功能

    • 长期记忆:利用 mem0ai 和 pgvector 实现语义记忆存储
    • LLM 服务:通过 tenacity 实现自动重试逻辑
    • 多 LLM 模型支持(GPT-4o, GPT-4o-mini, GPT-5, GPT-5-mini, GPT-5-nano)
    • 流式响应:支持实时聊天交互
    • 工具调用与函数执行能力
  • 安全性

    • 基于 JWT 的身份验证
    • 会话(Session)管理
    • 输入清洗(Sanitization)
    • CORS 配置
    • 限流保护
  • 开发体验

    • 环境特定配置:支持自动加载 .env 文件
    • 全面日志系统:支持上下文绑定
    • 清晰的项目结构:遵循最佳实践
    • 类型提示(Type hints):贯穿全程以提供更好的 IDE 支持
    • 简便的本地开发设置:提供 Makefile 命令
    • 自动重试逻辑:采用指数退避算法(Exponential backoff)以增强稳定性
  • 模型评估框架

    • 基于度量的模型输出自动化评估
    • 集成 Langfuse 进行追踪(Trace)分析
    • 包含成功/失败指标的详细 JSON 报告
    • 交互式 CLI
    • 可自定义的评估指标

🚀 快速开始

前置条件

  • Python 3.13+
  • PostgreSQL(查看数据库设置)
  • Docker 和 Docker Compose (可选)

环境设置

  1. 克隆仓库:
git clone 
cd 
  1. 创建并激活虚拟环境:
uv sync
  1. 复制示例环境文件:
cp .env.example .env.[development|staging|production] # 例如 .env.development
  1. 使用您的配置更新 .env 文件(参考 .env.example)

数据库设置

  1. 创建 PostgreSQL 数据库(例如使用 Supabase 或本地 PostgreSQL)
  2. 在您的 .env 文件中更新数据库连接设置:
POSTGRES_HOST=db
POSTGRES_PORT=5432
POSTGRES_DB=cool_db
POSTGRES_USER=postgres
POSTGRES_PASSWORD=postgres
  • 您无需手动创建表,ORM 将自动为您处理。但如果遇到任何问题,请运行 schemas.sql 文件手动创建表。

运行应用程序

本地开发

  1. 安装依赖:
uv sync
  1. 运行应用程序:
make [dev|staging|prod] # 例如 make dev
  1. 访问 Swagger UI:
http://localhost:8000/docs

使用 Docker

  1. 使用 Docker Compose 构建并运行:
make docker-build-env ENV=[development|staging|production] # 例如 make docker-build-env ENV=development
make docker-run-env ENV=[development|staging|production] # 例如 make docker-run-env ENV=development
  1. 访问监控栈:
# Prometheus 指标
http://localhost:9090

# Grafana 仪表盘
http://localhost:3000
默认凭据:
- 用户名: admin
- 密码: admin

Docker 设置包括:

  • FastAPI 应用程序
  • PostgreSQL 数据库
  • 用于指标收集的 Prometheus
  • 用于指标可视化的 Grafana
  • 预配置的仪表盘,包含:
    • API 性能指标
    • 限流统计信息
    • 数据库性能
    • 系统资源使用情况

📊 模型评估

本项目包含一个强大的评估框架,用于衡量和跟踪模型随时间推移的表现。评估器会自动从 Langfuse 获取追踪信息,应用评估指标,并生成详细报告。

运行评估

您可以使用提供的 Makefile 命令,通过不同选项运行评估:

# 交互模式,带有分步提示
make eval [ENV=development|staging|production]

# 快速模式,使用默认设置(无提示)
make eval-quick [ENV=development|staging|production]

# 不生成报告的评估
make eval-no-report [ENV=development|staging|production]

评估特性

  • 交互式 CLI:用户友好的界面,带有彩色输出和进度条
  • 灵活配置:设置默认值或在运行时进行自定义
  • 详细报告:包含全面指标的 JSON 报告,包括:
    • 总体成功率
    • 特定指标的表现
    • 持续时间与时序信息
    • 追踪级别的成功/失败详情

自定义指标

评估指标定义在...

贡献者
wAlmpbs
项目信息
默认分支master
LicenseMIT License
创建时间2025/4/7
最近更新今天
GAI 中文摘要

fastapi-langgraph-agent-production-ready-template 是一个专为生产环境设计的 Python 模板,旨在帮助开发者快速构建可扩展、安全且易于维护的 AI Agent 服务。该项目深度集成了 FastAPI 和 LangGraph,通过提供完整的工程化架构,解决了从原型开发到生产落地过程中的复杂性问题。

内置高性能 FastAPI 框架支持异步 API 处理及 uvloop 优化,保障系统的高吞吐性能。深度集成 LangGraph 实现具备状态持久化功能的 AI 工作流,并利用 Langfuse 提供 LLM 可观测性与实时监控。提供基于 PostgreSQL 和 pgvector 的语义记忆存储方案,实现高效的长期记忆管理与数据持久化。内置 JWT 认证、请求速率限制及输入净化功能,确保 AI 服务在生产环境中的高安全性。集成自动化模型评估框架,支持通过指标分析与追踪报告优化模型输出质量。

该项目适用于需要快速构建复杂 AI Agent 的后端工程师及架构师,特别适合企业级实时聊天应用、自动化智能助手及需要大规模部署的 LLM 服务开发场景。