© 2026FindAgent  · @simprr
返回列表
m

mudler/LocalAGI

LocalAGI is a powerful, self-hostable AI Agent platform designed for maximum privacy and flexibility. A complete drop-in replacement for OpenAI's Responses APIs with advanced agentic capabilities. No clouds. Local AI that works on consumer-grade hardware (CPU and GPU).

⭐

1.7k

Stars

🔱

254

Forks

👁

28

Watchers

📋

68

Issues

GoMIT创建于 2023/7/27更新于 今天
在 GitHub 上查看
README
由 Gemini 翻译整理

LocalAGI:你的 AI,你的硬件,你的规则

Go Report Card License: MIT GitHub stars GitHub issues

点击下方图标在线体验: Telegram

创建可自定义的 AI 助手、自动化流程、聊天机器人和 Agent,且完全在本地运行。无需复杂的 Python Agent 库或云服务密钥,只需准备好 GPU(甚至仅使用 CPU)和一个网页浏览器即可。

LocalAGI 是一个强大的、可自托管的 AI Agent 平台,让你无需编写代码即可设计 AI 自动化流程。只需几次点击即可创建 Agent,通过 MCP 连接,并使用内置的 Skills(在 Web UI 中管理技能并为每个 Agent 启用)。每个 Agent 都提供与 OpenAI Responses API 完全兼容的替代方案,并具备高级的 Agent 能力。没有云端,没有数据泄露,只有在消费级硬件(CPU 和 GPU)上运行的纯粹本地 AI。Skills 遵循 skillserver 格式,支持创建、导入或从 git 同步。

🛡️ 夺回你的隐私权

你是否厌倦了那些调用云端 API、威胁你隐私的 AI 包装器?我们也是。

LocalAGI 确保你的数据始终存放在你指定的地方——你的硬件上。无需 API 密钥,无需云订阅,无需妥协。

🌟 核心功能

  • 🎛 无代码 Agent:通过 Web UI 轻松配置多个 Agent。
  • 🖥 基于 Web 的界面:简单直观的 Agent 管理方式。
  • 🤖 高级 Agent 协作:通过单次提示词(Prompt)瞬间创建协同工作的 Agent 团队。
  • 📡 连接器:内置 Discord、Slack、Telegram、GitHub Issues 和 IRC 集成。
  • 🛠 全面的 REST API:无缝集成到你的工作流中。每个创建的 Agent 都将开箱即用地支持 OpenAI Responses API。
  • 📚 短长期记忆:内置知识库 (RAG),支持收藏集、文件上传和语义搜索。在 Web UI 的“知识库”下管理收藏集;启用了“知识库”的 Agent 会自动使用它(实现基于 LocalRecall 库)。
  • 🧠 规划与推理:Agent 能够智能地规划、推理并进行调整。
  • 🔄 周期性任务:使用类似 Cron 的语法调度任务。
  • 💾 内存管理:通过长期记忆和摘要记忆选项控制内存占用。
  • 🖼 多模态支持:支持视觉、文本等更多类型。
  • 🔧 可扩展的自定义操作:使用 Go 语言轻松编写动态 Agent 行为脚本(解释执行,无需编译!)。
  • 📚 内置 Skills:在 Web UI 中管理可复用的 Agent 技能(创建、编辑、导入/导出、git 同步)。为每个 Agent 启用“Skills”以注入技能工具和技能列表。
  • 🛠 完全可自定义的模型:使用你自己的模型或与 LocalAI 无缝集成。
  • 📊 可观测性:实时监控 Agent 状态并查看详细的可观测更新。

🛠️ 快速开始

# 克隆仓库
git clone https://github.com/mudler/LocalAGI
cd LocalAGI

# CPU 设置(默认)
docker compose up

# NVIDIA GPU 设置
docker compose -f docker-compose.nvidia.yaml up

# Intel GPU 设置(适用于 Intel Arc 和集成显卡)
docker compose -f docker-compose.intel.yaml up

# AMD GPU 设置
docker compose -f docker-compose.amd.yaml up

# 使用特定模型启动(查看 models.localai.io 获取可用模型,或访问 localai.io 使用 HuggingFace 上的任意模型)
MODEL_NAME=gemma-3-12b-it docker compose up

# 带有自定义多模态和图像模型的 NVIDIA GPU 设置
MODEL_NAME=gemma-3-12b-it \
MULTIMODAL_MODEL=moondream2-20250414 \
IMAGE_MODEL=flux.1-dev-ggml \
docker compose -f docker-compose.nvidia.yaml up

现在,你可以访问 http://localhost:8080 来管理你的 Agent。

仍有问题?请查看此 YouTube 视频:https://youtu.be/HtVwIxW3ePg

视频教程

Creating a basic agent Agent Observability Filters and Triggers RAG and Matrix

📚🆕 Local Stack 家族

🆕 LocalAI 现已成为协同工作的 AI 工具套件的一部分:

  • LocalAI:免费、开源的 OpenAI 替代方案。
贡献者
mdrlmAaCsg
项目信息
默认分支main
LicenseMIT License
创建时间2023/7/27
最近更新今天
GAI 中文摘要

LocalAGI 是一个基于 Go 语言构建的强大自托管 AI Agent 平台,旨在为用户提供私密、灵活的本地 AI 自动化解决方案。它无需依赖任何云端 API 或外部订阅,通过消费级硬件即可运行,并提供与 OpenAI API 兼容的完全替代方案。

通过直观的 Web 界面实现零代码配置,轻松创建和管理多个 AI 智能体。

内置丰富的连接器支持 Discord、Slack、Telegram 等主流平台,实现自动化工作流对接。

集成长短期记忆与 RAG 知识库功能,使智能体具备检索增强与语义理解能力。

支持智能体协作模式与周期性任务调度,让 AI 具备更强的推理、规划与执行能力。

提供与 OpenAI API 兼容的 REST 接口,确保现有应用能平滑迁移至本地环境。

该项目适合极其重视数据隐私及拥有自主硬件资源的开发者与企业,适用于构建完全可控的自动化助理、私有化智能客服及离线 AI 工作流系统。