© 2026FindAgent  · @simprr
返回列表
M

MemoriLabs/Memori

SQL Native Memory Layer for LLMs, AI Agents & Multi-Agent Systems

agentagent-memoryaiai-memoryaiagentawesomechatgptllmlong-short-term-memorymemori-aimemorymemory-managementmemory-mcpopenclaw-memorypythonragstate-management
⭐

12.8k

Stars

🔱

1.4k

Forks

👁

55

Watchers

📋

8

Issues

PythonNOASSERTION创建于 2025/7/24更新于 今天
在 GitHub 上查看访问主页
README
由 Gemini 翻译整理

Memori Labs

面向企业级 AI 的记忆架构(Memory Fabric)。

Memori 可接入你现有的软件和基础设施。它与 LLM、数据存储和框架无关,能够无缝集成到你已经设计好的架构中。

→ Memori Cloud — 零配置。获取 API key,几分钟内即可开始构建。


入门指南

安装

TypeScript SDK

npm install @memorilabs/memori

Python SDK

pip install memori

快速开始

在 app.memorilabs.ai 注册并获取 Memori API key,即可开始构建。完整文档请参考:memorilabs.ai/docs/memori-cloud/。

设置 MEMORI_API_KEY 以及你的 LLM API key(例如 OPENAI_API_KEY),然后:

TypeScript SDK

import { OpenAI } from 'openai';
import { Memori } from '@memorilabs/memori';

// 要求在环境变量中设置 MEMORI_API_KEY 和 OPENAI_API_KEY
const client = new OpenAI();
const mem = new Memori().llm
  .register(client)
  .attribution('user_123', 'support_agent');

async function main() {
  await client.chat.completions.create({
    model: 'gpt-4o-mini',
    messages: [{ role: 'user', content: 'My favorite color is blue.' }],
  });
  // 对话会在后台自动持久化并被检索。

  const response = await client.chat.completions.create({
    model: 'gpt-4o-mini',
    messages: [{ role: 'user', content: "What's my favorite color?" }],
  });
  // Memori 回忆起你最喜欢的颜色是蓝色。
}

Python SDK

from memori import Memori
from openai import OpenAI

# 要求在环境变量中设置 MEMORI_API_KEY 和 OPENAI_API_KEY
client = OpenAI()
mem = Memori().llm.register(client)

mem.attribution(entity_id="user_123", process_id="support_agent")

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "My favorite color is blue."}]
)
# 对话会被自动持久化和检索。

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "What's my favorite color?"}]
)
# Memori 回忆起你最喜欢的颜色是蓝色。

探索记忆

使用 仪表盘 (Dashboard) — 管理记忆、分析、Playground 以及 API Keys。

[!TIP] 想使用自己的数据库?请查看 Memori BYODB 文档: https://memorilabs.ai/docs/memori-byodb/。

LoCoMo 基准测试

Memori 在用于长对话记忆的 LoCoMo 基准测试中进行了评估,平均每条查询使用 1,294 tokens,实现了 81.95% 的整体准确率。这仅占完整上下文开销的 4.97%,表明结构化记忆可以在不强行将大量提示词(Prompt)放入每次请求的情况下,依然保持高质量的推理能力。

与其他基于检索的记忆系统相比,Memori 的表现优于 Zep、LangMem 和 Mem0,同时将提示词大小缩减了约 67%(对比 Zep),并将上下文成本降低了超过 20 倍(对比全上下文提示)。

阅读 基准测试概述,查看 结果,或下载 论文。

"Memori 的平均准确率及标准差"

OpenClaw(为你的网关提供持久记忆)

默认情况下,OpenClaw agent 在会话之间会丢失所有信息。Memori 插件解决了这个问题。它能在每次对话后捕获持久的事实和偏好,并在后续对话中自动将最相关的上下文注入到 Prompt 中。

无需更改你的 agent 代码或 Prompt。该插件挂载到 OpenClaw 的生命周期中,通过一个简易的即插即用插件,即可获得结构化记忆、智能检索和高级增强功能。

openclaw plugins install @memorilabs/openclaw-memori
openclaw plugins enable openclaw-memori

openclaw config set plugins.entries.openclaw-memori.config.apiKey "YOUR_MEMORI_API_KEY"
openclaw config set plugins.entries.openclaw-memori.config.entityId "your-app-user-id"

openclaw gateway restart

有关设置和配置,请参阅 OpenClaw 快速开始。有关架构和生命周期的详细信息,请参阅 OpenClaw 概述。

MCP(一行命令连接你的 Agent)

你的 agent 在会话之间会忘记所有内容。Memori 解决了这个问题。它能记住你的技术栈、惯例以及你偏好的工作方式,让你不再需要重复输入相同的内容。

适用于个人开发者和团队。你的 agent 会随着时间推移学习编码模式、审阅偏好和项目约定。对于团队而言,这意味着能够共享上下文。

贡献者
hBdmrasl3j
项目信息
默认分支main
LicenseOther
创建时间2025/7/24
最近更新今天
GAI 中文摘要

Memori 是一个专为企业级 AI 设计的内存架构层,旨在为大语言模型(LLM)、AI 智能体及多智能体系统提供结构化的记忆管理能力。该项目通过与现有的软件基础设施无缝集成,解决 AI 应用在处理长时记忆与状态维护时的复杂性问题。

提供 SQL 原生的记忆存储能力,支持高效的语义检索与状态持久化。

具备模型与框架无关的特性,能够灵活适配各种主流 LLM 和技术栈。

支持高度优化的内存检索机制,在长对话场景中能显著降低 token 消耗并保持推理质量。

提供简单易用的云端部署方案,支持开发者通过零配置 API 快速构建应用。

支持自定义数据库(BYODB)集成,满足企业对数据安全与基础设施的可控性需求。

适用于需要处理长期记忆、复杂用户上下文或多轮交互的 AI 智能体开发。非常适合希望在现有技术栈中无缝植入专业级记忆存储功能的开发者及企业团队。