© 2026FindAgent  · @simprr
返回列表
P

PleasePrompto/notebooklm-mcp

MCP server for NotebookLM - Let your AI agents (Claude Code, Codex) research documentation directly with grounded, citation-backed answers from Gemini. Persistent auth, library management, cross-client sharing. Zero hallucinations, just your knowledge base.

⭐

1.7k

Stars

🔱

220

Forks

👁

11

Watchers

📋

23

Issues

TypeScriptMIT创建于 2025/10/16更新于 今天
在 GitHub 上查看
README
由 Gemini 翻译整理

NotebookLM MCP Server

让你的 CLI Agent(Claude、Cursor、Codex 等)直接与 NotebookLM 对话,基于你自己的笔记本获取零幻觉(Zero-hallucination)的答案。

TypeScript MCP npm Claude Code Skill GitHub

安装 • 快速开始 • 为什么选择 NotebookLM 而非本地 RAG • 实际案例 • Claude Code Skill • 文档


问题所在

当你让 Claude Code 或 Cursor “搜索我的本地文档”时,通常会发生以下情况:

  • 海量 Token 消耗:搜索文档意味着需要重复读取多个文件。
  • 检索不准确:仅基于关键词搜索,容易丢失文档间的上下文与关联。
  • 产生幻觉:当找不到相关信息时,它会编造出听起来很像的 API。
  • 昂贵且缓慢:每一个问题都需要重新读取多个文件。

解决方案

让你的本地 Agent 直接与 NotebookLM 对话——这是 Google 基于 Gemini 2.5 构建的零幻觉知识库,能够从你的文档中提供智能、经过综合分析的答案。

你的任务 → 本地 Agent 询问 NotebookLM → Gemini 综合生成答案 → Agent 编写正确的代码

真正的优势:无需在 NotebookLM 和编辑器之间手动复制粘贴。你的 Agent 可以直接询问 NotebookLM 并在 CLI 中立即获得回复。它通过自动追问构建深度理解——Claude 可以连续提出多个问题,每个问题都建立在前一个问题之上,从而获得具体的实施细节、边界情况和最佳实践。你可以将 NotebookLM 链接保存到本地库中并添加标签和描述,Claude 会根据你当前的任务自动选择相关的笔记本。


为什么选择 NotebookLM 而非本地 RAG?

方法Token 成本设置时间幻觉率答案质量
将文档喂给 Claude🔴 极高 (多次读取文件)即时有 - 填补空白检索不稳定
网页搜索🟡 中等即时高 - 来源不可靠好坏参半
本地 RAG🟡 中高小时级 (向量化、分块)中 - 检索存在盲区取决于配置
NotebookLM MCP🟢 极低5 分钟零 - 未知内容会拒绝回答专家级综合

为什么 NotebookLM 表现更优?

  1. 由 Gemini 预处理:文档上传一次,即可获得即时的专家级知识。
  2. 自然语言问答:不仅仅是检索,而是真正的理解与综合。
  3. 多源关联:能够关联跨越 50 多份文档的信息。
  4. 基于引用:每个答案都包含来源引用。
  5. 无需基础设施:无需向量数据库、嵌入(Embeddings)或复杂的分块策略。

安装

Claude Code

claude mcp add notebooklm npx notebooklm-mcp@latest

Codex

codex mcp add notebooklm -- npx notebooklm-mcp@latest

Gemini

gemini mcp add notebooklm npx notebooklm-mcp@latest

Cursor

添加到 ~/.cursor/mcp.json:

{
  "mcpServers": {
    "notebooklm": {
      "command": "npx",
      "args": ["-y", "notebooklm-mcp@latest"]
    }
  }
}

amp

amp mcp add notebooklm -- npx notebooklm-mcp@latest

VS Code

code --add-mcp '{"name":"notebooklm","command":"npx","args":["notebooklm-mcp@latest"]}'

其他 MCP 客户端

通用 MCP 配置:

{
  "mcpServers": {
    "notebooklm": {
      "command": "npx",
      "args": ["notebooklm-mcp@latest"]
    }
  }
}

替代方案:Claude Code Skill

比起 MCP,更喜欢 Claude Code Skills? 本服务器现已作为原生的 Claude Code Skill 提供,设置更为简单:

NotebookLM Claude Code Skill - 克隆到 ~/.claude/skills 即可立即开始使用。

关键区别:

  • MCP Server (本仓库):支持持久会话,适用于 Claude Code、Codex、Cursor 及其他所有 MCP 客户端。
  • Claude Code Skill:设置简单,基于 Python,无状态查询,仅适用于本地 Claude Code。

两者均使用相同的浏览器自动化技术,并提供基于你 NotebookLM 笔记本的零幻觉答案。


快速开始

1. 安装 MCP 服务器(参考上述安装部分)

2. 身份验证(仅需一次)

在你的对话框(Claude/Codex)中输入:

"Log me in"
贡献者
Pj
项目信息
默认分支main
LicenseMIT License
创建时间2025/10/16
最近更新今天
GAI 中文摘要

notebooklm-mcp 是一个基于 Model Context Protocol (MCP) 标准的开源项目,旨在将 Google 的 NotebookLM 深度整合到 CLI 智能体中。该项目通过允许 Claude Code、Cursor 等开发者工具直接调用 NotebookLM 的知识库,解决了本地文档搜索效率低、响应慢以及 AI 幻觉严重等痛点。

支持将 NotebookLM 作为外部知识源直接挂载至开发环境,通过自然语言查询获取经过 Gemini 深度综合处理的精确答案。内置持久化认证机制与库管理功能,能够实现不同客户端间的知识共享。支持智能上下文追踪,允许 AI 在多轮对话中自动构建关联理解,从而获取更具深度的实现细节与最佳实践。自动根据当前开发任务选择最相关的知识库,大幅减少 Token 消耗并确保回答有理有据。

该项目适用于依赖大规模文档、API 手册或知识库进行编码的软件开发人员,特别是在使用 Claude Code 或 Cursor 等智能开发工具时,能够显著提升查找文档、解决复杂工程问题的效率和准确性。