A text-based user interface (TUI) client for interacting with MCP servers using Ollama. Features include agent mode, multi-server, model switching, streaming responses, tool management, human-in-the-loop, thinking mode, model params config, MCP prompts, custom system prompt and saved preferences. Built for developers working with local LLMs.
mcp-client-for-ollama 是一个基于 Python 开发的交互式终端程序(TUI),旨在为本地 Ollama 大模型提供 Model Context Protocol(MCP)协议支持。通过该工具,开发者能够让本地运行的 LLM 轻松调用各类外部工具,从而显著增强其任务处理能力与工作流自动化水平。
该工具支持同时连接多个 MCP 服务器,并提供直观的界面以便灵活进行模型切换与参数配置。具备完善的工具管理功能,支持流式响应输出以及包含思考模式在内的高级推理体验。内置人机回环机制(Human-in-the-Loop),允许用户在工具执行过程中进行干预或确认。支持管理 MCP Prompts、自定义系统提示词以及保存个人偏好设置,极大简化了复杂的代理任务开发流程。
该项目非常适合深度使用本地大模型的开发者与 AI 工程师,可用于构建、调试或实验基于 MCP 协议的智能代理应用,特别是在需要频繁切换工具、模型参数或进行自动化任务编排的终端开发场景下具有显著优势。