Ollama MCP Bridge
🚀 MCP-LLM 桥接器
本项目使用 TypeScript 开发,旨在将本地大语言模型(借助 Ollama)与模型上下文协议(MCP)服务器连接起来。通过此桥接器,开源模型能像 Claude 一样运用相同的工具和功能,进而打造强大的本地 AI 助手。
🚀 快速开始
该项目可将本地大型语言模型与 MCP 服务器相连,MCP 服务器具备多种实用功能,如文件系统操作、勇敢的网络搜索、GitHub 交互、Google Drive 和 Gmail 集成、内存/存储管理以及使用 Flux 进行图像生成。桥接器会在 LLM 的输出和 MCP 的 JSON - RPC 协议间进行转换,让任何 Ollama 兼容模型都能像 Claude 一样使用这些工具。
✨ 主要特性
- 多 MCP 支持和动态工具路由:可支持多个 MCP 服务器,并能根据工具类型动态路由请求。
- 工具调用的结构化输出验证:确保工具调用输出的结构符合要求。
- 用户提示中的自动工具检测:能自动识别用户提示中的工具调用需求。
- 强大的 Ollama 进程管理:有效管理 Ollama 相关进程。
- 详细的日志记录和错误处理:便于排查和解决问题。
📦 安装指南
安装 Ollama 和所需模型
ollama pull qwen2.5-coder:7b-instruct
安装 MCP 服务器
npm install -g @modelcontextprotocol/server-filesystem
npm install -g @modelcontextprotocol/server-brave-search
npm install -g @modelcontextprotocol/server-github
npm install -g @modelcontextprotocol/server-memory
npm install -g @patruff/server-flux
npm install -g @patruff/server-gmail-drive
配置凭证
- 设置
BRAVE_API_KEY
用于勇敢搜索。 - 设置
GITHUB_PERSONAL_ACCESS_TOKEN
用于 GitHub。 - 设置
REPLICATE_API_TOKEN
用于 Flux。 - 使用以下命令配置 Gmail 凭证:
cp $HOME/.config/Google/credentials.json ~/.config/gmail-credential
配置文件
创建或编辑位于 $HOME/.config/mcp-llm/config.json
的配置文件,示例内容如下:
{
"ollama": {
"host": "http://localhost:11434"
},
"gmail": {
"enable": false,
"credential_path": "~/.config/gmail-credential"
}
}
💻 使用示例
基础用法
启动桥接器
npm run start
发送简单消息
curl -X POST http://localhost:3000/api/v1/message -H "Content-Type: application/json" -d '{"message": "你好,世界!"}'
发送带有工具调用的消息
curl -X POST http://localhost:3000/api/v1/message -H "Content-Type: application/json" -d '{"message": "给我讲个笑话,请使用 joke-teller 工具。"}'
🔧 技术细节
- 桥接器支持多线程处理,最大连接数为 100。
- 请求超时时间为 30 秒,重试次数为 3 次。
- 支持文件附件上传和下载。
📚 详细文档
当前配置
属性 | 详情 |
---|---|
模型类型 | 使用 Qwen 2.5 7B(qwen2.5-coder:7b-instruct)通过 Ollama |
MCP 服务 | 文件系统操作 (@modelcontextprotocol/server-filesystem )、勇敢搜索 (@modelcontextprotocol/server-brave-search )、GitHub (@modelcontextprotocol/server-github )、记忆 (@modelcontextprotocol/server-memory )、Flux 图像生成 (@patruff/server-flux )、Gmail 和 Google Drive (@patruff/server-gmail-drive ) |
架构
- 桥接器:作为核心组件,负责工具注册和执行管理。
- LLM 客户端:处理 Ollama 交互并格式化工具调用。
- MCP 客户端:管理 MCP 服务器连接和 JSON - RPC 通信。
- 工具路由器:根据工具类型将请求路由到适当的 MCP。
未来改进计划
- 实现更多 MCP 服务器支持。
- 添加并行工具执行功能。
- 支持流式响应输出。
- 提升错误恢复能力。
- 添加对话记忆功能。
- 扩展对更多 Ollama 模型的支持。
相关项目
该项目与更广泛的 Claude 生态系统集成,涉及模型上下文协议(MCP)、Claude 桌面配置、Ollama 项目以及各种 MCP 服务器实现,最终可打造一个功能强大的本地 AI 助手,在本地硬件上实现类似于 Claude 的诸多功能。
精选MCP服务推荐

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
7.1K
4.5分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.7K
5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
1.3K
4.3分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.9K
4.7分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
1.2K
4.8分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
2.2K
5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
508
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
1.1K
4.5分
智启未来,您的人工智能解决方案智库
简体中文