入门攻略
MCP提交
探索
Simple MCP Ollama Bridge
概述
内容详情
替代品
什么是MCP LLM Bridge?
MCP LLM Bridge是一个连接工具,允许Model Context Protocol (MCP)服务器与OpenAI兼容的大型语言模型(如Ollama)进行通信。它充当了MCP服务器和LLM之间的适配器,使两者能够无缝协作。如何使用MCP LLM Bridge?
通过简单的安装和配置步骤,您可以将MCP服务器连接到本地或远程的LLM服务。该工具支持多种LLM后端,包括本地运行的Ollama模型和OpenAI API。适用场景
适用于需要在MCP协议框架下使用各种LLM模型的开发者,特别是那些希望使用本地运行模型或非OpenAI官方API的用户。主要功能
多后端支持支持OpenAI官方API和Ollama等本地运行的LLM模型
灵活配置可通过简单的Python配置切换不同的LLM后端
MCP协议兼容完全兼容Model Context Protocol规范
优势与局限性
优势
允许在MCP框架下使用多种LLM模型
支持本地运行的模型,保护隐私和数据安全
配置简单,易于集成到现有MCP工作流中
局限性
需要手动配置MCP服务器路径
对非技术用户可能有一定学习曲线
性能依赖于本地LLM的运行环境
如何使用
安装准备使用uv工具创建虚拟环境并安装依赖
克隆仓库获取MCP LLM Bridge源代码
安装依赖使用uv pip安装必要的Python包
配置连接修改main.py文件配置MCP服务器和LLM连接参数
使用案例
连接本地Ollama模型将MCP服务器连接到本地运行的Ollama LLM服务
使用OpenAI API将MCP服务器连接到OpenAI官方API
常见问题
1
如何获取MCP服务器?可以从https://github.com/modelcontextprotocol/servers/克隆MCP Fetch服务器
2
为什么需要绝对路径配置MCP服务器?这是MCP服务器的要求,确保在运行时能正确找到服务器可执行文件
3
支持哪些LLM后端?支持任何实现OpenAI API规范的LLM服务,包括OpenAI官方API、Ollama和其他兼容服务
相关资源
MCP概念文档Model Context Protocol的核心概念介绍
MCP提示文档MCP中的提示概念和使用方法
MCP工具文档MCP中的工具集成说明
GitHub仓库MCP LLM Bridge的源代码
精选MCP服务推荐

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
2,956
5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
212
4.3分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6,102
4.5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
88
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
4,852
4.7分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
323
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1,429
5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
364
4.8分