Simple MCP Ollama Bridge

MCP LLM Bridge是一个连接Model Context Protocol (MCP)服务器与OpenAI兼容的LLM(如Ollama)的桥梁工具。
2.5分
9

什么是MCP LLM Bridge?

MCP LLM Bridge是一个连接工具,允许Model Context Protocol (MCP)服务器与OpenAI兼容的大型语言模型(如Ollama)进行通信。它充当了MCP服务器和LLM之间的适配器,使两者能够无缝协作。

如何使用MCP LLM Bridge?

通过简单的安装和配置步骤,您可以将MCP服务器连接到本地或远程的LLM服务。该工具支持多种LLM后端,包括本地运行的Ollama模型和OpenAI API。

适用场景

适用于需要在MCP协议框架下使用各种LLM模型的开发者,特别是那些希望使用本地运行模型或非OpenAI官方API的用户。

主要功能

多后端支持支持OpenAI官方API和Ollama等本地运行的LLM模型
灵活配置可通过简单的Python配置切换不同的LLM后端
MCP协议兼容完全兼容Model Context Protocol规范

优势与局限性

优势
允许在MCP框架下使用多种LLM模型
支持本地运行的模型,保护隐私和数据安全
配置简单,易于集成到现有MCP工作流中
局限性
需要手动配置MCP服务器路径
对非技术用户可能有一定学习曲线
性能依赖于本地LLM的运行环境

如何使用

安装准备
使用uv工具创建虚拟环境并安装依赖
克隆仓库
获取MCP LLM Bridge源代码
安装依赖
使用uv pip安装必要的Python包
配置连接
修改main.py文件配置MCP服务器和LLM连接参数

使用案例

连接本地Ollama模型将MCP服务器连接到本地运行的Ollama LLM服务
使用OpenAI API将MCP服务器连接到OpenAI官方API

常见问题

如何获取MCP服务器?
为什么需要绝对路径配置MCP服务器?
支持哪些LLM后端?

相关资源

MCP概念文档
Model Context Protocol的核心概念介绍
MCP提示文档
MCP中的提示概念和使用方法
MCP工具文档
MCP中的工具集成说明
GitHub仓库
MCP LLM Bridge的源代码
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。
精选MCP服务推荐
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6.8K
4.5分
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
976
4.3分
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.1K
5分
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
325
4.8分
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.4K
4.7分
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1.9K
5分
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
823
4.5分
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
904
4.8分
AIbase
智启未来,您的人工智能解决方案智库
简体中文