入门攻略
MCP提交
探索
MCP Dev Server Ui
概述
内容详情
替代品
什么是MCP Dev Server?
MCP Dev Server是一个本地开发服务器,允许开发者在本地环境中快速测试和调试不同LLM模型的行为。它提供了一个Web界面和API端点来与各种语言模型交互。如何使用MCP Dev Server?
通过简单的命令行启动服务器后,可以通过Web界面(http://127.0.0.1:6274)或Python客户端进行交互。支持多种LLM提供商接入。适用场景
适用于AI应用开发、模型效果对比测试、提示工程调试等场景。特别适合需要快速切换不同LLM模型的开发工作。主要功能
多模型支持支持Ollama、OpenAI、Azure和Groq等多种LLM提供商
开发工具内置Web开发工具界面,方便调试和测试
模型快速切换通过简单API调用即可在不同LLM模型间切换
优势与局限性
优势
本地开发环境,数据隐私有保障
统一的API接口访问不同LLM提供商
快速模型切换和对比测试能力
局限性
需要本地开发环境配置
部分高级LLM功能可能受限
性能依赖本地硬件配置
如何使用
启动开发服务器在项目目录下运行命令启动MCP开发服务器
访问Web界面在浏览器中打开开发工具界面
使用Python客户端通过Python客户端连接服务器并与LLM交互
使用案例
模型效果对比快速测试同一提示词在不同LLM上的响应差异
本地模型调试使用本地Ollama模型测试提示工程效果
常见问题
1
如何更改服务器端口?目前端口固定为6274,未来版本将支持自定义端口配置
2
支持哪些LLM提供商?当前支持Ollama、OpenAI、Azure和Groq,更多提供商将在未来添加
3
需要什么Python版本?建议使用Python 3.8或更高版本
相关资源
Ollama文档本地LLM运行环境文档
OpenAI API参考OpenAI官方API文档
示例代码库MCP使用示例代码
精选MCP服务推荐

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
208
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
2,954
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6,097
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1,426
5分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
319
4.5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
87
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
4,851
4.7分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
360
4.8分