入门攻略
MCP提交
探索
Deepchat
概述
工具列表
内容详情
替代品
什么是MCP服务器?
MCP服务器是一个集成了多种功能的模型控制器平台,用于管理和控制本地和云端的LLM(大型语言模型)。它允许用户通过图形化界面轻松配置和运行模型,无需复杂的命令行操作。如何使用MCP服务器?
使用MCP服务器非常简单,只需安装后即可通过图形界面添加、管理和运行模型。支持多种协议和服务,包括StreamableHTTP、SSE、Stdio等。适用场景
MCP服务器适用于需要高效管理和运行多种LLM的场景,例如企业内部知识库查询、多模型集成开发以及复杂业务流程自动化。主要功能
本地模型管理支持通过图形化界面下载、部署和运行本地模型,如Ollama。
MCP服务支持内置Node.js运行环境,支持npx-like服务,无需额外配置。
工具调用支持提供详细的工具调用调试窗口,自动格式化工具参数和返回数据。
流式协议支持支持StreamableHTTP、SSE、Stdio等多种流式协议。
优势与局限性
优势
用户友好的配置界面,简化模型管理。
支持多协议和多模型集成,提高开发效率。
内置工具支持,减少二次安装需求。
丰富的可视化功能,便于监控和调试。
局限性
对某些高级功能可能需要一定的技术背景。
依赖网络环境,离线模式功能有限。
资源占用较高,适合高性能设备使用。
如何使用
安装MCP服务器下载并安装DeepChat,确保已安装Node.js环境。
配置模型通过图形化界面添加模型源,如Ollama、DeepSeek等。
启动服务运行MCP服务,开始管理和调用模型。
使用案例
本地模型管理通过MCP服务器管理本地Ollama模型。
远程API模型服务通过MCP服务器连接到远程API模型。
常见问题
1
如何添加新的模型源?通过图形化界面选择‘添加模型’,然后输入模型源URL。
2
MCP服务器是否支持离线模式?目前不完全支持离线模式,部分功能需要网络连接。
3
如何查看已添加的模型列表?在MCP界面中选择‘模型管理’,点击‘查看模型’。
相关资源
MCP服务器官方文档MCP服务器的详细使用指南。
GitHub 代码仓库MCP服务器的开源代码库。
视频教程快速上手MCP服务器的视频教程。
精选MCP服务推荐

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
208
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
2,954
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6,098
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1,426
5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
88
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
322
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
362
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
4,852
4.7分