Context Engineering MCP
概述
内容详情
替代品
什么是Context Engineering MCP平台?
这是一个系统化的AI上下文设计、管理和优化平台。它像DevOps管理代码一样管理AI提示,通过工程化的方法解决传统临时编写提示的低效问题。如何使用Context Engineering平台?
通过简单的API或内置的MCP协议集成,您可以创建会话、添加上下文元素、分析优化,并生成高质量的AI交互模板。适用场景
适用于AI聊天机器人开发、内容生成系统、研究助手、客户服务自动化等各种需要高质量AI交互的场景。主要功能
AI分析引擎
自动评估上下文质量,包括语义连贯性、信息密度、清晰度和相关性
智能优化算法
自动减少冗余内容,提高指令精确度,优化信息结构
高级模板管理
创建、管理和复用高质量的提示模板,支持版本控制和A/B测试
多模态支持
处理文本、图像、音频、视频和文档等多种格式的上下文
原生MCP集成
无缝集成Claude Desktop,提供15种上下文工程工具
优势
节省52%的AI使用成本
提高44%的响应速度
提升42%的输出质量
78%的模板复用率
支持多种内容格式
局限性
需要Python和Node.js基础环境
对非技术用户有一定学习曲线
高级功能需要Gemini API密钥
如何使用
安装准备
确保已安装Python 3.10+和Node.js 16+,获取Gemini API密钥
克隆仓库
下载项目代码到本地
配置环境
设置环境变量和API密钥
启动服务
运行快速启动脚本或手动启动API和MCP服务器
开始使用
通过API或Claude Desktop工具开始优化您的AI上下文
使用案例
优化客户服务聊天机器人
提高聊天机器人响应质量和一致性
创建内容生成模板
为博客文章创建可复用的高质量生成模板
研究助手优化
提高研究助手处理复杂查询的能力
常见问题
需要编程经验才能使用吗?
基本功能可以通过Claude Desktop的图形界面使用,但高级功能需要一些技术知识。
支持哪些AI模型?
主要使用Gemini AI,但生成的优化上下文可用于任何主流AI模型。
如何评估优化效果?
平台提供质量评分、响应时间和成本节省等详细指标。
是否支持团队协作?
当前版本主要面向个人开发者,团队功能将在未来版本中添加。
相关资源
完整文档
详细的平台使用和技术文档
视频教程
逐步指导视频
Discord社区
与其他用户交流
GitHub仓库
源代码和问题追踪
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。
🚀 上下文工程MCP平台
本平台借助智能上下文管理、优化和提示工程,助力开发者实现AI开发变革,从而有效节省成本、提升响应速度和输出质量。
🎯 我们解决的问题
每位AI开发者都会面临以下挑战:
缺乏上下文工程 | 具备上下文工程 |
---|---|
- 💸 浪费数千美元在低效提示上 - 🐌 响应速度慢3 - 5倍 - 📉 输出准确率降低40% - 🔄 无尽的提示复制粘贴 - 😤 用户因糟糕的AI响应而沮丧 |
- 💰 通过优化降低52%的成本 - ⚡ AI响应速度提升2倍 - 📈 质量得分提高92% - 🎯 模板复用率达78% - 😊 用户对一致的结果感到满意 |
🌟 什么是上下文工程?
上下文工程是一种系统的方法,用于设计、管理和优化提供给AI模型的信息。可以将其视为AI提示的DevOps,为传统上临时的提示构建带来工程严谨性。
核心原则
- 📊 全面衡量:包括质量得分、令牌使用情况、响应时间等。
- 🔄 持续优化:每次交互都借助AI进行改进。
- 📋 模板标准化:使用可复用的组件以获得一致的结果。
- 🎯 关注结果:注重业务指标,而非仅关注技术指标。
✨ 主要特性
1. 🧪 人工智能驱动的分析引擎
点击查看我们的分析工作原理
# 传统方法 - 手动审查
context = "You are an AI assistant. You help users. You are helpful..."
# 开发者: "我觉得没问题!" 🤷
# 上下文工程方法 - AI分析
analysis = await analyze_context(context)
print(f"质量得分: {analysis.quality_score}/100")
print(f"发现的问题: {analysis.issues}")
print(f"建议: {analysis.recommendations}")
# 输出:
# 质量得分: 65/100
# 发现的问题: ['冗余表述', '指令模糊']
# 建议: ['合并角色定义', '添加具体示例']
我们的AI分析器评估以下方面:
- 语义连贯性:思想的流畅程度。
- 信息密度:令牌使用效率指标。
- 清晰度得分:可读性和可理解性。
- 相关性映射:内容与意图的匹配程度。
2. ⚡ 智能优化算法
查看优化效果
# 优化前
original_context = """
You are an AI assistant. You are helpful. You help users with their
questions. When users ask questions, you provide helpful answers.
You should be helpful and provide good answers to questions.
"""
# 令牌数: 50, 质量: 60/100
# 优化后
optimized_context = """
You are a helpful AI assistant that provides comprehensive,
accurate answers to user questions.
"""
# 令牌数: 15 (减少70%!), 质量: 85/100
优化策略包括:
- 🎯 减少令牌:在不损失含义的前提下消除冗余。
- 💎 增强清晰度:提高指令的精确性。
- 🔗 提升相关性:优先处理重要信息。
- 📐 改进结构:优化逻辑流程。
3. 📋 高级模板管理
探索我们的模板系统
# 创建可复用模板
template = create_template(
name="Customer Support Agent",
template="""
You are a {company} support agent with {experience} of experience.
Your responsibilities:
- {primary_task}
- {secondary_task}
Communication style: {tone}
Current context: {context}
""",
category="support",
tags=["customer-service", "chatbot"]
)
# 在不同场景中使用
rendered = render_template(template, {
"company": "TechCorp",
"experience": "5 years",
"primary_task": "Resolve technical issues",
"secondary_task": "Ensure customer satisfaction",
"tone": "Professional yet friendly",
"context": "Black Friday sale period"
})
模板系统的特性包括:
- 🤖 人工智能生成模板:描述需求即可获得模板。
- 📊 使用分析:跟踪哪些模板效果最佳。
- 🔄 版本控制:可回滚到以前的版本。
- 🧪 A/B测试:比较模板性能。
4. 🌐 多模态上下文支持
超越文本 - 全面的多模态支持
处理复杂的现实场景:
# 创建多模态上下文
context = create_multimodal_context(
text="Analyze this product image and create a description",
images=["product_photo.jpg", "dimension_diagram.png"],
documents=["product_specs.pdf"],
metadata={
"target_audience": "technical buyers",
"tone": "professional",
"length": "200-300 words"
}
)
# 为每种模态自动优化
optimized = await optimize_multimodal(context)
支持的格式包括:
- 📝 文本:Markdown、纯文本、代码
- 🖼️ 图像:JPEG、PNG、WebP
- 🎵 音频:MP3、WAV(转录)
- 📹 视频:MP4(帧提取)
- 📄 文档:PDF、DOCX、XLSX
5. 🔌 原生MCP集成
无缝的Claude Desktop集成
// 只需添加到你的Claude Desktop配置中:
{
"mcpServers": {
"context-engineering": {
"command": "node",
"args": ["./mcp-server/context_mcp_server.js"]
}
}
}
然后在Claude中使用自然语言:
- "优化我的聊天机器人上下文以提高清晰度"
- "创建一个代码审查模板"
- "分析我的AI响应速度慢的原因"
- "比较这两种提示策略"
你将拥有15个强大的工具!
📊 实际性能指标
基于1000多个上下文的生产使用情况:
指标 | 优化前 | 优化后 | 改进情况 |
---|---|---|---|
平均令牌数 | 2,547 | 1,223 | 减少52% 📉 |
响应时间 (p50) | 3.2秒 | 1.8秒 | 加快44% ⚡ |
上下文质量得分 | 65/100 | 92/100 | 提高42% 📈 |
用户满意度 (NPS) | 32 | 71 | 提高122% 😊 |
模板复用率 | 12% | 78% | 提高550% 🔄 |
每月API成本 | $4,230 | $2,028 | 节省52% 💰 |
🎬 实时演示
查看优化效果 - 上下文优化
┌────────────────────────────────────────────────────┐
│ 优化前 │
├────────────────────────────────────────────────────┤
│ 令牌数: 2,547 质量: 65/100 ❌ │
│ 成本: $0.051 速度: 3.2秒 │
│ │
│ 上下文: │
│ "You are an AI assistant. You are helpful. │
│ You should help users. When users ask you │
│ questions, you should answer them helpfully..." │
│ │
│ 问题: │
│ - 高冗余度 (42%) │
│ - 指令模糊 │
│ - 结构不佳 │
└────────────────────────────────────────────────────┘
⬇️
[🤖 AI优化魔法]
⬇️
┌────────────────────────────────────────────────────┐
│ 优化后 │
├────────────────────────────────────────────────────┤
│ 令牌数: 1,223 质量: 92/100 ✅ │
│ 成本: $0.024 速度: 1.8秒 │
│ │
│ 上下文: │
│ "You are a knowledgeable AI assistant providing │
│ accurate, comprehensive answers. Focus on: │
│ • Direct, actionable responses │
│ • Evidence-based information │
│ • Clear, structured explanations" │
│ │
│ 改进: │
│ ✓ 减少52%的令牌 │
│ ✓ 明确的角色定义 │
│ ✓ 具体的指导方针 │
└────────────────────────────────────────────────────┘
实时仪表盘预览
┌─────────────────────────────────────────────────────┐
│ 上下文工程仪表盘 │
├─────────────────────────────────────────────────────┤
│ │
│ 活跃会话: 24 总上下文数: 1,847 │
│ 使用的模板数: 89 优化次数: 3,201 │
│ │
│ ┌─────────────────┐ ┌─────────────────┐ │
│ │ 质量得分 │ │ 令牌使用情况 │ │
│ │ │ │ │ │
│ │ 92 ████████░ │ │ 45% ████░░░░ │ │
│ │ 87 ███████░░ │ │ │ │
│ │ 94 █████████ │ │ 节省: 230万 │ │
│ └─────────────────┘ └─────────────────┘ │
│ │
│ 最近的优化情况: │
│ ├─ 客户支持机器人 -47%令牌 ✅ │
│ ├─ 代码审查助手 -52%令牌 ✅ │
│ └─ 内容生成器 -38%令牌 ✅ │
│ │
└─────────────────────────────────────────────────────┘
🚀 快速开始
只需2分钟即可启动并运行:
前提条件
- Python 3.10+ 和 Node.js 16+
- Google Gemini API密钥 (免费获取)
1️⃣ 克隆并配置 (30秒)
# 克隆仓库
git clone https://github.com/ShunsukeHayashi/context_-engineering_MCP.git
cd "context engineering_mcp_server"
# 设置环境
cp .env.example .env
echo "GEMINI_API_KEY=your_key_here" >> .env
2️⃣ 安装并启动 (90秒)
# 选项A: 快速启动脚本 (推荐)
./quickstart.sh
# 选项B: 手动设置
# 终端1 - 上下文工程API
cd context_engineering
python -m venv venv
source venv/bin/activate # Windows: venv\Scripts\activate
pip install -r requirements.txt
python context_api.py
# 终端2 - MCP服务器 (用于Claude Desktop)
cd mcp-server
npm install
node context_mcp_server.js
3️⃣ 首次优化 (30秒)
# 运行示例
python examples/quick_start.py
或者直接使用API:
# 创建会话
curl -X POST http://localhost:9001/api/sessions \
-H "Content-Type: application/json" \
-d '{"name": "My First Session"}'
# 创建并优化上下文
# ... (完整流程见examples/quick_start.py)
🎉 完成!现在你可以像专业人员一样优化AI上下文了!
💻 使用示例
基础用法
# 运行快速启动示例
python examples/quick_start.py
高级用法
# 让AI决定最佳优化策略
result = await auto_optimize_context(window_id)
# AI分析并应用以下优化:
# - 减少令牌 (如果表述冗长)
# - 增强清晰度 (如果表述模糊)
# - 改进结构 (如果结构混乱)
# - 提升相关性 (如果重点不突出)
📚 使用场景与示例
🤖 AI代理开发
使用优化后的上下文构建更好的AI代理
# 创建专门的AI代理
agent_session = create_session("Customer Service Agent")
window = create_context_window(agent_session, max_tokens=4096)
# 添加特定角色的上下文
add_context_element(window, {
"content": "You are Emma, a senior customer service specialist...",
"type": "system",
"priority": 10
})
# 添加公司知识
add_context_element(window, {
"content": "Company policies: ...",
"type": "system",
"priority": 8
})
# 分析并优化
analysis = analyze_context(window)
if analysis.quality_score < 80:
optimized = optimize_context(window, goals=["clarity", "relevance"])
结果:响应时间加快40%,客户满意度达85%。
💬 聊天机器人优化
提升聊天机器人性能
# 优化前: 通用聊天机器人
old_prompt = "You are a chatbot. Answer questions."
# 优化后: 使用模板优化
template = generate_template(
purpose="Technical support chatbot for SaaS platform",
examples=["User login issues", "API integration help"],
constraints=["Max 2 paragraphs", "Include links to docs"]
)
# 部署优化版本
optimized_bot = render_template(template, {
"product": "CloudAPI Pro",
"docs_url": "https://docs.cloudapi.com"
})
结果:升级率降低60%,解决问题速度提升2倍。
📝 内容生成
大规模生成一致、高质量的内容
# 创建内容生成模板
blog_template = create_template(
name="Technical Blog Post",
template="""Write a {word_count}-word blog post about {topic}.
Target audience: {audience}
Tone: {tone}
Include: {requirements}
SEO keywords: {keywords}
""",
category="content"
)
# 生成一致的内容
for topic in topics:
content = generate_with_template(blog_template, {
"topic": topic,
"word_count": 1500,
"audience": "developers",
"tone": "informative yet engaging",
"requirements": ["code examples", "best practices"],
"keywords": ["API", "integration", "tutorial"]
})
结果:内容输出量提升5倍,质量得分始终保持在90%以上。
🔬 研究助手
高效处理复杂的研究任务
# 多模态研究上下文
research_context = create_multimodal_context(
text="Analyze market trends for electric vehicles",
documents=["market_report_2024.pdf", "competitor_analysis.xlsx"],
images=["sales_charts.png", "technology_roadmap.jpg"],
metadata={
"focus_areas": ["battery technology", "charging infrastructure"],
"output_format": "executive summary with recommendations"
}
)
# 针对全面分析进行优化
optimized = optimize_multimodal(research_context,
goals=["completeness", "actionable_insights"])
结果:节省70%的时间,见解准确率达95%。
🏗️ 架构
graph TB
subgraph "客户端层"
A[Claude Desktop]
B[Web仪表盘]
C[API客户端]
end
subgraph "MCP服务器"
D[MCP协议处理程序]
E[15个上下文工具]
end
subgraph "上下文工程核心"
F[会话管理器]
G[上下文窗口]
H[分析引擎]
I[优化引擎]
J[模板管理器]
end
subgraph "AI层"
K[Gemini 2.0 Flash]
L[语义分析]
M[内容生成]
end
subgraph "存储层"
N[(上下文存储)]
O[(模板库)]
P[(分析数据库)]
end
A -->|MCP协议| D
B -->|WebSocket| F
C -->|REST API| F
D --> E
E --> F
F --> G
G --> H
H --> I
G --> J
H --> K
I --> K
J --> K
K --> L
K --> M
G --> N
J --> O
H --> P
style A fill:#e1f5fe
style B fill:#e1f5fe
style C fill:#e1f5fe
style K fill:#fff3e0
style N fill:#f3e5f5
style O fill:#f3e5f5
style P fill:#f3e5f5
组件概述
- 🔌 MCP服务器:与Claude Desktop原生集成,拥有15个专业工具。
- 🧠 分析引擎:由AI驱动的上下文质量评估。
- ⚡ 优化引擎:采用多策略进行上下文改进。
- 📋 模板管理器:具有版本控制的可复用提示组件。
- 💾 存储层:高效的上下文和模板持久化。
- 📊 分析:实时指标和使用情况跟踪。
🛠️ 高级特性
自动上下文优化
# 让AI决定最佳优化策略
result = await auto_optimize_context(window_id)
# AI分析并应用以下优化:
# - 减少令牌 (如果表述冗长)
# - 增强清晰度 (如果表述模糊)
# - 改进结构 (如果结构混乱)
# - 提升相关性 (如果重点不突出)
RAG集成
# 将检索与上下文工程相结合
rag_context = create_rag_context(
query="How to implement OAuth2?",
documents=knowledge_base.search("OAuth2"),
max_tokens=2000
)
# 自动进行相关性排序和摘要
optimized_rag = optimize_rag_context(rag_context)
工作流自动化
# 定义上下文工程工作流
workflow = create_workflow(
name="Daily Report Generator",
steps=[
("fetch_data", {"source": "analytics_api"}),
("create_context", {"template": "daily_report"}),
("optimize", {"goals": ["brevity", "clarity"]}),
("generate", {"model": "gpt-4"})
]
)
# 自动执行
schedule_workflow(workflow, cron="0 9 * * *")
📚 详细文档
核心端点
上下文管理API
会话管理
POST /api/sessions # 创建新会话
GET /api/sessions # 列出所有会话
GET /api/sessions/{id} # 获取会话详情
DELETE /api/sessions/{id} # 删除会话
上下文窗口
POST /api/sessions/{id}/windows # 创建上下文窗口
GET /api/contexts/{id} # 获取上下文详情
POST /api/contexts/{id}/elements # 添加上下文元素
DELETE /api/contexts/{id}/elements/{elem_id} # 移除元素
分析与优化
POST /api/contexts/{id}/analyze # 分析上下文质量
POST /api/contexts/{id}/optimize # 根据目标进行优化
POST /api/contexts/{id}/auto-optimize # AI驱动的优化
GET /api/optimization/{task_id} # 检查优化状态
模板管理
POST /api/templates # 创建模板
POST /api/templates/generate # AI生成模板
GET /api/templates # 列出模板
GET /api/templates/{id} # 获取模板
POST /api/templates/{id}/render # 使用变量渲染模板
PUT /api/templates/{id} # 更新模板
DELETE /api/templates/{id} # 删除模板
MCP工具
可用的Claude Desktop工具
// 上下文工程工具
- create_context_session(name, description)
- create_context_window(session_id, max_tokens)
- add_context_element(window_id, content, type, priority)
- analyze_context(window_id)
- optimize_context(window_id, goals)
- auto_optimize_context(window_id)
- get_context_stats()
// 模板管理工具
- create_prompt_template(name, template, category)
- generate_prompt_template(purpose, examples)
- list_prompt_templates(category, tags)
- render_template(template_id, variables)
// AI指南工具 (额外功能)
- list_ai_guides()
- search_ai_guides(query)
- search_guides_with_gemini(query)
- analyze_guide(title)
🚀 部署
Docker部署
# 生产构建
docker build -t context-engineering:latest .
# 使用docker-compose运行
docker-compose up -d
# 水平扩展
docker-compose up -d --scale api=3
云部署
部署到AWS/GCP/Azure
AWS ECS
# 构建并推送到ECR
aws ecr get-login-password | docker login --username AWS --password-stdin $ECR_URI
docker build -t context-engineering .
docker tag context-engineering:latest $ECR_URI/context-engineering:latest
docker push $ECR_URI/context-engineering:latest
# 使用CloudFormation部署
aws cloudformation create-stack --stack-name context-engineering \
--template-body file://aws/ecs-stack.yaml
Google Cloud Run
# 构建并部署
gcloud builds submit --tag gcr.io/$PROJECT_ID/context-engineering
gcloud run deploy context-engineering \
--image gcr.io/$PROJECT_ID/context-engineering \
--platform managed \
--allow-unauthenticated
Kubernetes
# 应用清单
kubectl apply -f k8s/namespace.yaml
kubectl apply -f k8s/deployment.yaml
kubectl apply -f k8s/service.yaml
kubectl apply -f k8s/ingress.yaml
生产环境考虑因素
- 🔒 安全:API密钥管理、速率限制。
- 📈 扩展:API服务器的水平扩展。
- 💾 持久化:使用PostgreSQL进行生产存储。
- 📊 监控:集成Prometheus + Grafana。
- 🔄 CI/CD:包含GitHub Actions工作流。
🤝 贡献
我们欢迎贡献!请参阅 CONTRIBUTING.md 了解指南。
优先领域
- 🌍 国际化:支持更多语言。
- 🧪 测试:将覆盖率提高到90%以上。
- 📚 文档:提供更多示例和教程。
- 🔌 集成:支持OpenAI、Anthropic、Cohere API。
- 🎨 UI/UX:改进仪表盘。
开发设置
# 克隆你的分支
git clone https://github.com/YOUR_USERNAME/context_-engineering_MCP.git
# 安装开发依赖项
pip install -r requirements-dev.txt
npm install --save-dev
# 运行测试
pytest --cov=. --cov-report=html
npm test
# 格式化代码
black .
npm run lint:fix
📈 成功案例
"我们在提高响应质量的同时,将GPT - 4成本降低了60%。这个平台在第一周就回本了。"
— Sarah Chen,TechStartup首席技术官
"上下文工程改变了我们构建AI功能的方式。以前需要几天完成的工作,现在只需几小时。"
— Michael Rodriguez,财富500强公司AI负责人
"仅模板系统每月就为我们节省了100多个工程小时。"
— Emma Watson,工程总监
🔮 路线图
2025年第一季度
- [ ] 云原生部署选项
- [ ] 团队协作功能
- [ ] 高级缓存策略
- [ ] GraphQL API支持
2025年第二季度
- [ ] 可视化上下文构建器
- [ ] A/B测试框架
- [ ] 成本预测模型
- [ ] 企业单点登录
2025年第三季度
- [ ] 多租户架构
- [ ] 合规认证
- [ ] 高级分析
- [ ] 移动SDK
📚 资源
📄 许可证
本项目采用MIT许可证,请参阅 LICENSE 了解详细信息。
🙏 致谢
本项目使用以下工具构建:
- Claude Code - AI结对编程
- Google Gemini - 为我们的AI功能提供支持
- Model Context Protocol - 由Anthropic提供
- FastAPI - 现代Web框架
- 以及出色的开源社区
替代品
C
Contracts Wizard
OpenZeppelin Contracts Wizard是一个交互式智能合约构建工具,允许用户通过选择合约类型、参数和功能来生成基于OpenZeppelin组件的合约代码。支持多种编程语言,并提供API和嵌入功能。
TypeScript
5.8K
4分
Z
Zen MCP Server
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
Python
13.5K
5分
O
Opendia
OpenDia是一款开源浏览器扩展工具,允许AI模型直接控制用户浏览器,利用现有登录状态、书签等数据进行自动化操作,支持多种浏览器和AI模型,注重隐私保护。
JavaScript
10.5K
5分
C
Container Use
Container Use是一个开源工具,为编码代理提供容器化隔离环境,支持多代理并行开发且互不干扰。
Go
10.2K
5分

Notte Browser
已认证
Notte是一个开源的全栈网络AI代理框架,提供浏览器会话、自动化LLM驱动的代理、网页观察与操作、凭证管理等功能,旨在将互联网转化为代理友好的环境,并通过自然语言描述网站结构,降低LLM的认知负担。
19.4K
4.5分

Search1api
Search1API MCP Server是一个基于Model Context Protocol (MCP)的服务器,提供搜索和爬取功能,支持多种搜索服务和工具。
TypeScript
18.5K
4分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
39.5K
4.3分

Bing Search MCP
一个用于集成微软Bing搜索API的MCP服务器,支持网页、新闻和图片搜索功能,为AI助手提供网络搜索能力。
Python
18.8K
4分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
43.8K
4.5分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
62.4K
5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
39.5K
4.3分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
20.4K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
30.6K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
34.5K
4.8分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
31.4K
5分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
45.4K
4.7分