Mcpx Py
什么是mcpx-py?
mcpx-py是一个Python库,让开发者能方便地通过mcp.run工具与多种大型语言模型(LLM)交互。它支持Claude、OpenAI、Gemini等多种AI提供商模型,也支持本地运行的Ollama模型。如何使用mcpx-py?
使用前需要获取mcp.run会话ID,然后通过简单的Python API发送消息给LLM模型,可以获取文本回复或结构化数据。适用场景
适用于需要快速集成多种LLM模型的Python应用开发,特别是需要切换不同模型提供商的场景。主要功能
多模型支持
支持所有PydanticAI兼容的模型,包括Claude、OpenAI、Gemini等主流LLM
结构化输出
可以定义Pydantic模型来获取结构化的LLM输出,而不仅仅是文本
本地模型支持
通过Ollama支持本地运行的LLM模型
优势
统一接口访问多种LLM模型
支持结构化数据输出
同时支持云端和本地模型
局限性
需要mcp.run会话ID
依赖多个外部服务
本地模型需要额外配置
如何使用
获取mcp.run会话ID
运行npx命令生成会话ID并保存到配置文件或环境变量
安装mcpx-py
使用uv或pip安装Python库
使用Python API
导入库并创建Chat实例与LLM交互
使用案例
基本文本交互
向LLM发送提示词并获取文本回复
结构化数据输出
定义Pydantic模型获取结构化LLM输出
常见问题
如何获取mcp.run会话ID?
支持哪些AI提供商?
如何运行本地模型?
相关资源
PydanticAI模型列表
支持的AI模型列表
GitHub仓库
mcpx-py源代码和更多示例
Ollama官网
本地LLM运行环境

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
57.0K
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
96.4K
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
55.8K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
45.5K
4.8分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
40.2K
5分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
39.0K
4.5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
25.5K
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
72.0K
4.7分

