探索
Mcpx Py

Mcpx Py

mcpx-py是一个用于通过mcp.run工具与LLM交互的Python库,支持多种AI模型并提供结构化输出功能。
2.5分
16
2025-04-29 00:05:07
概述
内容详情
替代品

什么是mcpx-py?

mcpx-py是一个Python库,让开发者能方便地通过mcp.run工具与多种大型语言模型(LLM)交互。它支持Claude、OpenAI、Gemini等多种AI提供商模型,也支持本地运行的Ollama模型。

如何使用mcpx-py?

使用前需要获取mcp.run会话ID,然后通过简单的Python API发送消息给LLM模型,可以获取文本回复或结构化数据。

适用场景

适用于需要快速集成多种LLM模型的Python应用开发,特别是需要切换不同模型提供商的场景。

主要功能

多模型支持支持所有PydanticAI兼容的模型,包括Claude、OpenAI、Gemini等主流LLM
结构化输出可以定义Pydantic模型来获取结构化的LLM输出,而不仅仅是文本
本地模型支持通过Ollama支持本地运行的LLM模型

优势与局限性

优势
统一接口访问多种LLM模型
支持结构化数据输出
同时支持云端和本地模型
局限性
需要mcp.run会话ID
依赖多个外部服务
本地模型需要额外配置

如何使用

获取mcp.run会话ID运行npx命令生成会话ID并保存到配置文件或环境变量
安装mcpx-py使用uv或pip安装Python库
使用Python API导入库并创建Chat实例与LLM交互

使用案例

基本文本交互向LLM发送提示词并获取文本回复
结构化数据输出定义Pydantic模型获取结构化LLM输出

常见问题

1
如何获取mcp.run会话ID?运行npx --yes -p @dylibso/mcpx gen-session命令生成,可以添加--write参数自动保存到配置文件
2
支持哪些AI提供商?支持所有PydanticAI兼容的模型,包括Anthropic(Claude)、OpenAI、Gemini等
3
如何运行本地模型?需要安装Ollama并拉取模型,然后使用'ollama:模型名'格式调用

相关资源

PydanticAI模型列表支持的AI模型列表
GitHub仓库mcpx-py源代码和更多示例
Ollama官网本地LLM运行环境
精选MCP服务推荐
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
2,956
5分
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
212
4.3分
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6,102
4.5分
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
88
4.8分
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
323
4.5分
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1,429
5分
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
364
4.8分
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
4,853
4.7分
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。