Pyrunner MCP
什么是PyRunner MCP?
PyRunner MCP是一个Model Context Protocol (MCP)服务器,它让AI助手(如Gemini CLI)能够在一个持久化的Python内核中执行代码。这意味着你定义的变量、函数和导入的模块会在多次代码执行之间保留,无需每次重新加载。它特别适合数据分析、机器学习实验和交互式脚本开发。如何使用PyRunner MCP?
首先,你需要安装Python和Gemini CLI。然后,将PyRunner MCP配置为Gemini CLI的MCP服务器。配置完成后,启动Gemini聊天,AI助手就能使用PyRunner提供的工具来执行Python代码、管理脚本和包,所有操作都在一个持久化的环境中进行。适用场景
PyRunner MCP非常适合需要反复交互和状态保留的任务,例如:探索性数据分析(加载一次大数据集,多次分析)、机器学习模型调试(加载一次模型,多次测试)、以及编写和测试独立的实用脚本。对于需要完整项目结构或团队协作的大型开发,使用原生开发工具可能更合适。主要功能
持久化内核 (Persistent Kernel)
核心功能。执行Python代码时,所有变量、函数和导入的模块都会保留在内存中,供后续执行使用。就像拥有一个永远在线的Jupyter Notebook内核,无需重复执行初始化代码。
智能脚本管理
保存的脚本会附带描述和标签(metadata)。你可以通过自然语言描述(如‘PTT爬虫’)来搜索和找到相关脚本,而不仅仅是靠文件名。
快速包管理
极速检查Python包是否已安装(微秒级),并支持一键安装缺失的依赖。所有检查都在MCP服务器进程内完成,无需启动缓慢的子进程。
结构化长期记忆
可以记住用户的偏好、项目上下文或常用命令。记忆以结构化的JSON格式存储,支持按类别(如‘preference’, ‘project’)和关键词进行检索。
安全的Shell命令执行
执行系统命令(如git clone, pip install)时,会自动设置一个净化的环境变量,避免交互式提示导致命令卡住,并统一工作目录。
非阻塞输出处理
执行会产生大量输出或长时间运行的任务(如网络爬虫、SSH命令)时,标准输出和错误会被重定向到临时文件,防止因缓冲区满而导致整个进程卡死。
优势
状态持久化:变量跨执行保留,极大提升交互式开发效率。
执行不卡顿:智能处理长时间任务和大量输出,避免AI对话界面冻结。
搜索友好:用描述和标签管理脚本,比单纯的文件名更容易查找。
启动迅速:包检查等操作在进程内完成,速度远超启动子进程。
记忆结构化:长期记忆有分类,检索更精准,上下文管理更清晰。
局限性
非项目导向:更适合独立脚本和实验,对于具有复杂目录结构(src/, tests/)的完整项目,不如VS Code Copilot的@workspace功能。
单语言专注:主要服务于Python生态,对于多语言混合项目支持有限。
需要配置:需要手动配置MCP服务器到Gemini CLI,有一定上手门槛。
内核状态管理:用户需要主动管理内核状态(如重置),否则可能积累过多变量占用内存。
如何使用
安装前置软件
确保你的电脑上安装了Python 3.8或更高版本,并按照官方指南安装好Gemini CLI。
获取并安装PyRunner MCP
从代码仓库克隆PyRunner MCP项目,并安装其所需的Python依赖包。
配置MCP服务器
编辑Gemini CLI的配置文件,将PyRunner MCP添加为一个MCP服务器。需要指定Python解释器路径和PyRunner主脚本的完整路径。
启动并使用
在PyRunner MCP项目目录下,启动Gemini CLI的聊天界面。如果配置成功,你会看到连接PyRunner MCP服务器的提示。现在你可以通过AI助手使用所有功能了。
使用案例
案例一:交互式数据分析
你想分析一个大型销售数据CSV文件。传统方式下,每次让AI分析不同维度时,它都需要重新加载整个文件,非常耗时。使用PyRunner MCP,你只需加载一次,后续所有分析都在内存中的DataFrame上直接进行。
案例二:管理实用脚本库
你经常编写一些实用的小脚本,比如清理下载文件夹、监控网站状态等。时间久了很难记住每个脚本是干什么的。PyRunner MCP允许你为脚本添加描述和标签。
案例三:执行长时间网络任务
你需要编写一个脚本,持续Ping一个服务器5分钟并记录结果。这种任务会产生大量输出,容易导致普通执行方式卡死。
常见问题
PyRunner MCP和直接在终端里运行Python有什么区别?
它和Jupyter Notebook有什么区别?
内核一直运行会占用很多内存吗?
我写的脚本保存在哪里?
如何让AI助手更好地使用PyRunner?
相关资源
Model Context Protocol (MCP) 官方网站
了解MCP协议的背景、规范和设计理念。
Gemini CLI GitHub 仓库
获取Gemini CLI的安装指南、使用文档和最新动态。
FastMCP 库
PyRunner MCP构建所依赖的Python MCP服务器框架。

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
74.4K
4.5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
85.7K
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
149.8K
5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
33.0K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.1K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
64.6K
4.8分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
57.3K
5分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
106.0K
4.7分





