K8s Gpu MCP Server
K

K8s Gpu MCP Server

用于Kubernetes集群中NVIDIA GPU硬件诊断的即时SRE诊断代理,通过MCP协议提供实时GPU硬件检测和故障排查功能。
2.5分
0

什么是k8s-gpu-mcp-server?

这是一个专门为Kubernetes集群中的NVIDIA GPU设计的诊断工具。它通过Model Context Protocol (MCP)与AI助手(如Claude、Cursor)集成,让您可以直接询问AI助手关于GPU的健康状态、温度、错误等问题,而无需手动运行复杂的命令行工具。

如何使用k8s-gpu-mcp-server?

只需在您的AI助手(Claude Desktop或Cursor IDE)中安装配置一次,之后就可以像与助手对话一样询问GPU相关问题。例如:'检查节点gpu-worker-5的GPU温度'或'分析最近的GPU错误'。

适用场景

当您的Kubernetes集群中运行AI训练、推理等GPU密集型任务时,如果遇到性能下降、任务失败或GPU资源异常,可以使用此工具快速诊断问题。特别适合运维团队、AI工程师和研究人员。

主要功能

实时GPU监控
实时获取GPU温度、功耗、内存使用率、利用率等关键指标,无需安装额外监控系统。
硬件健康检查
全面检查GPU硬件健康状态,包括ECC错误、XID错误代码分析、热节流状态等。
Kubernetes集成
自动关联GPU硬件与Kubernetes Pod,查看哪个Pod正在使用哪块GPU,以及资源分配情况。
AI助手友好
专为Claude、Cursor等AI助手设计,通过自然语言即可进行复杂的GPU诊断。
历史数据记录
内置飞行记录器,持续记录GPU指标,可查询历史时间点的GPU状态。
安全只读模式
默认以只读模式运行,不会对GPU或系统进行任何修改,确保生产环境安全。
优势
无需学习复杂命令:通过AI助手自然语言交互
快速部署:一键安装,几分钟内即可使用
低资源占用:空闲时仅需15-20MB内存
生产就绪:经过真实Tesla T4 GPU测试
开源免费:基于Apache 2.0许可证
多平台支持:支持Claude Desktop、Cursor IDE等
局限性
仅支持NVIDIA GPU:不支持AMD或其他品牌GPU
需要NVIDIA驱动:依赖NVML库和正确安装的驱动
Kubernetes环境:主要设计用于K8s集群,单机使用有限制
只读诊断:当前版本主要为诊断工具,修复操作有限

如何使用

安装配置
根据您使用的AI助手(Claude Desktop或Cursor),在配置文件中添加MCP服务器设置。
启动AI助手
重启您的AI助手(Claude Desktop或Cursor IDE),使配置生效。
开始对话
在AI助手中直接询问GPU相关问题,助手会自动调用相应的诊断工具。
查看结果
AI助手会以清晰易懂的格式展示诊断结果,包括问题分析和建议。

使用案例

案例1:诊断训练任务失败
AI训练任务在特定节点反复失败,需要快速定位GPU硬件问题。
案例2:监控GPU温度
夏季机房温度升高,需要监控GPU是否过热导致性能下降。
案例3:排查资源争用
多个团队报告GPU资源不足,需要查看实际使用情况。
案例4:分析历史问题
昨晚GPU出现短暂故障,需要查看故障时间点的GPU状态。

常见问题

我需要有NVIDIA GPU才能使用这个工具吗?
这个工具安全吗?会影响生产环境吗?
支持哪些AI助手?
需要在每个Kubernetes节点上都安装吗?
诊断数据会被发送到云端吗?
如何更新到新版本?

相关资源

GitHub仓库
源代码、问题跟踪和贡献指南
快速开始指南
5分钟内上手的详细步骤
Kubernetes部署指南
在生产K8s集群中部署的完整指南
Model Context Protocol官网
了解MCP协议的技术细节和规范
Helm Chart仓库
使用Helm一键部署到Kubernetes

安装

复制以下命令到你的Client进行配置
{
  "mcpServers": {
    "k8s-gpu-mcp": {
      "command": "npx",
      "args": ["-y", "k8s-gpu-mcp-server@latest"]
    }
  }
}

{
  "mcpServers": {
    "k8s-gpu-agent": {
      "command": "kubectl",
      "args": ["exec", "-i", "deploy/k8s-gpu-mcp-server", "-n", "gpu-diagnostics", "--", "/agent"]
    }
  }
}
注意:您的密钥属于敏感信息,请勿与任何人分享。

替代品

V
Vestige
Vestige是一个基于认知科学的AI记忆引擎,通过实现预测误差门控、FSRS-6间隔重复、记忆梦境等29个神经科学模块,为AI提供长期记忆能力。包含3D可视化仪表板和21个MCP工具,完全本地运行,无需云端。
Rust
4.5K
4.5分
M
Moltbrain
MoltBrain是一个为OpenClaw、MoltBook和Claude Code设计的长期记忆层插件,能够自动学习和回忆项目上下文,提供智能搜索、观察记录、分析统计和持久化存储功能。
TypeScript
5.1K
4.5分
B
Bm.md
一个功能丰富的Markdown排版工具,支持多种样式主题和平台适配,提供实时编辑预览、图片导出和API集成能力
TypeScript
4.4K
5分
S
Security Detections MCP
Security Detections MCP 是一个基于Model Context Protocol的服务器,允许LLM查询统一的安全检测规则数据库,涵盖Sigma、Splunk ESCU、Elastic和KQL格式。最新3.0版本升级为自主检测工程平台,可自动从威胁情报中提取TTPs、分析覆盖差距、生成SIEM原生格式检测规则、运行测试并验证。项目包含71+工具、11个预构建工作流提示和知识图谱系统,支持多SIEM平台。
TypeScript
6.0K
4分
P
Paperbanana
PaperBanana是一个自动化生成学术图表和统计图的智能框架,支持从文本描述生成高质量的论文插图,采用多智能体管道和迭代优化,提供CLI、Python API和MCP服务器等多种使用方式。
Python
7.7K
5分
B
Better Icons
一个提供超过20万图标搜索和检索的MCP服务器和CLI工具,支持150多个图标库,帮助AI助手和开发者快速获取和使用图标。
TypeScript
6.7K
4.5分
A
Assistant Ui
assistant-ui是一个开源TypeScript/React库,用于快速构建生产级AI聊天界面,提供可组合的UI组件、流式响应、无障碍访问等功能,支持多种AI后端和模型。
TypeScript
7.3K
5分
A
Apify MCP Server
Apify MCP服务器是一个基于模型上下文协议(MCP)的工具,允许AI助手通过数千个现成的爬虫、抓取器和自动化工具(Apify Actor)从社交媒体、搜索引擎、电商等网站提取数据。它支持OAuth和Skyfire代理支付,可通过HTTPS端点或本地stdio方式集成到Claude、VS Code等MCP客户端中。
TypeScript
7.5K
5分
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
75.9K
4.5分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
84.5K
4.3分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
150.1K
5分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
63.8K
4.8分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.3K
4.5分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
32.1K
4.8分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
56.5K
5分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
106.1K
4.7分
AIBase
智启未来,您的人工智能解决方案智库