🚀 JetsonMCP
JetsonMCP 是一个 MCP 服务器,它将 AI 助手与 NVIDIA Jetson Nano 超级系统相连接,可进行全面的边缘计算管理、AI 工作负载优化和系统管理。
JetsonMCP 使 Claude 等 AI 助手能够通过 SSH 连接帮助配置和管理 Jetson Nano 系统。从 AI 模型部署到系统优化,用户可以用自然语言提问,而无需学习复杂的 CUDA 和 Linux 命令。
🚀 快速开始
Jetson Nano 准备
- 全新安装 JetPack(建议版本 4.6 及以上)
- 启用 SSH 访问
- 充足的电源供应(建议使用 5V/4A 以实现最佳性能)
- MicroSD 卡(建议 64GB 及以上)或 NVMe SSD
- 联网 以便进行软件包安装
网络配置
- 建议使用静态 IP 以确保稳定访问
- 配置防火墙以允许 SSH(端口 22)
- 可选:设置 VPN 以实现远程访问
具体步骤
1. 准备 Jetson Nano
sudo systemctl enable ssh
sudo systemctl start ssh
sudo visudo
hostname -I
2. 安装 JetsonMCP
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP
python3 -m venv venv
source venv/bin/activate
pip install -e .
3. 配置连接
cp .env.example .env
nano .env
必需的 .env
设置:
JETSON_HOST=192.168.1.100
JETSON_USERNAME=your_username
JETSON_PASSWORD=your_password
JETSON_POWER_MODE=0
CUDA_VISIBLE_DEVICES=0
DOCKER_REGISTRY=localhost:5000
4. 集成 Claude Desktop
将以下内容添加到你的 Claude Desktop 配置中:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%\Claude\claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}
重启 Claude Desktop 以加载服务器。
✨ 主要特性
边缘 AI 管理
- CUDA 工具包集成 - 自动设置和管理 CUDA 环境
- JetPack 管理 - SDK 更新、组件安装和版本控制
- AI 框架支持 - 对 TensorFlow、PyTorch、OpenCV、TensorRT 进行优化
- 模型部署 - 自动进行模型转换、优化和服务
硬件优化
- 电源管理 - 动态切换电源模式(10W/5W/MAXN)
- 热管理 - 温度监控并自动降频
- GPU 监控 - 监控内存使用、利用率和性能指标
- 风扇控制 - 自定义风扇曲线并优化散热
容器编排
- NVIDIA Docker - 管理支持 GPU 加速的容器运行时
- 边缘 Kubernetes - 部署 K3s 以处理分布式 AI 工作负载
- 多架构支持 - 管理和部署 ARM64 容器
- 注册表管理 - 为边缘部署设置私有注册表
系统管理
- 远程管理 - 通过 SSH 进行安全的系统管理
- 软件包管理 - 安装/更新 APT 和 snap 软件包
- 服务管理 - 控制和监控 Systemd 服务
- 备份与恢复 - 管理和恢复系统状态
📦 安装指南
依赖安装
按照上述“快速开始”部分的步骤进行安装和配置。
💻 使用示例
基础用法
以下是一些使用自然语言请求的示例:
-
AI 与机器学习操作:
- "部署 YOLOv5 模型进行目标检测" - 下载、优化并运行推理
- "检查 CUDA 内存使用情况" - 监控 GPU 利用率和内存分配
- "切换到 5W 电源模式" - 优化电池供电时的功耗
- "安装 TensorRT 优化" - 设置高性能推理引擎
-
系统管理:
- "在运行推理时监控 GPU 温度" - 实时热监控
- "将 JetPack 更新到最新版本" - 管理 NVIDIA 软件栈更新
- "为 AI 工作负载优化 Docker" - 配置运行时以实现 GPU 加速
-
边缘计算:
- "部署轻量级 Kubernetes 集群" - 设置 K3s 进行边缘编排
- "配置远程模型服务" - 设置推理端点
- "在 AI 任务期间监控系统资源" - 性能分析和优化
高级用法
电源管理
sudo nvpmodel -m 1
CUDA 环境
nvcc --version
nvidia-smi
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
Docker GPU 支持
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
📚 详细文档
可用工具
AI 与机器学习管理
manage_ai_workloads
- 模型部署、推理优化、CUDA 管理
manage_jetpack
- 安装、更新 JetPack SDK 并管理组件
manage_frameworks
- 安装 TensorFlow、PyTorch、OpenCV、TensorRT
硬件控制
manage_hardware
- 管理电源模式、温度监控、风扇控制、GPIO
manage_performance
- 管理 CPU/GPU 调节器、频率缩放和热管理
manage_storage
- 优化 SSD、配置交换空间和管理磁盘
容器操作
manage_containers
- 管理 Docker、NVIDIA 运行时和 GPU 加速
manage_orchestration
- 部署 Kubernetes/K3s 并设置边缘计算
manage_registry
- 设置私有注册表并管理多架构镜像
系统管理
manage_system
- 管理软件包、更新、服务控制和网络
manage_security
- 配置防火墙、管理 SSH 密钥、用户管理和系统加固
manage_monitoring
- 监控系统指标、日志记录、警报和远程监控
高级配置
电源管理
sudo nvpmodel -m 1
CUDA 环境
nvcc --version
nvidia-smi
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
Docker GPU 支持
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
测试与开发
运行测试
make test
make test-ai
make test-hardware
make test-containers
make test-system
python run_tests.py --integration --coverage
开发设置
pip install -e ".[dev]"
pre-commit install
black jetsonmcp/
isort jetsonmcp/
mypy jetsonmcp/
监控与可观测性
系统指标
- CPU/GPU 利用率 - 实时监控性能
- 内存使用 - 跟踪 RAM 和 GPU 内存
- 温度传感器 - 监控温度并发出警报
- 功耗 - 显示当前电源模式和使用指标
AI 工作负载指标
- 推理延迟 - 对模型性能进行基准测试
- 吞吐量 - 计算已部署模型的每秒请求数
- 资源利用率 - 评估 GPU 内存和计算效率
- 模型准确率 - 验证和监控模型性能
安全特性
SSH 安全
- 主机密钥验证和轮换
- 连接超时和重试逻辑
- 管理和清理凭证
- 记录所有操作的审计日志
容器安全
- 扫描镜像漏洞
- 实施运行时安全策略
- 进行网络隔离和分段
- 管理 AI 模型的机密信息
系统加固
- 管理防火墙配置
- 分离用户权限
- 自动化系统更新
- 监控安全补丁
使用案例
边缘 AI 开发
- 快速原型开发 AI 应用程序
- 模型优化和基准测试
- 分布式推理部署
- 实时计算机视觉应用
IoT 与传感器网络
- 处理和分析传感器数据
- 编排边缘计算
- 远程管理设备
- 预测性维护系统
工业应用
- 质量控制和检查
- 预测分析
- 开发自主系统
- 集成工业 IoT
🔧 技术细节
工作原理
自然语言请求通过 Claude Desktop 经由 MCP 协议转换为优化后的命令,然后在你的 Jetson Nano 上执行。
关键特性实现
- 边缘 AI 管理:通过自动配置和管理 CUDA 环境、JetPack SDK 以及支持多种 AI 框架,实现高效的边缘 AI 开发和部署。
- 硬件优化:利用系统工具和驱动程序,实现对电源、温度、GPU 等硬件资源的实时监控和优化。
- 容器编排:借助 NVIDIA Docker 和 Kubernetes/K3s,实现对容器的高效管理和分布式 AI 工作负载的处理。
- 系统管理:通过 SSH 协议和系统管理工具,实现远程、安全的系统管理和维护。
📄 许可证
文档中未提及许可证相关信息。
🤝 贡献说明
我们欢迎贡献!请参阅 CONTRIBUTING.md 获取贡献指南。
开发优先级
- AI 框架集成 - 支持更多的机器学习框架
- 边缘编排 - 高级 Kubernetes 边缘部署
- 硬件抽象 - 支持其他 Jetson 平台(AGX、Xavier)
- 监控增强 - 高级遥测和可观测性