🚀 Msty Admin MCP
基于人工智能的Msty Studio桌面版2.4.0+管理系统
Msty Admin MCP是一个MCP(模型上下文协议)服务器,它能将Claude转变为Msty Studio桌面版的智能系统管理员。通过自然对话,你可以查询数据库、管理配置、编排本地AI模型并构建分层AI工作流。
v9.0.0 - 高级AI编排版本,包含155个工具!新功能包括自主智能体群、智能自动路由、级联执行、语义缓存、预测性模型加载、A/B测试框架、成本智能仪表盘和动态角色融合。
🚀 快速开始
前提条件
安装
git clone https://github.com/DBSS/msty-admin-mcp.git
cd msty-admin-mcp
python -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
Claude桌面版配置
重要提示:Claude桌面版并不总是遵循cwd设置,因此我们使用一个shell脚本启动器。
- 仓库中包含
run_msty_server.sh,确保它具有可执行权限:chmod +x run_msty_server.sh
- 将以下内容添加到
~/Library/Application Support/Claude/claude_desktop_config.json:{
"mcpServers": {
"msty-admin": {
"command": "/absolute/path/to/msty-admin-mcp/run_msty_server.sh",
"env": {
"MSTY_TIMEOUT": "30"
}
}
}
}
- 重启Claude桌面版(Cmd + Q,然后重新打开)
- 你应该会在可用工具中看到“msty-admin”,并且已加载155个工具。
✨ 主要特性
v9.0.0版本新增功能
高级AI编排 - 10个新阶段中的42个新工具
| 阶段 |
工具数量 |
描述 |
| 阶段26:智能自动路由 |
4 |
零配置任务分类和模型路由 |
| 阶段27:自主智能体群 |
5 |
生成并行工作的专业AI智能体 |
| 阶段28:后台智能体 |
7 |
持续监控智能体(代码哨兵、文档守护者) |
| 阶段29:语义响应缓存 |
5 |
基于嵌入的相似性缓存,节省成本 |
| 阶段30:预测性模型加载 |
3 |
通过使用模式分析进行模型预加载 |
| 阶段31:对话考古 |
5 |
深度搜索、决策提取和时间线构建 |
| 阶段32:A/B测试框架 |
5 |
带有统计分析的模型比较实验 |
| 阶段33:级联执行 |
4 |
基于置信度的模型升级(快速 → 平衡 → 强大 → 专家) |
| 阶段34:成本智能 |
7 |
令牌跟踪、预算警报、本地与云端比较 |
| 阶段35:角色融合 |
6 |
动态组合角色以处理复杂任务 |
新模块(v9.0.0)
| 模块 |
用途 |
smart_router.py |
智能任务分类和模型路由 |
agent_swarm.py |
多智能体编排与并行执行 |
background_agents.py |
带有警报的长期监控智能体 |
semantic_cache.py |
基于嵌入的响应缓存 |
predictive_loader.py |
使用模式学习和预测 |
conversation_archaeology.py |
深度对话搜索和分析 |
ab_testing.py |
A/B实验框架 |
cascade.py |
基于置信度的分层模型执行 |
cost_intelligence.py |
成本跟踪和优化 |
persona_fusion.py |
动态角色组合 |
server_extensions_v3.py |
扩展注册v3 |
关键特性
- 🤖 智能体群 - 生成专业智能体(代码、研究、写作、分析)并行工作并综合结果:
swarm_spawn "Build a comprehensive analysis of this codebase"
- 🎯 级联执行 - 从快速模型开始,仅在需要时升级到强大的模型:
cascade_smart "Complex reasoning task requiring detailed analysis"
- 💰 成本智能 - 跟踪支出,比较本地和云端成本,获取优化提示:
cost_compare_local_cloud # 显示使用本地模型可节省95%以上的成本
- 🔮 预测性加载 - 学习你的使用模式并预加载模型:
predict_session_start # "Based on history, you typically code at 9am"
v8.0.0版本内容
10个新阶段中的36个新工具
| 阶段 |
工具数量 |
描述 |
| 阶段16:影子角色 |
5 |
多视角对话分析 |
| 阶段17:工作区 |
4 |
工作区管理和数据隔离 |
| 阶段18:实时网络 |
3 |
网络搜索、URL获取、YouTube转录 |
| 阶段19:聊天管理 |
4 |
导出、克隆、分支、合并对话 |
| 阶段20:文件夹组织 |
4 |
对话文件夹管理 |
| 阶段21:PII清理 |
3 |
13种PII模式,符合GDPR/HIPAA标准 |
| 阶段22:嵌入可视化 |
4 |
文档聚类和相似性分析 |
| 阶段23:健康仪表盘 |
3 |
服务监控和警报 |
| 阶段24:配置文件 |
4 |
保存/加载/比较配置 |
| 阶段25:自动维护 |
3 |
清理、优化、健康评分 |
新模块(v8.0.0)
| 模块 |
用途 |
shadow_personas.py |
影子角色集成 |
workspaces.py |
工作区管理 |
realtime_data.py |
网络/YouTube集成 |
chat_management.py |
聊天操作 |
folders.py |
文件夹组织 |
pii_tools.py |
PII检测和清理 |
embeddings.py |
嵌入可视化 |
dashboard.py |
健康监控 |
profiles.py |
配置文件 |
maintenance.py |
自动维护 |
server_extensions_v2.py |
扩展注册v2 |
全面测试
- 130多个单元测试覆盖所有模块
- 验证PII模式检测
- 进行余弦相似度数学测试
- 验证维护预运行
v7.0.0版本内容
6个阶段中的35个工具
| 阶段 |
工具数量 |
描述 |
| 阶段10:知识栈 |
5 |
RAG系统管理 - 列表、搜索、分析 |
| 阶段11:模型管理 |
6 |
下载/删除模型、查找重复项、存储分析 |
| 阶段12:Claude↔本地桥梁 |
5 |
智能模型委托、多模型共识 |
| 阶段13:旋转门工作流 |
7 |
5个内置自动化模板,预运行执行 |
| 阶段14:实时上下文 |
5 |
实时系统/日期时间/Msty上下文用于提示 |
| 阶段15:对话分析 |
5 |
使用模式、内容分析、会话指标 |
增强的标签系统v2.0
- 上下文长度感知:
long_context(100K+)、very_long_context(250K+)、massive_context(500K+)
- 量化检测:
fp16、8bit、6bit、5bit、4bit、3bit
- 架构标签:
moe、mlx、gguf
- 新的大小层级:
massive(200B+参数)
Msty 2.4.0+服务支持
| 服务 |
端口 |
描述 |
| 本地AI服务 |
11964 |
兼容Ollama的API |
| MLX服务 |
11973 |
针对Apple Silicon优化的模型 |
| LLaMA.cpp服务 |
11454 |
支持GGUF模型 |
| Vibe CLI代理 |
8317 |
所有AI服务的统一代理 |
📦 安装指南
克隆仓库
git clone https://github.com/DBSS/msty-admin-mcp.git
cd msty-admin-mcp
创建虚拟环境
python -m venv .venv
source .venv/bin/activate
安装依赖
pip install -r requirements.txt
Claude桌面版配置
- 确保
run_msty_server.sh具有可执行权限:
chmod +x run_msty_server.sh
- 将以下内容添加到
~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"msty-admin": {
"command": "/absolute/path/to/msty-admin-mcp/run_msty_server.sh",
"env": {
"MSTY_TIMEOUT": "30"
}
}
}
}
- 重启Claude桌面版(Cmd + Q,然后重新打开)
💻 使用示例
检查服务状态
你:我的Msty服务状态如何?
Claude:所有4个服务都在运行:
✅ 本地AI服务(端口11964) - 2个模型
✅ MLX服务(端口11973) - 11个模型
✅ LLaMA.cpp服务(端口11454) - 10个模型
✅ Vibe CLI代理(端口8317) - 36个模型
总共:59个可用模型
对模型进行基准测试
你:对我最快的编码模型进行基准测试
Claude:正在对deepseek-coder-v2-lite进行基准测试...
结果(每个测试运行3次):
| 上下文 | 每秒令牌数 | 延迟 |
|---------|------------|---------|
| 50个令牌 | 42.3 t/s | 1.2s |
| 200个令牌 | 38.7 t/s | 5.2s |
| 500个令牌 | 35.1 t/s | 14.3s |
平均:38.7个令牌/秒
导出对话
你:将我上周的对话导出为Markdown格式
Claude:已导出过去7天的23条对话。
文件:conversations_2026-01-26.md
格式:每个对话带有标题的Markdown格式
总消息数:156
创建提示模板
你:创建一个代码审查模板
Claude:已创建模板“code-review”:
模板:"Review this {{language}} code for {{focus}}:
```{{language}}
{{code}}
```
Provide specific suggestions."
变量:language, focus, code
类别:编码
📚 详细文档
可用工具(共155个)
阶段1:安装与健康(7个工具)
| 工具 |
描述 |
detect_msty_installation |
查找Msty Studio,验证路径,检查运行状态 |
read_msty_database |
查询对话、角色、提示、工具 |
list_configured_tools |
查看MCP工具箱配置 |
get_model_providers |
列出AI提供商和本地模型 |
analyse_msty_health |
数据库完整性、存储、所有4个服务状态 |
get_server_status |
MCP服务器信息和功能 |
scan_database_locations |
在常见位置查找数据库文件 |
阶段2:配置管理(4个工具)
| 工具 |
描述 |
export_tool_config |
导出MCP配置以进行备份或同步 |
import_tool_config |
验证并准备工具以供Msty导入 |
generate_persona |
从模板(opus、coder、writer、minimal)创建角色 |
sync_claude_preferences |
将Claude桌面版首选项转换为Msty角色 |
阶段3:本地模型集成(8个工具)
| 工具 |
描述 |
get_sidecar_status |
检查所有4个服务(本地AI、MLX、LLaMA.cpp、Vibe代理) |
list_available_models |
查询所有服务的模型并进行细分 |
query_local_ai_service |
直接进行底层API访问 |
chat_with_local_model |
发送消息并自动跟踪指标 |
recommend_model |
根据用例提供硬件感知的模型推荐 |
list_model_tags |
获取可用标签以进行智能模型选择 |
find_model_by_tag |
查找匹配特定标签的模型 |
get_cache_stats |
查看响应缓存统计信息 |
clear_cache |
清除缓存的响应 |
阶段4:智能与分析(5个工具)
| 工具 |
描述 |
get_model_performance_metrics |
随时间变化的每秒令牌数、延迟、错误率 |
analyse_conversation_patterns |
尊重隐私的使用分析 |
compare_model_responses |
向多个模型发送相同提示,比较质量/速度 |
optimise_knowledge_stacks |
分析并推荐改进方案 |
suggest_persona_improvements |
基于AI的角色优化 |
阶段5:校准与工作流(4个工具)
| 工具 |
描述 |
run_calibration_test |
对模型进行跨类别测试并进行质量评分 |
evaluate_response_quality |
使用启发式评估对任何响应进行评分 |
identify_handoff_triggers |
跟踪应升级到Claude的模式 |
get_calibration_history |
带有趋势和统计信息的历史结果 |
阶段6:高级模型管理(4个工具)
| 工具 |
描述 |
get_model_details |
全面的模型信息(上下文长度、参数、标签、功能) |
benchmark_model |
在不同上下文大小下进行性能基准测试(每秒令牌数) |
list_local_model_files |
列出磁盘上的MLX和GGUF模型文件及其大小 |
estimate_model_requirements |
估计模型的内存/硬件要求 |
阶段7:对话管理(3个工具)
| 工具 |
描述 |
export_conversations |
以JSON、Markdown或CSV格式导出聊天历史记录 |
search_conversations |
通过关键字或标题搜索对话 |
get_conversation_stats |
使用分析:每天的消息数、模型使用情况、会话长度 |
阶段8:提示模板与自动化(4个工具)
| 工具 |
描述 |
create_prompt_template |
使用{{variable}}占位符创建可重用模板 |
list_prompt_templates |
列出所有模板,可根据类别进行过滤 |
run_prompt_template |
执行带有变量替换的模板 |
smart_model_router |
根据给定的任务描述自动选择最佳模型 |
阶段9:备份与系统管理(3个工具)
| 工具 |
描述 |
backup_configuration |
创建角色、提示、模板、工具的全面备份 |
restore_configuration |
从备份文件中恢复配置 |
get_system_resources |
与AI推理相关的CPU、内存和磁盘使用情况 |
模型标签系统
Msty Admin MCP包含一个智能模型标签系统,具有60多个特定于模型的覆盖项,用于准确路由。
可用标签
| 类别 |
标签 |
描述 |
| 大小 |
large, medium, small |
模型参数数量(70B+、13 - 34B、<13B) |
| 速度 |
fast |
快速响应模型(Haiku、Flash、Mini等) |
| 能力 |
coding, reasoning, creative, vision, embedding |
专业能力 |
| 上下文 |
long_context |
具有128K+上下文窗口的模型 |
| 质量 |
quality |
高质量输出模型 |
| 通用 |
general |
通用模型 |
按标签查找模型
你:给我找一个快速的编码模型
Claude:使用find_model_by_tag,标签为"coding"且prefer_fast=true...
找到3个快速编码模型:
1. deepseek-coder-v2-lite(快速、编码、小型)
2. codestral-mini(快速、编码、小型)
3. starcoder2-3b(快速、编码、小型)
智能模型路由器
你:写一首诗用哪个模型最好?
Claude:使用smart_model_router,任务为"写一首诗"...
推荐:claude-3-opus(标签:质量、创意、推理、大型)
推理:创意写作任务受益于具有'创意'标签和高质量输出的模型。
环境变量
使用以下环境变量自定义行为:
| 变量 |
默认值 |
描述 |
MSTY_SIDECAR_HOST |
127.0.0.1 |
服务主机地址 |
MSTY_AI_PORT |
11964 |
本地AI服务端口 |
MSTY_MLX_PORT |
11973 |
MLX服务端口 |
MSTY_LLAMACPP_PORT |
11454 |
LLaMA.cpp服务端口 |
MSTY_VIBE_PORT |
8317 |
Vibe CLI代理端口 |
MSTY_TIMEOUT |
10 |
API请求超时时间(秒) |
MSTY_DATABASE_PATH |
(自动检测) |
覆盖数据库路径 |
架构
┌─────────────────────────────────────────────────────────────┐
│ Claude Desktop │
│ │ │
│ MCP Protocol │
│ │ │
│ ┌──────────┴──────────┐ │
│ ▼ ▼ │
│ ┌─────────────────┐ ┌─────────────────┐ │
│ │ Msty Admin MCP │ │ Other MCPs │ │
│ │ (42 tools) │ │ │ │
│ └────────┬────────┘ └─────────────────┘ │
└───────────────┼─────────────────────────────────────────────┘
│
┌──────────┴──────────────────────────────┐
▼ ▼
┌──────────┐ ┌──────────────────┐
│ Msty │ │ Msty Studio │
│ Database │ │ 2.4.0+ App │
│ (SQLite) │ └────────┬─────────┘
└──────────┘ │
┌────────────────────┼────────────────────┐
▼ ▼ ▼
┌────────────┐ ┌────────────┐ ┌────────────┐
│ Local AI │ │ MLX │ │ LLaMA.cpp │
│ :11964 │ │ :11973 │ │ :11454 │
└────────────┘ └────────────┘ └────────────┘
│ │ │
└────────────────────┼────────────────────┘
▼
┌────────────┐
│ Vibe Proxy │
│ :8317 │
└────────────┘
项目结构
msty-admin-mcp/
├── src/
│ ├── __init__.py # 包导出
│ ├── constants.py # 配置常量
│ ├── models.py # 数据类
│ ├── errors.py # 标准化错误处理
│ ├── paths.py # 路径解析实用工具
│ ├── database.py # SQL操作(防止注入)
│ ├── network.py # API请求助手
│ ├── cache.py # 响应缓存
│ ├── tagging.py # 模型标签系统
│ ├── server.py # 主MCP服务器(42个工具)
│ └── phase4_5_tools.py # 指标和校准
├── tests/
│ ├── test_server.py # 集成测试
│ ├── test_constants.py # 常量测试
│ ├── test_paths.py # 路径实用工具测试
│ ├── test_database.py # 数据库测试(SQL注入)
│ ├── test_network.py # 网络测试
│ ├── test_cache.py # 缓存测试
│ └── test_tagging.py # 标签测试
├── docs/
│ ├── API.md # API参考和错误代码
│ └── DEVELOPMENT.md # 开发指南
├── run_msty_server.sh # Shell脚本启动器(必需!)
├── requirements.txt
├── pyproject.toml
├── CHANGELOG.md
├── LICENSE
└── README.md
文档链接
- API参考 - 错误代码、响应格式、工具参数
- 开发指南 - 贡献、测试、架构
- 更新日志 - 版本历史和迁移说明
🔧 技术细节
安全
详情请参阅docs/API.md:
- SQL注入防护 - 表白名单、参数化查询
- API密钥处理 - 密钥从不记录或返回
- 网络安全 - 所有调用均指向本地主机,可配置超时时间
📄 许可证
本项目采用MIT许可证,详情请参阅LICENSE。
关于此分支
👋 你好!我是来自DigitalKredit的Dmitri K。
我接手这个项目时,它只有24个工具,是为旧版Msty Studio架构设计的,当时有一个单独的“Sidecar”服务,而在Msty 2.4.0+中该服务已不存在。
我所做的工作:
- 🔧 为Msty 2.4.0+重写代码库(服务现在集成到主应用中)
- 🏗️ 重构为简洁的模块化架构(30多个模块)
- 📈 将工具数量从24个扩展到155个全功能工具
- ✅ 添加全面的测试(250多个测试)
- 🚀 构建主要新功能:AI智能体群、智能路由、级联执行、语义缓存、成本智能等
此分支会针对Msty Studio 2.4.0+进行积极维护和测试。
故障排除
"ModuleNotFoundError: No module named 'src'"
Claude桌面版没有从正确的目录运行。请确保使用shell脚本启动器(run_msty_server.sh),而不是直接调用Python。
"No Local AI services are running"
- 打开Msty Studio
- 转到设置 → 本地AI / MLX / LLaMA.cpp
- 确保服务显示“正在运行”
Claude看不到msty-admin工具
- 检查你的
claude_desktop_config.json是否包含正确的绝对路径
- 确保
run_msty_server.sh具有可执行权限(chmod +x)
- 完全重启Claude桌面版(Cmd + Q,然后重新打开)
只看到2个嵌入模型
显示的模型取决于哪个服务首先响应。使用list_available_models查看所有服务的所有模型,并按服务进行细分。
未找到数据库
- 首先运行
detect_msty_installation验证路径
- 使用
scan_database_locations查找数据库文件
- 如有需要,设置
MSTY_DATABASE_PATH环境变量
贡献
欢迎贡献代码!请按以下步骤操作:
- 分叉仓库
- 创建一个功能分支(
git checkout -b feature/amazing-feature)
- 运行测试(
pytest tests/ -v)
- 提交更改(
git commit -m 'Add amazing feature')
- 推送到分支(
git push origin feature/amazing-feature)
- 打开拉取请求
详细的贡献指南请参阅docs/DEVELOPMENT.md。
致谢
鸣谢