🚀 模型 ID 速查表
防止你的 AI 编码代理编造过时的模型名称。 这个 MCP 服务器能让任何 AI 助手即时获取 19 个提供商的 107 个模型的准确、最新的 API 模型 ID、定价和规格信息。
该项目使用 Go 语言构建,单个二进制文件仅 10MB,无需外部调用,响应时间亚毫秒级,且每天自动更新。
- model = "gpt-4-turbo" # 编造的 - 该模型已不存在
+ model = "gpt-5.3-codex" # 正确 - 已根据官方文档验证
- model = "claude-3-opus-20240229" # 已弃用
+ model = "claude-opus-4-6" # 当前 - 最新的 Anthropic 旗舰模型
🚀 快速开始
从以下选项中任选其一,一分钟内即可完成设置并开始使用。
选项 A:Claude Code(一条命令)
claude mcp add --transport sse --scope user model-id-cheatsheet \
https://universal-model-registry-production.up.railway.app/sse
验证是否生效:
claude mcp list
然后启动一个新的 Claude Code 会话并提问:“最新的 OpenAI 模型是什么?” - 它会自动使用工具。
选项 B:Cursor
将以下内容添加到 ~/.cursor/mcp.json:
{
"mcpServers": {
"model-id-cheatsheet": {
"url": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
重启 Cursor 使更改生效。
选项 C:Windsurf
在设置中添加到 “MCP Servers”(或者编辑 ~/.codeium/windsurf/mcp_config.json):
{
"mcpServers": {
"model-id-cheatsheet": {
"serverUrl": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
选项 D:Codex CLI
将以下内容添加到 ~/.codex/config.toml:
[mcp_servers.model-id-cheatsheet]
command = "uvx"
args = ["mcp-proxy", "--transport", "sse", "https://universal-model-registry-production.up.railway.app/sse"]
选项 E:OpenCode
将以下内容添加到 ~/.config/opencode/opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"model-id-cheatsheet": {
"type": "remote",
"url": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
选项 F:任何 MCP 客户端
直接连接到 SSE 端点(无需 API 密钥,无需身份验证):
https://universal-model-registry-production.up.railway.app/sse
或者使用可流式传输的 HTTP 传输方式:
https://universal-model-registry-production.up.railway.app/mcp
验证设置
连接成功后,尝试向你的 AI 助手提出以下任何问题:
- “Claude Opus 4.6 的正确模型 ID 是什么?”
- “gpt-4o 仍然可用吗?”
- “比较 gpt-5.2 和 claude-opus-4-6”
- “支持视觉功能的最便宜的模型是什么?”
如果代理在回答之前调用了 get_model_info 或 check_model_status 等工具,则表示设置成功。
✨ 主要特性
你的 AI 代理可获得 6 个工具,在编写任何模型 ID 之前会自动调用这些工具:
| 工具 |
功能 |
示例提示 |
get_model_info(model_id) |
获取完整规格:API ID、定价、上下文窗口、功能 |
"Claude Sonnet 的模型 ID 是什么?" |
list_models(provider?, status?, capability?) |
浏览和筛选注册表 |
"显示所有当前的 Google 模型" |
recommend_model(task, budget?) |
根据任务给出排名推荐 |
"适合编码且预算有限的最佳模型" |
check_model_status(model_id) |
验证模型是当前版本、旧版本还是已弃用 |
"gpt-4o 仍然可用吗?" |
compare_models(model_ids) |
并排比较表格 |
"比较 gpt-5.2 和 claude-opus-4-6" |
search_models(query) |
在所有字段中进行自由文本搜索 |
"搜索推理模型" |
资源
| URI |
描述 |
model://registry/all |
所有 107 个模型的完整 JSON 转储 |
model://registry/current |
仅包含当前(未弃用)模型的 JSON |
model://registry/pricing |
按最便宜优先排序的定价表(Markdown 格式) |
底层原理
- 你要求代理编写代码或回答模型相关问题。
- 代理自动调用适当的工具(例如
get_model_info)。
- 服务器在亚毫秒级内响应经过验证的数据(无需外部 API 调用)。
- 代理使用正确的当前模型 ID 编写代码。
服务器指令告知代理:“在使用训练数据中的模型 ID 之前,务必先进行验证。” 这意味着代理在编写之前总会进行检查。
💻 使用示例
基础用法
编写 API 调用:
response = client.chat.completions.create(
model="gpt-5.4",
messages=[...]
)
高级用法
捕获已弃用的模型:
response = client.chat.completions.create(
model="gpt-5",
messages=[...]
)
找到最便宜的选项:
response = client.chat.completions.create(
model="gpt-5-nano",
messages=[...]
)
比较选项:
🔧 技术细节
资源占用
一个常见的问题是:“这会减慢我的代理速度或消耗令牌吗?”
| 指标 |
值 |
| 二进制文件大小 |
~10MB |
| 运行时内存 |
最小(静态内存映射,无数据库) |
| 外部 API 调用 |
无(所有数据均已内置) |
| 响应时间 |
亚毫秒级 |
| 每次工具调用的令牌成本 |
~200 - 500 个令牌(小文本响应) |
| 工具架构开销 |
系统提示中约 500 - 800 个令牌 |
相比之下,一次网络搜索消耗的令牌比所有 6 个工具架构的总和还要多。
涵盖的模型(共 107 个)
当前模型(79 个)
| 提供商 |
模型 |
API ID |
| OpenAI (15) |
GPT-5.4、GPT-5.4 Pro、GPT-5.3 Instant、GPT-5.2、GPT-5.2 Pro、GPT-5.1、GPT-5.1 Codex、GPT-5.1 Mini、GPT-5、GPT-5 Mini、GPT-5 Nano、GPT-4.1 Mini、GPT-4.1 Nano、o3、o4-mini |
gpt-5.4、gpt-5.4-pro、gpt-5.3-chat-latest、gpt-5.2、gpt-5.2-pro、gpt-5.1、gpt-5.1-codex、gpt-5.1-mini、gpt-5、gpt-5-mini、gpt-5-nano、gpt-4.1-mini、gpt-4.1-nano、o3、o4-mini |
| Anthropic (4) |
Claude Opus 4.6、Claude Sonnet 4.6、Claude Sonnet 4.5、Claude Haiku 4.5 |
claude-opus-4-6、claude-sonnet-4-6、claude-sonnet-4-5-20250929、claude-haiku-4-5-20251001 |
| Mistral (11) |
Mistral Large 3、Mistral Medium 3、Mistral Small 3.2、Mistral Saba、Ministral 3B、Ministral 8B、Ministral 14B、Magistral Small 1.2、Magistral Medium 1.2、Devstral 2、Devstral Small 2 |
mistral-large-2512、mistral-medium-2505、mistral-small-2506、mistral-saba-2502、ministral-3b-2512、ministral-8b-2512、ministral-14b-2512、magistral-small-2509、magistral-medium-2509、devstral-2512、devstral-small-2512 |
| Amazon (6) |
Nova Micro、Nova Lite、Nova Pro、Nova Premier、Nova 2 Lite、Nova 2 Pro |
amazon-nova-micro、amazon-nova-lite、amazon-nova-pro、amazon-nova-premier、amazon-nova-2-lite、amazon-nova-2-pro |
| Google (5) |
Gemini 3.1 Pro、Gemini 3.1 Flash Lite、Gemini 3 Flash、Gemini 2.5 Pro、Gemini 2.5 Flash |
gemini-3.1-pro-preview、gemini-3.1-flash-lite-preview、gemini-3-flash-preview、gemini-2.5-pro、gemini-2.5-flash |
| Cohere (5) |
Command A、Command A Reasoning、Command A Vision、Command A Translate、Command R7B |
command-a-03-2025、command-a-reasoning-08-2025、command-a-vision-07-2025、command-a-translate-08-2025、command-r7b-12-2024 |
| xAI (4) |
Grok 4、Grok 4.1 Fast、Grok 4 Fast、Grok Code Fast 1 |
grok-4、grok-4.1-fast、grok-4-fast、grok-code-fast-1 |
| Microsoft (4) |
Phi-4、Phi-4 Multimodal、Phi-4 Reasoning、Phi-4 Reasoning Plus |
phi-4、phi-4-multimodal-instruct、phi-4-reasoning、phi-4-reasoning-plus |
| Perplexity (4) |
Sonar、Sonar Pro、Sonar Reasoning Pro、Sonar Deep Research |
sonar、sonar-pro、sonar-reasoning-pro、sonar-deep-research |
| Moonshot (3) |
Kimi K2.5、Kimi K2 Thinking、Kimi K2 (0905) |
kimi-k2.5、kimi-k2-thinking、kimi-k2-0905-preview |
| Tencent (3) |
Hunyuan TurboS、Hunyuan T1、Hunyuan A13B |
hunyuan-turbos、hunyuan-t1、hunyuan-a13b |
| Zhipu (3) |
GLM-5、GLM-4.7、GLM-4.7 FlashX |
glm-5、glm-4.7、glm-4.7-flashx |
| Meta (2) |
Llama 4 Maverick、Llama 4 Scout |
llama-4-maverick、llama-4-scout |
| DeepSeek (2) |
DeepSeek Reasoner、DeepSeek Chat |
deepseek-reasoner、deepseek-chat |
| NVIDIA (2) |
Nemotron 3 Nano 30B、Nemotron Ultra 253B |
nvidia/nemotron-3-nano-30b-a3b、nvidia/llama-3.1-nemotron-ultra-253b-v1 |
| AI21 (2) |
Jamba Large 1.7、Jamba Mini 1.7 |
jamba-large-1.7、jamba-mini-1.7 |
| MiniMax (2) |
MiniMax M2.5、MiniMax M2.5 Lightning |
minimax-m2.5、minimax-m2.5-lightning |
| Kuaishou (1) |
KAT-Coder Pro |
kat-coder-pro |
| Xiaomi (1) |
MiMo V2 Flash |
mimo-v2-flash |
旧版和已弃用的模型(30 个)
对这些模型进行跟踪,以便你的代理能够检测到过时的模型 ID 并建议使用当前的替代模型:
- OpenAI:
gpt-5.3-codex(已弃用)、gpt-5.2-codex(已弃用)、gpt-5.1-codex-mini(已弃用)、o3-pro(已弃用)、o3-deep-research(已弃用)、o3-mini(旧版)、gpt-4.1(已弃用)、gpt-4o(已弃用)、gpt-4o-mini(已弃用)
- Anthropic:
claude-opus-4-5(旧版)、claude-opus-4-1(旧版)、claude-opus-4-0(旧版)、claude-sonnet-4-0(旧版)、claude-3-7-sonnet-20250219(已弃用)
- Google:
gemini-3-pro-preview(已弃用)、gemini-3-pro-image-preview(已弃用)、gemini-2.5-flash-lite(已弃用)、gemini-2.0-flash-lite(已弃用)、gemini-2.0-flash(已弃用)
- xAI:
grok-4.1(已弃用)、grok-3(旧版)、grok-3-mini(旧版)
- Mistral:
mistral-small-2503(旧版)、codestral-2508(旧版)
- MiniMax:
minimax-m2.1(旧版)、minimax-01(已弃用)
- Meta:
llama-3.3-70b(旧版)
- DeepSeek:
deepseek-r1(旧版)、deepseek-v3(已弃用)
- Zhipu:
glm-4.6v(已弃用)
📦 安装指南
如果你更喜欢在本地运行服务器,而不是使用托管端点,可以参考以下方法:
选项 1:从源代码构建(推荐本地使用)
需要 Go 1.23 及以上版本。
git clone https://github.com/aezizhu/universal-model-registry.git
cd universal-model-registry/go-server
go build -o model-id-cheatsheet ./cmd/server
然后将其作为本地标准输入输出服务器添加到 Claude Code 中(零延迟,无需网络):
claude mcp add --scope user model-id-cheatsheet -- /path/to/model-id-cheatsheet
或者以 SSE 模式运行,供其他客户端使用:
MCP_TRANSPORT=sse PORT=8000 ./model-id-cheatsheet
选项 2:使用 Docker
git clone https://github.com/aezizhu/universal-model-registry.git
cd universal-model-registry
docker build -t model-id-cheatsheet .
docker run -p 8000:8000 model-id-cheatsheet
你的 SSE 端点将位于 http://localhost:8000/sse。
选项 3:部署到 Railway
或者手动操作:
railway login
railway init
railway up
📚 详细文档
保持更新
模型数据会在太平洋时间每天晚上 7 点自动检查和更新,无需人工干预。
工作原理:
- Railway 定时任务每天运行更新程序,抓取 6 个提供商的公共文档页面(无需 API 密钥)。
- 从文档中移除的模型 --> 通过 PR 自动标记为弃用(代码中的状态更改为
"deprecated")。
- 检测到新模型 --> 创建 GitHub 问题以供审核。
- CI 在自动生成的 PR 上运行 --> 如果测试通过 --> 自动合并到主分支。
- Railway 从主分支自动部署。
无需提供商 API 密钥。更新程序读取公开可用的文档页面以检测模型更改。只需要 GITHUB_TOKEN 和 GITHUB_REPO 来创建 PR 和问题。
自动更新管道详情
Railway 定时任务(主要) -- 托管实例使用 Railway 定时服务,每天运行更新程序。配置文件见 configs/railway-updater.toml。
需要设置的环境变量(在 Railway 控制台设置):
GITHUB_TOKEN -- 具有 repo 权限的 GitHub 个人访问令牌
GITHUB_REPO -- 格式为 "owner/repo" 的仓库(例如 "aezizhu/universal-model-registry")
检查的提供商(通过公共文档):
- OpenAI(通过 GitHub SDK 源代码)、Anthropic、Google、Mistral、xAI、DeepSeek
CI/CD 工作流:
.github/workflows/ci.yml -- 在每个 PR 上运行测试
.github/workflows/auto-merge.yml -- CI 通过后自动合并标记为 auto-update 的机器人 PR
GitHub Actions(替代方案) -- .github/workflows/auto-update.yml 中还包含一个 GitHub Actions 工作流,供不使用 Railway 进行自托管的用户使用。无需 API 密钥 -- 仅需 GITHUB_TOKEN(由 GitHub Actions 自动提供)。
安全
- 速率限制:每个 IP 每分钟 60 个请求
- 连接限制:每个 IP 最多 5 个 SSE 连接,总共 100 个
- 请求体限制:最大 64KB
- 输入清理:所有字符串输入截断为安全长度
- HTTP 强化:读取超时 15 秒,读取头部超时 5 秒,空闲超时 120 秒,最大头部 64KB
- 非根 Docker:容器以非特权用户身份运行
- 优雅关闭:在 SIGINT/SIGTERM 信号下清理连接
技术栈
- 语言:Go 1.23
- MCP SDK:
github.com/modelcontextprotocol/go-sdk v1.3.0(官方)
- 传输方式:标准输入输出、SSE、可流式传输的 HTTP
- 二进制文件大小:~10MB
- 测试:156 个单元测试
- 安全:按 IP 进行速率限制、连接限制、输入清理
- 部署:Docker(Alpine)、Railway
贡献
欢迎贡献代码!无论是添加新模型、修复数据还是改进服务器,都可以按照以下步骤进行:
- 分叉仓库并在本地克隆。
- 在
go-server/internal/models/data.go 中编辑模型数据。
- 在
go-server/internal/models/data_test.go 中更新测试计数。
- 运行测试:
cd go-server && go test ./... -v
- 提交 PR -- 我们会尽快审核。
如果你发现过时的模型或错误的定价,提出问题同样有帮助。
📄 许可证
本项目采用 MIT 许可证。