Tome
什么是Tome?
Tome是一款专为MacOS设计的应用程序(即将支持Windows和Linux),旨在简化本地大型语言模型(LLMs)与MCP服务器的使用。它由Runebook团队开发,提供直观的界面来管理MCP服务器,无需手动处理复杂的配置或命令行工具。如何使用Tome?
安装Tome和Ollama后,只需在Tome的MCP标签页中粘贴MCP服务器命令(如`uvx mcp-server-fetch`),即可快速连接并开始与模型交互。适用场景
适合开发者、研究人员或任何对本地LLM和MCP技术感兴趣的用户,尤其适合希望避免复杂配置的非技术用户。主要功能
一键式MCP服务器管理自动处理MCP服务器的安装和配置,无需手动操作uv/npm或编辑JSON文件。
Ollama集成支持本地或远程Ollama实例,灵活配置模型连接。
用户友好界面简洁的聊天界面,降低技术门槛,使非技术用户也能轻松使用。
优势与局限性
优势
完全本地优先,用户数据自主控制
无需编程或配置经验即可使用
支持快速切换不同的MCP服务器和模型
局限性
目前仅支持MacOS(其他平台即将推出)
依赖Ollama作为后端
技术预览版可能存在稳定性问题
如何使用
安装必备软件
下载并安装Tome和Ollama。Ollama可以是本地或远程实例。
安装支持工具调用的模型
在Ollama中安装一个支持工具调用的模型,如Qwen2.5 7B或14B。
添加MCP服务器
在Tome的MCP标签页中,粘贴MCP服务器命令(如`uvx mcp-server-fetch`)并安装。
开始聊天
在聊天界面中与你的MCP赋能模型交互,尝试让它执行任务如获取网络信息。
使用案例
获取Hacker News头条让模型通过Fetch MCP服务器获取Hacker News的当前头条新闻
本地数据查询配置适当的MCP服务器后,查询本地文件或数据库中的信息
常见问题
Tome支持哪些操作系统?
我需要多少RAM才能运行较大的模型?
如何报告问题或提出建议?
相关资源
Tome下载页面
获取最新版本的Tome应用程序
Ollama官方网站
下载和管理本地LLM模型
Runebook Discord社区
加入社区获取帮助和分享经验
MCP服务器仓库
探索更多可用的MCP服务器
精选MCP服务推荐

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
977
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.1K
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6.8K
4.5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
326
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
825
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
1.9K
5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
905
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.4K
4.7分
智启未来,您的人工智能解决方案智库
简体中文