Ollama MCP Server
什么是Ollama MCP Server?
Ollama MCP Server是一个中间件,它允许您通过Model Context Protocol (MCP)标准接口访问Ollama的本地大语言模型功能。这意味着您可以在支持MCP的应用中直接使用Ollama提供的各种AI模型。如何使用Ollama MCP Server?
只需简单配置MCP客户端指向Ollama MCP Server,然后就可以像使用其他MCP服务一样使用本地运行的Ollama模型。支持模型管理、文本生成、多模态处理等功能。适用场景
适合需要在本地运行AI模型并集成到现有MCP生态系统的场景,如:本地AI助手开发、隐私敏感应用、定制化AI解决方案等。主要功能
模型管理
支持从注册表拉取模型、推送模型、列出可用模型、创建自定义模型、复制和删除模型等完整生命周期管理功能
模型执行
支持运行模型生成文本、多模态处理(如图像识别)、聊天补全API等多种执行方式,可配置温度、超时等参数
思维链推理
新增think参数可让模型展示推理过程,增强透明度和可解释性
服务器控制
可启动和管理Ollama服务器,查看详细模型信息,处理错误和超时
优势
完全本地运行,保障数据隐私和安全
支持多种模型和功能,API覆盖全面
与MCP生态系统无缝集成
新增思维链推理功能增强透明度
局限性
需要本地安装Ollama环境
标准输出模式不支持流式响应
性能受本地硬件限制
如何使用
安装Ollama
首先确保已在系统上安装Ollama(https://ollama.ai)
配置MCP客户端
在MCP客户端配置文件中添加Ollama MCP Server配置
启动服务
启动MCP客户端,它将自动运行Ollama MCP Server
使用案例
基础文本生成
使用Llama2模型生成量子计算的简单解释
多模态图像描述
使用Gemma模型描述图片内容
思维链推理
使用Deepseek模型展示推理过程
常见问题
如何知道哪些模型可用?
think参数对所有模型都有效吗?
如何提高响应速度?
相关资源
Ollama官方网站
Ollama项目主页,包含安装指南和模型库
GitHub仓库
项目源代码和最新版本
原始项目
原始项目仓库,包含历史版本

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
63.7K
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
43.0K
4.5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
39.6K
4.3分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
30.4K
5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
20.5K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
30.9K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
34.9K
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
45.8K
4.7分