Gemini MCP Server
G

Gemini MCP Server

基于FastMCP的Gemini模型集成MCP服务器,使用Python实现并通过Docker部署
2分
8.2K

什么是Gemimi MCP服务器?

Gemimi MCP服务器是一个基于FastMCP实现的Model Context Protocol (MCP)服务端程序,它允许用户将Gemimi模型接入到支持MCP协议的应用中,如Cursor或Claude等。通过这个服务器,可以方便地进行文本生成、对话交互等任务。

如何使用Gemimi MCP服务器?

该服务器可以通过Docker容器化方式运行,并且需要提供Gemimi API密钥、模型名称及基础URL等配置信息。用户只需按照说明进行配置并启动服务,即可在支持MCP的平台中使用Gemimi模型。

适用场景

适用于希望将Gemimi模型集成到其他应用中的开发者,以及需要快速部署MCP服务的团队。例如,可以在代码编辑器(如Cursor)中使用Gemimi模型进行智能提示或代码生成。

主要功能

支持Gemimi模型
能够对接Google的Gemimi模型,实现自然语言处理和文本生成任务。
容器化部署
通过Docker进行部署,简化了安装和管理过程,适合各种开发环境。
兼容MCP协议
完全遵循Model Context Protocol (MCP)标准,确保与其他支持MCP的应用无缝集成。
优势
易于集成到现有系统中,支持多种开发工具。
通过Docker部署,便于维护和扩展。
可灵活选择不同的Gemimi模型进行调用。
局限性
需要Gemimi API密钥,可能涉及费用。
依赖网络连接,离线环境下无法使用。
对于不熟悉Docker的用户,部署过程可能较为复杂。

如何使用

构建Docker镜像
在项目根目录下运行命令 'docker build -t gemini-mcp-server .' 来构建Docker镜像。
运行Docker容器
使用 'docker run' 命令启动容器,并传入必要的环境变量,如API密钥、模型名称等。
配置MCP服务器
在目标应用(如Cursor)中添加Gemimi MCP服务器配置,输入正确的参数。

使用案例

在Cursor中使用Gemimi模型
通过Gemimi MCP服务器,在Cursor中实现AI辅助代码编写和智能提示功能。
在聊天机器人中调用Gemimi
利用Gemimi MCP服务器,让聊天机器人能够回答用户的问题并生成自然语言回复。

常见问题

我需要哪些信息来运行Gemimi MCP服务器?
为什么我的Gemimi MCP服务器无法启动?
是否支持多语言?

相关资源

Gemimi官方文档
了解Gemimi模型的详细信息和API使用方法。
FastMCP GitHub仓库
FastMCP项目的源码和开发文档。
Docker官方文档
学习如何使用Docker进行容器化部署。

安装

复制以下命令到你的Client进行配置
{
  "mcpServers": {
    "gemini": {
      "command": "docker",
      "args": [
        "run",
        "--rm",
        "-i",
        "--network",
        "host",
        "-e",
        "GEMINI_API_KEY",
        "-e",
        "GEMINI_MODEL",
        "-e",
        "GEMINI_BASE_URL",
        "-e",
        "HTTP_PROXY",
        "-e",
        "HTTPS_PROXY",
        "gemini-mcp-server:latest"
      ],
      "env": {
        "GEMINI_API_KEY":"your_api_key_here",
        "GEMINI_MODEL":"gemini-2.5-flash",
        "GEMINI_BASE_URL":"https://generativelanguage.googleapis.com/v1beta/openai/",
        "HTTP_PROXY":"http://127.0.0.1:17890",
        "HTTPS_PROXY":"http://127.0.0.1:17890"

      }
    }
  }
}
注意:您的密钥属于敏感信息,请勿与任何人分享。

替代品

R
Rsdoctor
Rsdoctor 是一款专为 Rspack 生态系统打造的构建分析工具,全面兼容 webpack,提供可视化构建分析、多维度性能诊断及智能优化建议,帮助开发者提升构建效率与工程质量。
TypeScript
8.9K
5分
N
Next Devtools MCP
Next.js开发工具MCP服务器,为Claude、Cursor等AI编程助手提供Next.js开发工具和实用程序,包括运行时诊断、开发自动化和文档访问功能。
TypeScript
9.5K
5分
T
Testkube
Testkube是一个面向云原生应用的测试编排与执行框架,提供统一平台来定义、运行和分析测试,支持现有测试工具和Kubernetes基础设施。
Go
6.2K
5分
M
MCP Windbg
一个MCP服务器,将AI模型与WinDbg/CDB集成,用于分析Windows崩溃转储文件和进行远程调试,支持自然语言交互执行调试命令。
Python
8.7K
5分
R
Runno
Runno是一个JavaScript工具包集合,用于在浏览器和Node.js等环境中安全地运行多种编程语言的代码,通过WebAssembly和WASI实现沙盒化执行,支持Python、Ruby、JavaScript、SQLite、C/C++等语言,并提供Web组件、MCP服务器等集成方式。
TypeScript
7.6K
5分
P
Praisonai
PraisonAI是一个生产就绪的多AI智能体框架,具有自反思功能,旨在创建AI智能体来自动化解决从简单任务到复杂挑战的各种问题。它通过将PraisonAI智能体、AG2和CrewAI集成到一个低代码解决方案中,简化了多智能体LLM系统的构建和管理,强调简单性、定制化和有效的人机协作。
Python
7.3K
5分
N
Netdata
Netdata是一个开源实时基础设施监控平台,提供每秒级指标收集、可视化、机器学习驱动的异常检测和自动化告警,无需复杂配置即可实现全栈监控。
Go
9.7K
5分
M
MCP Server
Mapbox MCP服务器是一个Node.js实现的模型上下文协议服务器,为AI应用提供Mapbox地理空间API的访问能力,包括地理编码、兴趣点搜索、路线规划、等时线分析和静态地图生成等功能。
TypeScript
8.8K
4分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
76.8K
4.3分
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
69.6K
4.5分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
133.0K
5分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
46.6K
4.5分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
59.0K
4.8分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
30.5K
4.8分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
50.8K
5分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
96.1K
4.7分
AIBase
智启未来,您的人工智能解决方案智库