探索
Llm Gateway MCP Server

Llm Gateway MCP Server

Ultimate MCP Server是一个全面的MCP原生系统,作为完整的AI代理操作系统,通过模型上下文协议(MCP)提供数十种强大功能,使高级AI代理能够访问丰富的工具、认知系统和专业服务生态系统。
2分
0
2025-04-23 14:59:44
内容详情
替代品
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。

项目介绍

这是一个基于模型上下文协议(MCP)的开源项目,旨在为各种AI模型提供统一的交互接口。该项目集成了多种功能模块,包括文件处理、网络请求、数据解析、数据库操作等。

功能概述

核心特性

  • 多模型支持:兼容主流的LLM提供商,如OpenAI、Anthropic、Google、DeepSeek、xAI等。
  • 工具扩展性:内置多种实用工具,涵盖文件操作、网络请求、数据处理等领域。
  • 上下文管理:通过结构化的协议实现模型与外部工具的有效交互。

工具集

文件系统工具

  • file_read: 从指定路径读取文件内容。
  • file_write: 将内容写入文件,支持覆盖或追加模式。
  • dir_list: 列出指定目录下的所有文件和子目录。
  • file_delete: 删除指定文件或空目录。

网络请求工具

  • http_get: 发送GET请求获取网页内容。
  • http_post: 发送POST请求提交数据。
  • http_request: 支持自定义HTTP方法(如PUT, DELETE等)的通用接口。

数据处理工具

  • json_parse: 解析JSON格式的数据。
  • csv_read: 读取CSV文件并转换为结构化数据。
  • xml_process: 处理XML格式数据,支持XPath查询。

数据库操作工具

  • sql_query: 执行SQL查询并返回结果集。
  • db_connect: 建立与数据库的连接。
  • schema_parse: 解析和验证数据库表结构。

安全注意事项

为了确保系统的安全性,在使用过程中请遵循以下原则:

  1. 最小权限原则:以最低权限运行服务进程,限制其对敏感资源的访问。
  2. 输入校验:严格验证用户输入的数据,防止恶意代码注入。
  3. 日志管理:避免在日志中记录敏感信息,如API密钥或用户凭证。

安全指南

总体安全建议

  • 定期更新项目依赖库,防范已知的安全漏洞。
  • 配置适当的访问控制策略,限制不必要的网络暴露。
  • 使用 HTTPS 协议进行通信,保护数据传输过程中的安全性。

工具使用注意事项

  • 在处理文件系统操作时,严格限制可访问的目录范围,防止目录遍历攻击(如../)。
  • 执行SQL查询时,优先使用ORM框架或参数化查询,避免SQL注入风险。
  • 对于需要执行任意脚本的操作(如browser_evaluate_script),建议进行严格的输入验证和权限控制。

许可证

该项目采用MIT许可证,具体条款详见项目中的LICENSE文件。

致谢

本项目依赖众多优秀的开源项目和技术社区的支持,特别感谢以下组织和个人:

  • Model Context Protocol (MCP) 项目组,提供了基础的概念框架和协议规范。
  • FastAPI 团队,开发了高性能的Web框架。
  • Pydantic 开发者,为数据验证和配置管理提供了强大的工具。
  • Rich 库作者,带来了美观的信息终端输出体验。
  • uv 项目组,提供了快速的Python包安装解决方案。
  • Playwright 团队,开发了功能强大的浏览器自动化框架。
  • OpenPyXL 维护者,提供了Excel文件处理的功能支持。
  • 社区贡献者,感谢你们的热情参与和持续反馈。

运行服务器

快速开始

  1. 克隆项目仓库:
    git clone https://github.com/your-repository.git
    cd your-repository
    
  2. 安装依赖包:
    pip install -r requirements.txt
    
  3. 启动服务:
    python main.py
    

配置选项

config.json文件中,可以配置以下参数:

{
  "host": "localhost",
  "port": 8000,
  "model_provider": "openai",
  "api_key": "your-api-key"
}

使用示例

通过命令行调用服务:

curl http://localhost:8000/api/ping

在Python代码中使用:

import requests

response = requests.get('http://localhost:8000/api/ping')
print(response.json())