# 本地LLM

探索标签
本地LLM
Local Llm Obsidian Knowledge Base
一个包含开发容器的模板仓库,用于运行本地LLM和知识库,支持通过git subtree或git submodule添加git仓库,并通过MCP客户端/服务器关系(如VS Code扩展和Obsidian-MCP服务器)进行更新。
0
2分
Mcpfilesystem Client
项目描述了一个本地LLM服务器的使用流程,包括启动兼容OpenAI SDK的模型(如Jan)、配置.env文件以及运行Node应用。重点在于通过MCP服务限制文件访问权限。
0
2分
Simple MCP Ollama Bridge
MCP LLM Bridge是一个连接Model Context Protocol (MCP)服务器与OpenAI兼容的LLM(如Ollama)的桥梁工具。
1
2.5分
Ollama Deep Researcher
基于Ollama的深度研究MCP服务,通过本地LLM模型实现自动化网络搜索与知识合成
8
2.5分
Claude Lmstudio Bridge
一个连接Claude与本地LM Studio运行的大语言模型的MCP服务器工具
2
2.5分
Tome
Tome是一款由Runebook团队开发的MacOS应用(即将支持Windows和Linux),旨在简化本地大型语言模型(LLM)与MCP服务器的使用。它通过集成Ollama和管理MCP服务器,使用户无需处理复杂的配置即可快速开始与MCP驱
28
2.5分
Ollama Chat With MCP
Ollama Chat with MCP是一个展示如何通过模型上下文协议(MCP)将本地语言模型与实时网络搜索功能集成的项目。它包含MCP网络搜索服务器、终端客户端和基于Gradio的网页前端,使本地运行的LLM能够访问外部工具和数据源。
2
2.5分
Ollama MCP
Ollama MCP Server是一个强大的桥梁,将Ollama与模型上下文协议(MCP)无缝集成,使Ollama的本地LLM能力能够轻松融入MCP驱动的应用程序中。
45
2.5分
Unity Ollama
Unity MCP与Ollama集成包,实现Unity与本地大语言模型的无缝通信,支持资产管理和编辑器自动化。
4
2.5分
Local MCP Client
Local MCP Client是一个跨平台的Web和API接口工具,通过自然语言与可配置的MCP服务器交互,支持本地LLM模型和Ollama,实现结构化工具执行和动态代理行为。
2
2.5分
Ollama MCP
Ollama MCP Server是一个连接Ollama本地LLM模型与MCP兼容应用的协议服务器,提供模型管理、对话交互等功能。
53
2.5分
精选MCP服务推荐
AIbase
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文
热门MCP服务
热门MCP分类
热门标签