Jinni
什么是Jinni?
Jinni是一个智能项目上下文提取工具,专门为AI编程助手设计。它能自动扫描您的代码项目,提取所有相关文件内容,并以结构化方式提供给大型语言模型(LLM),让AI更深入理解您的项目全貌。如何使用Jinni?
只需简单配置您的AI开发环境(如Cursor/Roo/Claude等),Jinni就会在后台工作。当AI需要了解项目时,会自动获取完整的代码上下文。适用场景
特别适合复杂代码库的维护、新成员快速熟悉项目、跨文件代码重构等场景。让AI助手像资深开发者一样理解您的项目。主要功能
智能上下文提取
自动识别并提取项目中的源代码文件,排除二进制/日志等无关内容
无缝MCP集成
通过Model Context Protocol与主流AI开发工具深度集成
自定义过滤规则
支持.gitignore风格规则,精确控制哪些文件应该包含或排除
完整元数据
提供文件路径、大小和修改时间等元数据,帮助理解文件关系
WSL无缝支持
自动处理Windows/WSL路径转换,跨平台开发无忧
优势
一键获取完整项目视图,无需手动逐个文件查看
智能过滤机制确保只包含相关代码文件
与主流AI编程工具开箱即用
支持大规模项目,自动处理路径和编码问题
局限性
超大项目可能需要调整包含规则以避免上下文过长
首次配置需要简单的开发环境设置
二进制/非文本文件默认不包含(可通过配置修改)
如何使用
安装Jinni
通过pip或uv安装Jinni包
配置MCP客户端
在您的AI开发工具配置文件中添加Jinni服务器设置
指定项目根目录(可选)
为安全考虑,可以限制Jinni只能访问特定目录
开始使用
重启您的开发环境,现在AI可以请求读取项目上下文了
使用案例
新成员熟悉项目
新加入开发者使用AI快速理解项目结构和主要模块
跨文件重构
重构影响多个文件的代码时确保一致性
依赖关系分析
理清复杂项目中的模块依赖关系
常见问题
为什么AI有时看不到我的某些文件?
如何限制Jinni访问的目录范围?
Windows/WSL路径如何处理?
项目太大导致上下文超限怎么办?
相关资源
官方GitHub仓库
获取最新版本和源代码
MCP协议文档
了解Model Context Protocol技术细节
Cursor集成指南
如何在Cursor中配置Jinni

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
43.8K
4.5分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
63.2K
5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
38.4K
4.3分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
19.2K
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
46.9K
4.7分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
31.3K
5分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
30.5K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
33.5K
4.8分