探索
Markdown Web Crawl

Markdown Web Crawl

一个基于Python的MCP网络爬虫项目,用于提取并保存网站内容为Markdown文件,支持批量处理和多线程配置。
2.5分
3
2025-04-28 10:12:56
内容详情
替代品
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。

MD 网站爬虫项目(基于MCP协议)

一个基于 Python 的 MCP 协议(https://modelcontextprotocol.io/introduction)网络爬虫,用于提取并保存网站内容。

功能特点

  • 提取网站内容并以 Markdown 文件格式保存
  • 映射网站结构和链接
  • 批量处理多个 URL
  • 可配置的输出目录

安装步骤

  1. 克隆仓库:
git clone https://github.com/yourusername/webcrawler.git
cd webcrawler
  1. 安装依赖项:
pip install -r requirements.txt
  1. 可选:配置环境变量:
export OUTPUT_PATH=./output  # 设置您首选的输出目录

输出结果

爬取的内容将以 Markdown 格式保存到指定的输出目录中。

配置选项

通过环境变量对服务器进行配置:

  • OUTPUT_PATH:默认输出文件夹路径(默认值:./output)
  • MAX_CONCURRENT_REQUESTS:最大并行请求数(默认值:5)
  • REQUEST_TIMEOUT:请求超时时间(单位:秒, 默认值:30)

使用 Claude 设置

通过 FastMCP 安装服务器: fastmcp install server.py

或使用自定义设置直接运行:

"Crawl Server": {
      "command": "fastmcp",
      "args": [
        "run",
        "/Users/mm22/Dev_Projekte/servers-main/src/Webcrawler/server.py"
      ],
      "env": {
        "OUTPUT_PATH": "/Users/user/Webcrawl"
      }
```

## 开发指南

### 实时开发
```bash
fastmcp dev server.py --with-editable .
```

### 调试
建议使用 https://modelcontextprotocol.io/docs/tools/inspector 工具进行调试

## 示例用法

### 示例 1:提取并保存内容
```bash
mcp call extract_content --url "https://example.com" --output_path "example.md"
```

### 示例 2:创建内容索引
```bash
mcp call scan_linked_content --url "https://example.com" | \
  mcp call create_index --content_map - --output_path "index.md"
```

## 贡献指南
1. 叉取仓库
2. 创建功能分支 (`git checkout -b feature/AmazingFeature`)
3. 提交更改 (`git commit -m 'Add some AmazingFeature'`)
4. 推送到分支 (`git push origin feature/AmazingFeature`)
5. 提交 Pull Request

## 许可证
本项目基于 MIT 协议开源。更多详细信息请参阅 `LICENSE` 文件。

## 依赖项
- Python 3.7+
- FastMCP(uv pip install fastmcp)
- 列于 requirements.txt 中的其他依赖项