Omni Lpr
O

Omni Lpr

Omni-LPR 是一个可自托管的多接口(REST 和 MCP)服务器,提供自动车牌识别(ALPR)功能,可作为独立的微服务或AI代理的工具箱使用。
2.5分
5.7K

什么是Omni-LPR?

Omni-LPR是一个自托管服务器,通过REST API和模型上下文协议(MCP)提供自动车牌识别(ALPR)功能。它既可以作为独立的ALPR微服务,也可以作为AI代理和大语言模型(LLM)的车牌识别工具箱。

如何使用Omni-LPR?

您可以通过简单的安装命令快速启动服务器,然后通过REST API或MCP接口发送车牌图片进行识别。服务器支持多种硬件加速选项,并提供预构建的Docker镜像方便部署。

适用场景

停车场管理系统、交通监控系统、智能安防系统、AI代理视觉能力扩展、LLM多模态工具集成、需要车牌识别的任何应用程序。

主要功能

多接口支持
同时提供REST API和MCP(模型上下文协议)接口,满足不同应用场景需求
硬件加速优化
支持多种硬件后端:通用CPU(ONNX)、Intel CPU(OpenVINO)、NVIDIA GPU(CUDA)
异步高性能
基于Starlette构建,支持异步I/O,能够处理高并发请求
容器化部署
提供预构建的Docker镜像,支持CPU、OpenVINO和CUDA不同版本
多种识别模式
支持从图片数据、文件路径或URL进行车牌识别,可单独识别或检测+识别
AI代理集成
通过MCP协议与LM Studio等AI开发工具无缝集成,扩展LLM的视觉能力
优势
解耦设计:主应用无需依赖Python或ML库,通过API调用即可使用
灵活接口:支持REST和MCP两种协议,适应不同技术栈
开箱即用:提供预构建Docker镜像,快速部署使用
硬件优化:针对不同硬件提供优化版本,提升识别速度
高并发处理:异步架构支持大量并发请求
独立扩展:可作为独立服务进行水平扩展
局限性
早期开发阶段:API可能发生变化,存在不稳定性
需要额外部署:相比直接集成,需要单独部署服务器
网络依赖:需要通过网络请求调用,增加延迟
特定车牌格式:主要针对标准车牌格式,特殊车牌识别效果可能有限

如何使用

安装服务器
使用pip安装Omni-LPR包
启动服务器
运行启动命令,默认监听在127.0.0.1:8000
验证服务状态
访问健康检查端点确认服务器正常运行
识别车牌
通过API发送图片进行车牌识别

使用案例

通过REST API识别网络图片
从公开的图片URL识别车牌号码
集成到LM Studio AI代理
将Omni-LPR作为MCP工具集成到LM Studio中,扩展AI的视觉识别能力
批量处理本地图片
扫描本地文件夹中的所有车辆图片,批量识别车牌信息

常见问题

Omni-LPR支持哪些图片格式?
如何选择适合的Docker镜像版本?
MCP和REST API有什么区别?
识别准确率如何?
支持哪些国家的车牌格式?
如何监控服务器性能?

相关资源

官方文档
详细的API文档和使用指南
使用示例
各种使用场景的代码示例
Docker镜像(CPU版)
适用于通用CPU的Docker镜像
Docker镜像(OpenVINO版)
针对Intel CPU优化的Docker镜像
Docker镜像(CUDA版)
需要NVIDIA GPU的Docker镜像
GitHub仓库
源代码和问题跟踪
PyPI包
Python包安装源
MCP Inspector工具
用于探索MCP工具的工具
LM Studio
支持MCP的AI开发工具

安装

复制以下命令到你的Client进行配置
{
    "mcpServers": {
        "omni-lpr-local": {
            "url": "http://127.0.0.1:8000/mcp/"
        }
    }
}
注意:您的密钥属于敏感信息,请勿与任何人分享。

替代品

V
Vestige
Vestige是一个基于认知科学的AI记忆引擎,通过实现预测误差门控、FSRS-6间隔重复、记忆梦境等29个神经科学模块,为AI提供长期记忆能力。包含3D可视化仪表板和21个MCP工具,完全本地运行,无需云端。
Rust
4.5K
4.5分
M
Moltbrain
MoltBrain是一个为OpenClaw、MoltBook和Claude Code设计的长期记忆层插件,能够自动学习和回忆项目上下文,提供智能搜索、观察记录、分析统计和持久化存储功能。
TypeScript
4.1K
4.5分
B
Bm.md
一个功能丰富的Markdown排版工具,支持多种样式主题和平台适配,提供实时编辑预览、图片导出和API集成能力
TypeScript
4.4K
5分
S
Security Detections MCP
Security Detections MCP 是一个基于Model Context Protocol的服务器,允许LLM查询统一的安全检测规则数据库,涵盖Sigma、Splunk ESCU、Elastic和KQL格式。最新3.0版本升级为自主检测工程平台,可自动从威胁情报中提取TTPs、分析覆盖差距、生成SIEM原生格式检测规则、运行测试并验证。项目包含71+工具、11个预构建工作流提示和知识图谱系统,支持多SIEM平台。
TypeScript
6.0K
4分
P
Paperbanana
PaperBanana是一个自动化生成学术图表和统计图的智能框架,支持从文本描述生成高质量的论文插图,采用多智能体管道和迭代优化,提供CLI、Python API和MCP服务器等多种使用方式。
Python
6.6K
5分
B
Better Icons
一个提供超过20万图标搜索和检索的MCP服务器和CLI工具,支持150多个图标库,帮助AI助手和开发者快速获取和使用图标。
TypeScript
6.7K
4.5分
A
Assistant Ui
assistant-ui是一个开源TypeScript/React库,用于快速构建生产级AI聊天界面,提供可组合的UI组件、流式响应、无障碍访问等功能,支持多种AI后端和模型。
TypeScript
7.3K
5分
A
Apify MCP Server
Apify MCP服务器是一个基于模型上下文协议(MCP)的工具,允许AI助手通过数千个现成的爬虫、抓取器和自动化工具(Apify Actor)从社交媒体、搜索引擎、电商等网站提取数据。它支持OAuth和Skyfire代理支付,可通过HTTPS端点或本地stdio方式集成到Claude、VS Code等MCP客户端中。
TypeScript
7.5K
5分
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
74.4K
4.5分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
85.7K
4.3分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
149.8K
5分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
33.0K
4.8分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.1K
4.5分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
57.3K
5分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
106.0K
4.7分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
63.6K
4.8分
AIBase
智启未来,您的人工智能解决方案智库