AI推理模型介绍
OpenVINO, ONNX Runtime, TensorRT, Paddle Inference, Paddle lite
使用PadleOCR涉及到推理模型
OpenVINO (支持Paddle/ONNX两种格式模型, 仅支持CPU上推理)
ONNX Runtime (支持Paddle/ONNX两种格式模型, 支持CPU/GPU)
TensorRT (支持Paddle/ONNX两种格式模型,仅支持GPU上推理)
Paddle Inference(支持Paddle格式模型, 支持CPU/GPU)
Paddle lite 移动端AI
OpenVINO
OpenVINO推理简介 - 知乎 (zhihu.com)
Get Started — OpenVINO™ documentation — Version(latest)
ONNX Runtime
ONNXRuntime整体概览 - 知乎 (zhihu.com)
推理模型部署(一):ONNX runtime 实践 - 知乎 (zhihu.com)
TensorRT
NVIDIA TensorRT | NVIDIA Developer
TensorRT详细入门指北,如果你还不了解TensorRT,过来看看吧! - 知乎 (zhihu.com)
Paddle Inference
Paddle Inference 简介-PaddlePaddle深度学习平台
服务器部署 — Paddle Inference-使用文档-PaddlePaddle深度学习平台
Paddle lite
Paddle Lite是飞桨基于Paddle Mobile全新升级推出的端侧推理引擎,在多硬件、多平台以及硬件混合调度的支持上更加完备,为包括手机在内的端侧场景的AI应用提供高效轻量的推理能力,有效解决手机算力和内存限制等问题,致力于推动AI应用更广泛的落地
Paddle Lite_飞桨-源于产业实践的开源深度学习平台 (paddlepaddle.org.cn)
Recent
Popular
- [工作] 无法建立计算机与VPN服务器之间的
- [Windows] Windows Server 2016
- [运维开发] 桃乐豆 - 中文WOW插件加速源
- [艺术] 至高强者十三阶
- [Windows] Windows Server 2019
- [WindowsPE] Sergei Strelec WinPE
- [Windows] Windows 7
- [学习] NovelAI模型大全分享
- [Windows] Windows 10
- [游戏] Realm Grinder - 放置游戏个人攻略
- [Windows] Windows Server 2008
- [工作] 此平台不支持虚拟化的Intel VT-x/E
- [Windows] Windows 8.1
- [Windows] Windows Server 2012