Files
FastDeploy/examples/vision/segmentation/paddleseg/rockchip/rv1126/README.md
T
2023-02-15 07:11:41 +00:00

2.8 KiB

English | 简体中文

PaddleSeg在瑞芯微NPU上通过FastDeploy部署模型

PaddleSeg支持部署的瑞芯微的芯片型号

支持如下芯片的部署

  • Rockchip RV1109
  • Rockchip RV1126
  • Rockchip RK1808

注意:需要注意的是,芯原(verisilicon)作为 IP 设计厂商,本身并不提供实体SoC产品,而是授权其 IP 给芯片厂商,如:晶晨(Amlogic),瑞芯微(Rockchip)等。因此本文是适用于被芯原授权了 NPU IP 的芯片产品。只要芯片产品没有大副修改芯原的底层库,则该芯片就可以使用本文档作为 Paddle Lite 推理部署的参考和教程。在本文中,晶晨 SoC 中的 NPU 和 瑞芯微 SoC 中的 NPU 统称为芯原 NPU。 瑞芯微 RV1126 是一款编解码芯片,专门面相人工智能的机器视觉领域。

本示例基于RV1126来介绍如何使用FastDeploy部署PaddleSeg模型

PaddleSeg支持通过FastDeploy在RV1126上基于Paddle-Lite部署相关Segmentation模型

瑞芯微 RV1126支持的PaddleSeg模型

注意:支持PaddleSeg高于2.6版本的Segmentation模型

目前瑞芯微 RV1126 的 NPU 支持的量化模型如下:

预导出的量化推理模型

为了方便开发者的测试,下面提供了PaddleSeg导出的部分量化后的推理模型,开发者可直接下载使用。

模型 参数文件大小 输入Shape mIoU mIoU (flip) mIoU (ms+flip)
PP-LiteSeg-T(STDC1)-cityscapes-without-argmax 31MB 1024x512 77.04% 77.73% 77.46%
注意
  • PaddleSeg量化模型包含model.pdmodelmodel.pdiparamsdeploy.yamlsubgraph.txt四个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息,subgraph.txt是为了异构计算而存储的配置文件
  • 若以上列表中无满足要求的模型,可参考下方教程自行导出适配A311D的模型

PaddleSeg动态图模型导出为RV1126支持的INT8模型

模型导出分为以下两步

  1. PaddleSeg训练的动态图模型导出为推理静态图模型,请参考其文档说明模型导出 瑞芯微RV1126仅支持INT8
  2. 将推理模型量化压缩为INT8模型,FastDeploy模型量化的方法及一键自动化压缩工具可以参考模型量化

详细部署文档

目前,瑞芯微 RV1126 上只支持C++的部署。