0
点赞
收藏
分享

微信扫一扫

PaddleDetection调试记录--纯ARM下的各类模型(1)

沉浸在自己的世界里 2022-04-19 阅读 67

这里写自定义目录标题

模型调试记录

1.base_base_o

大约耗费3500ms
不使用slim策略训练,不使用slim策略导出的最普通模型,耗时是3500ms。

2.base_base_set_o

大约耗费3500ms
在1的条件下追加了PaddleLite的Opt工具进行8bit优化,耗时几乎没变化。

3.base_qat_o

大约耗费1700ms(-50%)
不使用Slim策略训练,使用8bit量化导出模型,耗时减少了一半。
没有正确识别目标。

4.base_qat_set_o

大约耗费1700ms(-50%)
在3的条件下追加opt,耗时几乎没变化。
没有正确识别目标。

5.qat_base_o

大约耗费3500ms
使用8bitQAT进行训练,但是不使用Slim策略导出模型,耗时回到了3500ms。
没有正确识别目标。

6.qat_base_set_o

大约耗费3500ms
没什么可说的,同上。

7.qat_qat_o

大约耗费1700ms(-50%)
使用8bitQAT量化训练,使用8bit量化导出模型,耗时同3比未见减少。

8.qat_qat_set_o

大约耗费1700ms(-50%)
同上

结论

1.只有在训练时的Slim策略与模型导出时的Slim策略相同时,得到的模型才可以得到正确的结果。
2.无论是在模型导出环节还是在Opt环节中加入8bit量化,都会使模型变小,但模型的大小并不能决定预测的速度。
3.被我们寄予厚望的Opt工具效果甚微,甚至是没有效果,也有可能是使用方法出了问题。
举报

相关推荐

0 条评论