Jetson Nano下Deepstream6.0 + yolov3/v5多路推理配置流程;并简单记录下deepstream的配置文件。
文章目录
一.环境
二.大体流程
——1.Deepstream yolov3-tiny:
- 1.1.准备模型
拷贝weights和cfg文件至下目录:
cd /opt/nvidia/deepstream/deepstream/sources/objectDetector_Yolo
CUDA_VER=10.2 make -C nvdsinfer_custom_impl_Yolo
- 1.2.运行
#运行deepstream案例
deepstream-app -c deepstream_app_config_yoloV3_tiny.txt
- 1.3.自训练模型
——2.Deepstream yolov5:
- 2.1.模型转换(这里建议在电脑上操作,也可在Jeston上操作;需要配置pytorch环境)
git clone https://github.com/marcoslucianops/DeepStream-Yolo.git
cd DeepStream-Yolo/utils
#主要拷贝转换脚本到yolov5项目下即可
cp gen_wts_yoloV5.py ../../yolov5
cd ../../yolov5
python gen_wts_yoloV5.py -w ./yolov5n.pt -c ./models/yolov5n.yaml
- 2.2.模型拷贝至Jetson
- 2.3.部署模型
git clone https://github.com/marcoslucianops/DeepStream-Yolo.git
#将项目拷贝至deepstream/source下
cp -r DeepStream-Yolo /opt/nvidia/deepstream/deepstream/source
cd /opt/nvidia/deepstream/deepstream/source/DeepStream-Yolo
#这里使用的默认模型
CUDA_VER=10.2 make -C nvdsinfer_custom_impl_Yolo
- 2.4.自训练模型:
- 2.5.运行
#运行deepstream案例
deepstream-app -c deepstream_app_config.txt
三.配置文件说明
- config_infer_primary_yoloV5.txt
1.主要用于模型转换配置,是属于模型层面的配置。
- deepstream_app_config.txt
1.主要用于deepstream相关视频和显示的配置,是属于应用层的配置。
四.性能记录
模型 | batchsize | 精度 | 输入尺寸 | 路数 | FPS(avg) |
---|---|---|---|---|---|
yolov5n 6.0 | 4 | fp32 | 640 | 4 | 5.6 |
yolov3-tiny | 4 | fp32 | 416 | 4 | 17.2 |
yolov3-tiny | 4 | fp16 | 416 | 4 | 19.0 |
- 避免误差4路视频为同一个mp4。