0
点赞
收藏
分享

微信扫一扫

TensorRT模型分离c++部署的问题

描述:

将本地训练好的yolov5的模型(分类、分割、检测)多机分离部署,传给客户环境远程调试与测试

提示:

tensorrt移植时,多机的显卡算力需要和训练模型机器的显卡算力一致

TensorRT模型分离c++部署的问题_模型移植

问题1:

Load tensorrt engine文件出错\\engine plan file is not compatible with this version of TensorRT 8.4.15 got 8.4

​多机上Tensorrt的设置需要和生成模型时单机的tensorrt设置一致


问题2:

Could not locate zlibwapi.dll. Please make sure it is in your library path!

​cudnn的bin、lib、include放到cuda的目录下


问题3:

Code 2: Internal Error (Assertion validateCaskKLibSize(buffer.size) failed

​删除C:\Windows\System32下的tensorrt相关文件


举报

相关推荐

c++ 部署模型

0 条评论