文章目录
- 系统环境
- 安装PaddlePaddle
- 1.直接下载或编译预测库
- (1)直接下载官方编译好的Jetson nano预测库
- 下载地址
- 下载
- (2)编译官方预测库
- 2.安装whl
- 安装依赖项
- 测试
- 测试Paddle Inference
- 环境准备
- 测试跑通GPU预测模型
- 报错解决
- core dumped
系统环境
- JetPack4.3
如果需要此镜像的同学可以在Jetson 下载中心下载即可。
安装PaddlePaddle
有两种方式,因为nano官方有已经编译好的python3.6的whl,所以我们直接下载就好,不用编译。
1.直接下载或编译预测库
(1)直接下载官方编译好的Jetson nano预测库
下载地址
- PaddlePaddle官方whl包下载
下载
选择python3.6版本的下载即可。
(2)编译官方预测库
在Jetson nano上编译paddlepaddle(带TensorRT)并跑通Paddle-Inference-Demo
2.安装whl
安装依赖项
这里必须安装1.18.3版本的numpy,否则后边会报错。
pip3 install numpy==1.18.3
将下载好的whl文件传送到nano上,然后安装whl:
pip3 install paddlepaddle_gpu-2.0.0-cp36-cp36m-linux_aarch64.whl
安装成功截图:
测试
打开python3:
import paddle
paddle.fluid.install_check.run_check()
报warning忽略即可,不影响使用。
测试Paddle Inference
环境准备
拉取Paddle-Inference-Demo:
git clone https://github.com/PaddlePaddle/Paddle-Inference-Demo.git
拉取比较慢的话可以在gitee上建个仓库下载,我建的仓库:https://gitee.com/irvingao/Paddle-Inference-Demo.git
。
测试跑通GPU预测模型
给可执行权限:
cd Paddle-Inference-Demo/python
chmod +x run_demo.sh
需要注意的是,需要将所有子文件夹中的run.sh
最后的python
修改为python3
:
./run_demo.sh
也可以选择运行单个模型的run.sh
。
报错解决
core dumped
原因是因为JetPack4.3自带的numpy版本不对,numpy版本应为1.18.3。
解决方法:
pip3 uninstall numpy
python3 -m pip install numpy==1.18.3 -i https://mirror.baidu.com/pypi/simple
参考文章:
- PaddlePaddle/Paddle-Inference-Demo
- 预测示例 (Python)
- 在Jetson nano上编译paddle(带TensorRT)并跑通Paddle-Inference-Demo
- 从0到1教你在Jetson Xavier NX玩转PaddlePaddle
- 教你如何在三步内Jetson系列上安装PaddlePaddle