0
点赞
收藏
分享

微信扫一扫

【PyTorch基础教程19】Debug指南(学不会来打我啊)


学习总结

文章目录

  • ​​学习总结​​
  • ​​一、ipdb介绍​​
  • ​​二、小栗子​​
  • ​​三、在pytorch中debug​​
  • ​​3.1 pytorch和ipdb结合的好处​​
  • ​​3.2 常见的错误有如下几种:​​
  • ​​Reference​​

一、ipdb介绍

代码量少时debug:使用​​print​​​和​​log​​​调试代码;
better做法:一遍运行一遍检查里面的变量和方法。

pdb是python交互式的调试工具,其作用:

  • 根据需求跳转到任意的python代码断点
  • 查看任意变量、单步执行代码
  • 甚至修改变量的值,不必重启程序

ipdb是增强版的pdb,提供了调试模式下的代码自动补全,有更好的语法高亮和代码溯源,与pdb接口完全兼容。

二、小栗子

结合pytorch和ipdb进行调试。
要使用ipdb,在需要调试的地方插入​​​ipdb.set_trace​​即可(还有在代码开头加上try和except两行)。

现在有栗子如下,sum和mul函数分别计算列表x中的元素的累加和累乘:

# -*- coding: utf-8 -*-
"""
Created on Sun Dec 12 16:33:07 2021

@author: 86493
"""
try:
import ipdb
except:
import pdb as ipdb

def sum(x):
r = 0
for i in x:
r += i
return r

def mul(x):
r = 1
for i in x:
r *= i
return r

ipdb.set_trace()
x = [1, 2, 3, 4, 5]
r = sum(x)
r = mul(x)

程序运行到​​ipdb.set_trace()​​后自动进行debug模式:

ipdb> list 7,27 # 查看第7到27行代码
7 try:
8 import ipdb
9 except:
10 import pdb as ipdb
11
12 def sum(x):
13 r = 0
14 for i in x:
15 r += i
16 return r
17
18 def mul(x):
19 r = 1
20 for i in x:
21 r *= i
22 return r
23
24 ipdb.set_trace()
---> 25 x = [1, 2, 3, 4, 5]
26 r = sum(x)
27 r = mul(x)

ipdb> n # next执行下一步
> d:\桌面文件\ipdb.py(26)<module>()

ipdb> s # step的缩写,此处进入sum函数内部
--Call--
> d:\桌面文件\ipdb.py(12)sum()

ipdb> u # up的缩写,调回上一层的调用
> d:\桌面文件\ipdb.py(26)<module>()

ipdb> down # down的缩写,跳到调用的下一层
> d:\桌面文件\ipdb.py(15)sum()


ipdb> return # 继续执行到函数返回,返回15即为sum的结果
--Return--
15

同时也可以查看或者修改变量,再继续执行代码也是按照修改后的变量运算,如果要退出debug模式则是​​q​​(debug的缩写)。

ipdb的小技巧:

  • ​<tab>​​键能自动补齐,和IPyhton中类似
  • ​j(ump)<lineno>​​能够跳过中间某些行代码的执行
  • 可以直接在ipdb中改变变量值
  • h(elp)能够查看调试命令的用法,如​​h h​​查看help命令的用法等。

三、在pytorch中debug

pytorch可以执行计算的同时定义计算图(该定义过程是用python完成的,虽然底层是用C++完成)。

3.1 pytorch和ipdb结合的好处

1)通过debug暂停程序:当程序进入debug模式之后,将不再执行GPU和CPU运算,但是内存和显存集相应的堆栈空间不会释放

2)通过debug分析程序,查看每个层的输出,查看网络的参数情况:通过u\d\s等命令,能够进入指定的代码,通过n可以进行单步执行,从而可以看见每一层的运算结果,便于分析网络的数值分布等信息

3)作为动态图框架,pytorch拥有python动态语言解释执行的优点,我们能够在运行程序时,通过ipdb修改某些变量的值或属性,这些修改能够立即生效。例如可以在训练开始不久后根据损失函数调整学习率,不必重启程序

4)如果在IPython中通过​​%run​​魔法方法运行程序,那么在程序异常退出时,可以使用%debug命令,直接进入debug模式,通过u和d调到报错的地方,查看对应的变量。然后找出原因后修改相应的代码即可。

因为有时模型训练好几个小时后,却在要保存模型之前,因为一个小小的拼写错误异常退出。这时候最好的办法就是利用%debug进入调试模式,在调试模式中直接运行​​model.save()​​保存模型

在ipython中,​​%pdb​​​魔术方法能够使得程序出现问题后,不用手动输入​​%debug​​而自动进入调试模式,建议使用

pytorch调用cuDNN报错时,报错信息诸如​​CUDNN_STATUS_BAD_PARAM​​,从这些报错信息内容很难得到有用的帮助信息,最好先利用CPU运行代码,此时一般会得到相对友好的报错信息。

3.2 常见的错误有如下几种:

1)类型不匹配问题:如​​CrossEntropyLoss​​​的输入target应该是一个​​LongTensor​​,而很多人输入FloatTensor

2)部分数据忘记从CPU转到GPU:例如当model存放与GPU时,输入input耶需要转移到GPU才能输入到model中

还有可能是把多个model存放在一个list对象,而在执行​​model.cuda()​​时,这个list中的对象是不会被转移到CUDA上的,正确的用法是使用ModuleList替代

3)Tensor形状不匹配:此类问题一般是输入数据形状不对,或是网络结构设计有问题,一般通过u命令跳到指定代码,查看输入和模型参数的形状即可得知

Reference

(1)pytorch官网 (2)
(3)《深度学习框架pytorch入门与实践》


举报

相关推荐

0 条评论