0
点赞
收藏
分享

微信扫一扫

pytorch笔记

ixiaoyang8 2022-02-15 阅读 49

Cmd// nvidia-smi查看英伟达显卡的设置是否足够使用pytorch.(Driver Version大于396.26)

Anconda// pip list查看安装的包。

Anconda// python /import torch/torch.cuda.is_available()看安装版本是否合适

Anconda//conda install  --use-local 包名     安装本地下载包的指令

Python道具:dir():能让我们知道工具箱以及工具箱中的分隔区有什么东西。help():能让我们知道每个工具是如何使用的,工具的使用方法。

Python文件:文件的块是所有行的代码(优点:通用,传播方便,适用于大型项目。缺点:需要从头运行)

Python控制台:以任意行为块运行的(优点:显示每个变量属性。缺点:不利于代码阅读及修改)

Jupyter notebook:以任意行为块运行的(优点:利于代码阅读及修改。缺点:环境需要配置)

Jupyter shift+enter是换行

Dataset 提供一种方式去获取数据及其label(1.如何获取每一个数据及其label。2.告诉我们总共有多少的数据)

Dataloader 为后面的网络提供不同的数据形式。

如何打开事件文件:

tensorboard  --logdir = logs        //logdir=事件文件所在文件夹名

Tensorboard --logdir=logs --port=6007    //指定端口

如何加载数据集:数据集可以直接放到项目文件夹中

按住ctrl点击函数就可以看函数定义或者库的要求。

Pycharm打不开,cmd 命令:netsh winsock reset

找缺失的头文件:找代码发红的地方或者下拉箭头,alt+回车都可看到(import the name)

看函数需要什么:ctrl+p

实例化+调用方法:transforms.ToTensor()

常见的Transforms

输入:  PIL       Image.open()

输出:  tensor    ToTensor()

作用:  narrays   cv.imread()

设置大小写提示 file     setting       搜索case     Code Completion      Match case取消勾选

Notes:输入和输出类型、多看官方文档、关注方法需要什么参数

不知道返回值的时候 *print    *print(type())    *debug

Ctrl+/可以把全部选中的内容进行注释掉

Pytorch官网:PyTorch 其中Doc文档应该经常看。

Notes:卷积其实就是对应位置相乘相加,本质就是滤波器

卷积核随机初始化,网络训练的就是卷积核

截图工具:snipaste

最大池化被称为下采样

上采样是插值,下采样是抽样(互为逆运算)

Notes:output = torch.reshape(input,(-1,1,3,3))代表让计算机自己算维度

Loss:

  1. 计算实际输出和目标之间的差距
  2. 为我们更新输出提供一定的依据(反向传播)

优化器根据梯度调整参数,以达到降低误差

Notes:Lr = learning rate 学习速率

神经网络训练步骤:

准备数据、加载数据、准备模型、设置损失函数、设置优化器、开始训练、最后验证、结果聚合展示

Notes:网络模型,数据(输入,标注),损失函数.cuda()

Import time(用来计时)

Google colab可以使用免费的gpu(需要一个谷歌账号)

举报

相关推荐

0 条评论