Cmd// nvidia-smi查看英伟达显卡的设置是否足够使用pytorch.(Driver Version大于396.26)
Anconda// pip list查看安装的包。
Anconda// python /import torch/torch.cuda.is_available()看安装版本是否合适
Anconda//conda install --use-local 包名 安装本地下载包的指令
Python道具:dir():能让我们知道工具箱以及工具箱中的分隔区有什么东西。help():能让我们知道每个工具是如何使用的,工具的使用方法。
Python文件:文件的块是所有行的代码(优点:通用,传播方便,适用于大型项目。缺点:需要从头运行)
Python控制台:以任意行为块运行的(优点:显示每个变量属性。缺点:不利于代码阅读及修改)
Jupyter notebook:以任意行为块运行的(优点:利于代码阅读及修改。缺点:环境需要配置)
Jupyter shift+enter是换行
Dataset 提供一种方式去获取数据及其label(1.如何获取每一个数据及其label。2.告诉我们总共有多少的数据)
Dataloader 为后面的网络提供不同的数据形式。
如何打开事件文件:
tensorboard --logdir = logs //logdir=事件文件所在文件夹名
Tensorboard --logdir=logs --port=6007 //指定端口
如何加载数据集:数据集可以直接放到项目文件夹中
按住ctrl点击函数就可以看函数定义或者库的要求。
Pycharm打不开,cmd 命令:netsh winsock reset
找缺失的头文件:找代码发红的地方或者下拉箭头,alt+回车都可看到(import the name)
看函数需要什么:ctrl+p
实例化+调用方法:transforms.ToTensor()
常见的Transforms
输入: PIL Image.open()
输出: tensor ToTensor()
作用: narrays cv.imread()
设置大小写提示 file setting 搜索case Code Completion Match case取消勾选
Notes:输入和输出类型、多看官方文档、关注方法需要什么参数
不知道返回值的时候 *print *print(type()) *debug
Ctrl+/可以把全部选中的内容进行注释掉
Pytorch官网:PyTorch 其中Doc文档应该经常看。
Notes:卷积其实就是对应位置相乘相加,本质就是滤波器
卷积核随机初始化,网络训练的就是卷积核
截图工具:snipaste
最大池化被称为下采样
上采样是插值,下采样是抽样(互为逆运算)
Notes:output = torch.reshape(input,(-1,1,3,3))代表让计算机自己算维度
Loss:
- 计算实际输出和目标之间的差距
- 为我们更新输出提供一定的依据(反向传播)
优化器根据梯度调整参数,以达到降低误差
Notes:Lr = learning rate 学习速率
神经网络训练步骤:
准备数据、加载数据、准备模型、设置损失函数、设置优化器、开始训练、最后验证、结果聚合展示
Notes:网络模型,数据(输入,标注),损失函数.cuda()
Import time(用来计时)
Google colab可以使用免费的gpu(需要一个谷歌账号)