0
点赞
收藏
分享

微信扫一扫

【PyTorch教程】P21线性层和其它层

P21线性层和其它层

  • 官方文档有一些写好的网络:
    在这里插入图片描述

  • 线性层:这里的线性层,跟非线性激活,形成对比:线性层,是k和b,对输入数据x,进行一次函数的处理,而非线性激活(激活函数)是在对神经元或者输入,做非线性处理:
    在这里插入图片描述

  • Recurrent Layers 不太用

  • Transformer Layer

  • Linear Layer 重点讲完了

  • Dropout Layer 不难 为了防止过拟合

  • sparse layer 用于自然语言处理

可以运行的代码



# !usr/bin/env python3
# -*- coding:utf-8 -*-

"""
author :24nemo
 date  :2021年07月07日
"""

import torch
import torchvision
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10("../dataset", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)

dataloader = DataLoader(dataset, batch_size=64)


class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.linear1 = Linear(196608, 10)

    def forward(self, input):
        output = self.linear1(input)
        return output


tudui = Tudui()

for data in dataloader:
    imgs, targets = data
    print(imgs.shape)
    # output = torch.reshape(imgs, (1, 1, 1, -1))
    output = torch.flatten(imgs)
    print(output.shape)
    output = tudui(output)
    print(output.shape)

'''
正则化层  Normalization Layers   nn.BatchNorm2d 
有一篇论文,意思是正则化层可以提高训练速度

参数只有一个,channel中的C,num_feature, 令其跟 channel 数相同即可,官方文档有个事例:

>>> # With Learnable Parameters
>>> m = nn.BatchNorm2d(100)
>>> # Without Learnable Parameters           # 不含可学习参数
>>> m = nn.BatchNorm2d(100, affine=False)    # 这里的 100,是跟着下一行的100(channel)设置的
>>> input = torch.randn(20, 100, 35, 45)
>>> output = m(input)

'''

'''
官方文档有一些写好的网络
'''
举报

相关推荐

0 条评论