0
点赞
收藏
分享

微信扫一扫

人工智能基础作业1

看山远兮 2022-04-29 阅读 75

文章目录

一、安装PyCharm,配置好Python开发环境

 Python环境在机器学习的时候已经配置完成。
 PyCharm是由JetBrains打造的一款Python IDE,VS2010的重构插件Resharper就是出自JetBrains之手。同时支持Google App Engine,PyCharm支持IronPython。这些功能在先进代码分析程序的支持下,使 PyCharm 成为 Python 专业开发人员和刚起步人员使用的有力工具。

在这里插入图片描述PyCharm具体安装教程可以参考这篇博客:https://blog.csdn.net/qq_44809707/article/details/122501118

二、安装pytorch

1.查看本机的CUDA版本

 cmd命令行输入nvidia-smi,在第一行最右边可以看到CUDA的版本号,我的版本是11.5

在这里插入图片描述

2.安装Pytroch

1.进入官网,然后选择Get Started
在这里插入图片描述
2.这里进行Pytorch版本的选择,首先我选择的是Stable稳定版,然后OS是Windows系统,Package包就使用Conda,Language肯定选Python,最后的Compute Platform就根据大家的需求来定了。大家如果想在自己电脑(具有NVIDIA显卡)上跑通代码,就选CUDA,如果不需要在自己电脑上跑(在服务器上跑)或者没有独立显卡,就选CPU。

在这里插入图片描述

3.然后复制最下面那段命令行语句,打开anaconda命令行,然后运行。

在这里插入图片描述

4.安装完成后,会提示信息done。
在这里插入图片描述
5.我们输入python进入下Python环境,然后输入import torch,如果没有报错说明可以导入成功。
在这里插入图片描述

三、使用pytorch实现反向传播

import torch
import numpy as np
x_data=[1.0,2.0,3.0]
y_data = [2.0, 4.0,6.0]
w = torch. Tensor([1.0]) #权重初始值
w.requires_grad = True #是否需要计算梯度,Tensor创建之 后默认不计算梯度
# y_predict=x*w
def forward(x) :
    return x * w
def loss(x,y): #损失函数
    y_pred = forward(x)
    return (y_pred - y) ** 2
#训练过程
#第一步:先算损失Loss
#第二步: backward, 反向传播
#第三步:梯度下降
for epoch in range(100):
    for x,y in zip(x_data,y_data):
        l = loss(x, y) #前向传播,求Loss, 构建计算图
        l.backward() #反向传播,求出计算图中所有梯度存入w中
        print("\tgrad:",x, y, w.grad.item())
        w.data = w.data - 0.01 * w.grad.data # w.. grad. data:获取梯度,用data计算, 不会建立计算图
 
        w. grad. data. zero_() #注意:将w中所有梯度清零
    print("pregress:",epoch,l.item())

运行结果:
在这里插入图片描述

四、PyTorch Autograd自动求导

import torch

创建一个张量并设置requires_grad=True用来追踪其计算历史

x = torch.ones(2, 2, requires_grad=True)
print(x)

输出:
在这里插入图片描述

对这个张量做一次运算:

y = x + 2
print(y)

输出:
在这里插入图片描述

y是计算的结果,所以它有grad_fn属性。

print(y.grad_fn)

输出:
在这里插入图片描述

对y进行更多操作

z = y * y * 3
out = z.mean()
print(z, out)

输出:
在这里插入图片描述

.requires_grad_(…) 原地改变了现有张量的 requires_grad 标志。如果没有指定的话,默认输入的这个标志是False。

a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)

输出:
在这里插入图片描述

梯度
因为out是一个标量。所以让我们直接进行反向传播,out.backward()和out.backward(torch.tensor(1.))等价

out.backward()

输出导数d(out)/dx

print(x.grad)

输出:
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
雅可比向量积的这一特性使得将外部梯度输入到具有非标量输出的模型中变得非常方便。 现在我们来看一个雅可比向量积的例子:

x = torch.randn(3, requires_grad=True)
y = x * 2
while y.data.norm() < 1000:
    y = y * 2
print(y)

输出:
在这里插入图片描述

在这种情况下,y不再是标量。torch.autograd不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给backward:

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)

输出:
在这里插入图片描述

为了防止跟踪历史记录(和使用内存),可以将代码块包装在with torch.no_grad():中。在评估模型时特别有用,因为模型可能具有requires_grad = True的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。 也可以通过将代码块包装在 with torch.no_grad(): 中,来阻止autograd跟踪设置了 .requires_grad=True 的张量的历史记录。

print(x.requires_grad)
print((x ** 2).requires_grad)
with torch.no_grad():
    print((x ** 2).requires_grad)

输出:
在这里插入图片描述

在这里插入图片描述

参考博客

举报

相关推荐

0 条评论