pytorch怎么实现梯度下降和反向传播

开发技术 作者:iii 2024-05-08 02:10:01
这篇文章主要讲解了“pytorch怎么实现梯度下降和反向传播”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“p...

这篇文章主要讲解了“pytorch怎么实现梯度下降和反向传播”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“pytorch怎么实现梯度下降和反向传播”吧!

反向传播

这里说一下我的理解,反向传播是相对于前向计算的,以公式J(a,b,c)=3(a+bc)为例,前向计算相当于向右计算J(a,b,c)的值,反向传播相当于反过来通过y求变量a,b,c的导数,如下图

pytorch怎么实现梯度下降和反向传播

手动完成线性回归

import torch
import numpy as np
from matplotlib import pyplot as plt
"""
假设模型为y=w*x+b
我们给出的训练数据是通过y=3*x+1,得到的,其中w=3,b=1
通过训练y=w*x+b观察训练结果是否接近于w=3,b=1
"""
# 设置学习率
learning_rate=0.01
#准备数据
x=torch.rand(500,1) #随机生成500个x作为训练数据
y_true=x*3+1 #根据模型得到x对应的y的实际值
#初始化参数
w=torch.rand([1,1],requires_grad=True) #初始化w
b=torch.rand(1,requires_grad=True,dtype=torch.float32) #初始化b
#通过循环,反向传播,更新参数
for i in range(2000):
    # 通过模型计算y_predict
    y_predict=torch.matmul(x,w)+b #根据模型得到预测值
    #计算loss
    loss=(y_true-y_predict).pow(2).mean()
    #防止梯度累加,每次计算梯度前都将其置为0
    if w.grad is not None:
        w.grad.data.zero_()
    if b.grad is not None:
        b.grad.data.zero_()
    #通过反向传播,记录梯度
    loss.backward()
    #更新参数
    w.data=w.data-learning_rate*w.grad
    b.data=b.data-learning_rate*b.grad
    # 这里打印部分值看一看变化
    if i%50==0:
        print("w,b,loss:",w.item(),b.item(),loss.item())
#设置图像的大小
plt.figure(figsize=(20,8))
#将真实值用散点表示出来
plt.scatter(x.numpy().reshape(-1),y_true.numpy().reshape(-1))
#将预测值用直线表示出来
y_predict=torch.matmul(x,w)+b
plt.plot(x.numpy().reshape(-1),y_predict.detach().numpy().reshape(-1),c="r")
#显示图像
plt.show()

pytorch API完成线性回归

优化器类

优化器(optimizer),可以理解为torch为我们封装的用来进行更新参数的方法,比如常见的随机梯度下降(stochastic gradient descent,SGD)

优化器类都是由torch.optim提供的,例如

  • torch.optim.SGD(参数,学习率)

  • torch.optim.Adam(参数,学习率)

注意:

  • 参数可以使用model.parameters()来获取,获取模型中所有requires_grad=True的参数

  • 优化类的使用方法

①实例化

②所有参数的梯度,将其置为0

③反向传播计算梯度

④更新参数值

实现

import torch
from torch import nn
from torch import optim
from matplotlib import pyplot as plt
import numpy as np
# 1.定义数据,给出x
x=torch.rand(50,1)
# 假定模型为y=w*x+b,根据模型给出真实值y=x*3+0.8
y=x*3+0.8
# print(x)
#2.定义模型
class Lr(torch.nn.Module):
    def __init__(self):
        super(Lr, self).__init__()
        self.linear = torch.nn.Linear(1, 1)
    def forward(self, x):
        out = self.linear(x)
        return out
# 3.实例化模型、loss、优化器
model=Lr()
criterion=nn.MSELoss()
# print(list(model.parameters()))
optimizer=optim.SGD(model.parameters(),lr=1e-3)
# 4.训练模型
for i in range(30000):
    out=model(x) #获取预测值
    loss=criterion(y,out) #计算损失
    optimizer.zero_grad() #梯度归零
    loss.backward() #计算梯度
    optimizer.step() #更新梯度
    if (i+1)%100 ==0:
        print('Epoch[{}/{}],loss:{:.6f}'.format(i,30000,loss.data))
# 5.模型评估
model.eval() #设置模型为评估模式,即预测模式
predict=model(x)
predict=predict.data.numpy()
plt.scatter(x.data.numpy(),y.data.numpy(),c="r")
plt.plot(x.data.numpy(),predict)
plt.show()

感谢各位的阅读,以上就是“pytorch怎么实现梯度下降和反向传播”的内容了,经过本文的学习后,相信大家对pytorch怎么实现梯度下降和反向传播这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是捷杰建站,小编将为大家推送更多相关知识点的文章,欢迎关注!

原创声明
本站部分文章基于互联网的整理,我们会把真正“有用/优质”的文章整理提供给各位开发者。本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
本文链接:http://www.jiecseo.com/news/show_24770.html
pytorch