码迷,mamicode.com
首页 > 其他好文 > 详细

用PyTorch实现线性回归介绍

时间:2021-03-04 13:04:13      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:网络   维度   ram   次数   线性回归   parameter   介绍   ORC   arm   

  #引入torch

  import torch

  #准备数据,用Tensor张量表示

  x_data = torch.Tensor([[1.0],[2.0],[3.0]])

  y_data = torch.Tensor([[2.0],[4.0],[6.0]])

  #将线性模型定义为一个类,nn的意思是神经网络neural network.所有的模型都要从nn.Module模块继承下来。

  class LinearModel(torch.nn.Module):

  #__init__为构造函数,初始化你的对象的时候,默认调用的函数。self是指对象自己,

  def __init__(self):

  #super调用父类初始化器,当多继承时,避免公共基类的重复调用

  super(LinearModel,self).__init__()

  #实例化,构造一个线性函数(包含权重w和偏置b)。括号里面代表输入的维度,和输出的维度。

  self.linear = torch.nn.Linear(1,1)

  #定义前馈过程中要进行的计算

  def forward(self,x):

  #可调用的对象,做的是wx+b的形式

  y_pred = self.linear(x)

  #返回y

  return y_pred

  #实例化模型,可调用。

  model = LinearModel()

  #构造均方差损失,设置降维求和

  criterion = torch.nn.MSELoss(reduction=‘sum‘)

  #用优化模块中的SGD优化模型中所有的参数,学习率为0.01

  optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

  #循环100次枣庄做人流多少钱 http://mobile.0632dffk.com/

  for epoch in range(100):

  #计算y的预测值

  y_pred = model(x_data)

  #计算损失

  loss = criterion(y_pred,y_data)

  #输出循环次数和损失

  print(epoch,loss)

  #用优化器将梯度归零

  optimizer.zero_grad()

  #反向传播

  loss.backward()

  #step更新权重

  optimizer.step()

  #输出权重w,item是转换为标量,只显示数值

  print(‘w = ‘,model.linear.weight.item())

  #输出偏置b,item是转换为标量,只显示数值

  print(‘b = ‘,model.linear.bias.item())

  #设测试x的值为4,是1×1的矩阵

  x_test = torch.Tensor([[4]])

  #将x=4代入模型中,求y

  y_test = model(x_test)

  #输出y。y是1×1的矩阵后面要跟data,输出y的数值

  print(‘y_pred = ‘,y_test.data)

用PyTorch实现线性回归介绍

标签:网络   维度   ram   次数   线性回归   parameter   介绍   ORC   arm   

原文地址:https://www.cnblogs.com/gnz49/p/14475012.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!