首页 > 编程知识 正文

pytorch decay,pytorch中cuda的作用

时间:2023-05-05 01:52:27 阅读:283787 作者:1384

本文主要针对Pandas处理数据之后,采用Pytorch处理数据的做法。

Pandas转torch train=torch.tensor(train.values)#将pandas转torchtrain=train.to(torch.float32)#将torch中的类型转化为float,因为有时pandas中格式不统一 构造多层神经网络 import torchimport torch.nn.functional as Fclass Net(torch.nn.Module): def __init__(self,n_features,n_hidden_1,n_hidden_2,n_output): #构造函数 #构造函数里面的三个参数分别为,输入,中间隐藏层处理,以及输出层 super(Net,self).__init__() #官方步骤 self.l1=torch.nn.Linear(n_features, n_hidden_1) self.l2=torch.nn.Linear(n_hidden_1,n_hidden_2) self.l3=torch.nn.Linear(n_hidden_2,n_output) def forward(self,x): #搭建的第一个前层反馈神经网络 向前传递 x = F.relu(self.l1(x))# 激活函数,直接调用torch.nn.functional中集成好的Relu x=F.relu(self.l2(x)) x = self.l3(x) #此行可预测也可以不预测 return xnet = Net(n_features,70,70,1)optimizer = torch.optim.SGD(net.parameters(),lr=0.01)loss_func = torch.nn.MSELoss() #使用均方差处理回归问题for t in range(1500): prediction =net(train_data) loss = loss_func(prediction,train_target) #//预测值一定要在前面,真实值要在后面 optimizer.zero_grad() #将所有参数的梯度全部降为0,梯度值保留在这个里面 loss.backward() #反向传递过程 optimizer.step() #优化梯度

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。