首页 > 编程知识 正文

cnn卷积神经网络代码,卷积神经网络概述

时间:2023-05-05 20:49:36 阅读:160804 作者:1045

CNN卷积神经网络1 .关于卷积神经网络2 .卷积神经网络示例(手写字符识别) 2.1代码示例2.2执行过程和结果2.3测试结果3 .参考与感谢

1 .关于卷积神经网络

3358www.Sina.com/是一种具有卷积神经网络(Convolutional Neural Network,CNN)等特征的深层前馈神经网络。

首先,让我们直观地了解一下对卷积神经网络的感性认识:

首先,我们对输入的图像进行卷积,然后加入Relu激活函数,再进行卷积,再加入Relu激活函数,然后对处理结果进行聚合(这里也称为Pool,池化),然后进行前一步骤此时概率最高的是我们需要的判别结果。

让我们考虑一下训练这只小猫图像的例子。 如果输入图像为100* 100 *3(即图像长100,宽100,三个颜色通道: RGB ),如果我们的输入图像为灰色,则其颜色通道数为1,我们也称为图像高度。

滤波器不断在图像中收集小批量像素块,收集所有信息后,输出的值高于前一个高度,是一幅长度和宽度都很小的图像,该图像包含了一些边缘信息。

然后,使用相同的步骤多次进行卷积,再次压缩图像的长宽,再次增加高度,可以获得对输入图像的更深的理解。

然后,将压缩、升高的信息嵌入普通的分类神经层中,就可以对该图像进行分类。

2 .卷积神经网络的实例(手写字符识别)以下,作为手写字符识别的一个例子,我们来入门CNN吧。 MNIST数据集来自美国国家标准技术研究所。 训练集(training set )由250个不同的人手写的数字组成,其中50个是高中学生,50个来自人口普查局)的工作人员。 测试集(test set )也是相同比例的手写数字数据。 其照片格式如下。

2.1代码示例# @ time :2020/6/613:23 # @ author : king back # @ file : CNN _ test.py # @ software 3360 pycharmimporttorchimporttorch.nnasnnfromtorch.autogradimportvariableimporttorch.utils.dataasdatatataimportimporttorttttorch hyperprametersepoch=1batch _ size=50lr=0.001 download _ Mn ist=false train _ data=torch vision transform=torch vision 将下载的文件转换为pytorch识别的tensor类型,并将图像的数值大小从(0-255 )归一化为(0-1) download=DOWNLOAD_MNIST。 ) print(train_data.data.size ) (print )来绘制和显示PLT.im show (train _ data.data [0].numpy ), cmap='gray ' ) #PLT.title ) (“%I'%train_data.targets ) ) ) ) ) 65 batch_size=BATCH_SIZE,size train ) with torch.no _ grad (: test _ x=variable ) torch.unsqueeze(test_data.data, dim=1) ).torch test _ y=test _ data.targets [ :2000 ] ' ' CNN网络' ' classCNN(nn.module ) 3360 def, 1 .卷积层2 .神经网络3 .池化层' ' self.con v1=nn.sequential (nn.conv 2d (#-(1,28,28 ) in_channels=1)

kernel_size=5, #代表扫描的区域点为5*5 stride=1, #就是每隔多少步跳一下 padding=2, #边框补全,其计算公式=(kernel_size-1)/2=(5-1)/2=2 ), # 2d代表二维卷积 --> (16,28,28) nn.ReLU(), #非线性激活层 nn.MaxPool2d(kernel_size=2), #设定这里的扫描区域为2*2,且取出该2*2中的最大值 --> (16,14,14) ) self.conv2=nn.Sequential( nn.Conv2d( # --> (16,14,14) in_channels=16, #这里的输入是上层的输出为jmdsg out_channels=32, #在这里我们需要将其输出为32层 kernel_size=5, #代表扫描的区域点为5*5 stride=1, #就是每隔多少步跳一下 padding=2, #边框补全,其计算公式=(kernel_size-1)/2=(5-1)/2= ), # --> (32,14,14) nn.ReLU(), nn.MaxPool2d(kernel_size=2), #设定这里的扫描区域为2*2,且取出该2*2中的最大值 --> (32,7,7),这里是三维数据 ) self.out=nn.Linear(32*7*7,10) #注意一下这里的数据是二维的数据 def forward(self,x): x=self.conv1(x) x=self.conv2(x) #(batch,32,7,7) #然后接下来进行一下扩展展平的操作,将三维数据转为二维的数据 x=x.view(x.size(0),-1) #(batch ,32 * 7 * 7) output=self.out(x) return output cnn=CNN()# print(cnn)# 添加优化方法optimizer=torch.optim.Adam(cnn.parameters(),lr=LR)# 指定损失函数使用交叉信息熵loss_fn=nn.CrossEntropyLoss()'''开始训练我们的模型哦'''step=0for epoch in range(EPOCH): #加载训练数据 for step,data in enumerate(train_loader): x,y=data #分别得到训练数据的x和y的取值 b_x=Variable(x) b_y=Variable(y) output=cnn(b_x) #调用模型预测 loss=loss_fn(output,b_y)#计算损失值 optimizer.zero_grad() #每一次循环之前,将梯度清零 loss.backward() #反向传播 optimizer.step() #梯度下降 #每执行50次,输出一下当前epoch、loss、accuracy if (step%50==0): #计算一下模型预测正确率 test_output=cnn(test_x) y_pred=torch.max(test_output,1)[1].data.squeeze() accuracy=sum(y_pred==test_y).item()/test_y.size(0) print('now epoch : ', epoch, ' | loss : %.4f ' % loss.item(), ' | accuracy : ' , accuracy)'''打印十个测试集的结果'''test_output=cnn(test_x[:10])y_pred=torch.max(test_output,1)[1].data.squeeze() #选取最大可能的数值所在的位置print(y_pred.tolist(),'predecton Result')print(test_y[:10].tolist(),'Real Result') 2.2 运行过程及结果

2.3 测试结果

模型训练完毕之后,我又随机取了十个图片带入模型,然后将其结果与正确的结果比对,有如下结果:

整个的模型还是比较准确的。

3.参考与致谢

PyTorch 动态神经网络 (莫烦 Python 教学)

卷积神经网络(CNN)详解 一个简单的卷积神经网络构建流程

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。