首页 > 编程知识 正文

卷积神经网络概述,神经网络算法基本介绍

时间:2023-05-05 16:12:31 阅读:149607 作者:4430

1 .解决什么问题? 主要解决以下两类分类问题。

第一,分类数少,每个种类的数据量多。 例如ImageNet、VOC等。 这样的分类问题,只要事先知道所有的类,就可以用神经网络和SVM来解决。 二是分类数量大(或无法确认具体数量),每类数据量少,如人脸识别、人脸验证任务等。 2 .文章的创新点解决了以上两个问题,本文提出了以下解决方法。

提出了将输入映射到一个特征向量,使用这两个向量之间的“距离”(L1 Norm )来表示输入之间的差异(图像的意义上的差异)的想法。

根据上述思路设计了一款能干的裙子Network。 必须一次输入两个样本作为一个样本对来计算损失函数。

1 )使用的softmax只需输入一个示例。

2 )必须为FaceNet的三重丢失输入三个示例。

为了训练提出了Contrastive Loss。

3 .网络结构

功能强大的裙子Network有两个结构相同且共享权重的子网。 分别接收两个输入X1X1和X2X2,将其转换成矢量GW(x1 )和GW(x1 ),通过某种距离测量方法计算两个输出矢量的距离Ew。

4. Contrastive Loss损失函数在双子神经网络(mmdhb network )中采用能有效处理双子神经网络中paired data关系的损失函数。 contrastive loss的表达式如下:

其中

表示两个样本特征X 1 X_1 X1和X 2 X_2 X2的规则的大神距离(二范数) p表示每个样本的特征维数,y表示两个样本是否匹配的标签,Y=1表示两个样本是否相似或匹配

上述contrastive loss公式表明,这种损耗函数能较好地反映目标样本的匹配程度,也可以很好地用于特征提取模型的训练。

如果Y=1,也就是说如果样本相似,则会保留损失函数

也就是说,在样本不相似的情况下,其特征空间的欧式距离反而越小损失值就越大,这也正好象征着我们的要求。 如果Y=0,即样本不相似,则损失函数为

也就是说,在样本不相似的情况下,其特征空间的欧式距离反而越小损失值就越大,这也正好象征着我们的要求。 [请注意,您在此处设置了阈值margin。 这意味着如果只考虑不相似的特征,欧式距离在0到margin之间,则如果距离超过margin,则将该loss视为0。 (也就是说,不相似的特征离得很远,其loss应该很低。 如果相似的特征相反相距很远,则需要增加loss来更新对样本的拟合度。)

5 .最后

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。