首页 > 编程知识 正文

超感知觉特性,感知理论

时间:2023-05-03 23:40:53 阅读:11073 作者:4299

另一方面,多层感知机(MLP )原理综述多层感知机(MLP )、Multilayer Perceptron )也称为人工神经网络(dpdhb、Artificial Neural Network ),除了输入输出层以外,中间有多个隐藏

从上图可以看出,多层探测器的层和层间是完全连接的。 完全连接意味着上层的任何神经元都与下层的所有神经元连接。 多层探测器的最下层是输入层,中间是隐藏层,最后是输出层。

输入层什么都没说。 输入什么? 例如,如果输入是n维向量,则有n个神经元。

怎么得到隐藏层的神经元? 首先,它与输入层完全连接。 如果用向量x表示输入层,则隐藏层的输出为

f(W1xb1),w1是权重(也称为连接系数),b1是偏移,函数f可以是常用的sigmoid函数或tanh函数:

最后是输出层。 输出层和非显示层是什么关系? 实际上,输出层的输出表示softmax(w2X1b2),x1表示隐藏层的输出w1xb1),因为可以将它视为从隐藏层到输出层的多种逻辑回归,即softmax回归。

整个MLP模型都是这样的。 用公式总结上述三层MLP,函数g为softmax

因此,MLP的所有参数都是包含W1、b1、W2、b2在内的各个层间的连接权重和偏移量。 针对具体问题,如何确定这些参数? 求解最优参数是优化问题,求解优化问题最简单的是梯度下降法(SGD )。 首先随机初始化所有参数,反复训练,计算坡度并持续更新参数,直到满足一定条件(例如误差足够小、反复次数足够多时)。 这个过程涉及成本函数、有序化、学习速度、梯度计算等,本文不详细讨论,读者可以参考本文顶部给出的两个链接。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。