首页 > 编程知识 正文

预训练模型和自己训练的模型区别,什么叫模型训练

时间:2023-05-03 13:29:34 阅读:13896 作者:3666

一 模型里的内容和意义标准模型结构分为三大部分:输入、中间节点和输出,但如何将这三部分合并起来学习和计算规则由TensorFlow框架完成TensorFlow将中间节点和节点之间的运算关系(OPS )定义为自己中的一个“图”,全部通过一个“会话”session )进行图中的OPS的具体运算。 可以这样理解。 “图”是静态的,无论做什么加、减、乘、除,它们都只是把关系联系在一起,没有任何计算。 “会话”是动态的,只有在会话启动后,数据才会流向图中,并根据图中的关系进行计算。 让最终结果从图中流出。 TensorFlow这样分离了计算的定义和执行。 “图”类似施工图(blueprint ),对话类似施工地点。 要创建完整的图,一般需要定义三种类型的变量。 输入节点:网络的入口。 用于训练的模型参数(也称为学习参数)是连接每个节点的路径。 模型中的节点(OP ) :最复杂的是OP。 OP可用于表示模型中的中间节点或最终输出节点,是网络中的真实结构。 下图是将这3种变量放入图中构成的网络静态模型。 在实际训练中,希望的“模型”是通过动态对话按照静态规则运算图中的各节点,每次迭代更新调整图中的学习参数,经过一定次数的迭代运算最终形成的图。 在会话中,任何节点都由会话的run函数计算,以获得该节点的真实数字。二 模型内部数据流向1正向:数据从输入开始按顺序进行各节点定义的运算,运算到输出为止,是模型最基本的数据流。 直观地表示网络模型的结构,用于模型的训练、测试和使用场景中。 这个部分必须掌握。 反向:仅在训练场景中使用。 在这里,我们使用了一种叫做逆链接求导的方法,从顺方向的最后一个节点开始,计算当时的结果值和真值之间的误差。 这样,就可以用学习参数生成表示误差的方程式,接着在导出方程式中的各参数求出梯度修正值的同时,反推上层误差,将该层节点的误差沿顺方向的反方向传递到上层, 接下来我们要重复计算上一层的修正值,因为这部分的原理TensorFlow已经实现了,简单理解就可以了,用哪个方法计算误差,用哪个梯度下降的优化方法,如何调节梯度下降中的参数,比如学习率

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。