首页 > 编程知识 正文

文本分类模型,自然语言分类算法

时间:2023-05-06 10:22:16 阅读:128298 作者:3722

CNN的本质

三点:稀疏相互作用,参数共享,平移不变性,详见链接textCNN的卷积核长度

常用的卷积核有三种。 三,四,五。 宽度是我们向量的宽度。 (具体细节,再看一遍,300 ) cnn与全局向量Glove的结合思考

Cnn的核心是抓住文中的局部信息,不是被认为与全局向量GLOVE互补吗? 为什么CNN比RNN更容易并行计算

浏览链接

参考链接的具体流程:

(1)扩展维度和卷积)这里包含在最后一个维度中。 也就是说shape=?135,128,1 ),filter _ shape : [ 3,128,1,128 ],结果是,shape=?133、1、128 )

注意:一般是第2维,也就是shape=?1、135、128 )

)2) Relu函数激活,结果shape=?133、1、128;

)3)最大池化。

注意:卷积填充操作采用valid方式,其输出维度为sequence_length - filter_size 1。 现在,一个句子就是一个向量。

)4)最后三个输出向量concat为shape[None,1,1,384 ]; flat后的输出为[None,384]。

)5) Dropout后,投影输出。

(6)损耗函数) softmax_cross_entropy ) _with_Logits )。 文本CNN参考文章

链路1初始化训练参数的一些常见用法:

链接1

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。