CNN的本质
三点:稀疏相互作用,参数共享,平移不变性,详见链接textCNN的卷积核长度
常用的卷积核有三种。 三,四,五。 宽度是我们向量的宽度。 (具体细节,再看一遍,300 ) cnn与全局向量Glove的结合思考
Cnn的核心是抓住文中的局部信息,不是被认为与全局向量GLOVE互补吗? 为什么CNN比RNN更容易并行计算
浏览链接
参考链接的具体流程:
(1)扩展维度和卷积)这里包含在最后一个维度中。 也就是说shape=?135,128,1 ),filter _ shape : [ 3,128,1,128 ],结果是,shape=?133、1、128 )
注意:一般是第2维,也就是shape=?1、135、128 )
)2) Relu函数激活,结果shape=?133、1、128;
)3)最大池化。
注意:卷积填充操作采用valid方式,其输出维度为sequence_length - filter_size 1。 现在,一个句子就是一个向量。
)4)最后三个输出向量concat为shape[None,1,1,384 ]; flat后的输出为[None,384]。
)5) Dropout后,投影输出。
(6)损耗函数) softmax_cross_entropy ) _with_Logits )。 文本CNN参考文章
链路1初始化训练参数的一些常见用法:
链接1