300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 文本分类模型_文本分类中的经典深度学习模型

文本分类模型_文本分类中的经典深度学习模型

时间:2023-04-23 11:13:43

相关推荐

文本分类模型_文本分类中的经典深度学习模型

众所周知,文本分类是NLP领域中十分基础的任务,大部分文本分类模型稍加修改就可以应用到其他任务中。下面介绍几个经典的文本分类模型。

图中被引数来源google学术(/5/16)

1. textCNN

作为一个经典的神经网络模型,CNN具有极强的特征提取能力,而且运行速度比RNNs要快的多。当CNN在计算机视觉领域取得巨大成功之后,人们自然想到如何将CNN应用到自然语言处理任务中。然而,其关键问题便是如何选择卷积核的尺寸、如何解释卷积核在NLP任务中的意义。

textCNN[1]采用的卷积核大小为 ,其中 是词向量的维度, 作为超参数由人工选择。作者认为这样可以捕捉句子中的n-grams,即如果选择的卷积核分别为 、 、 就表示捕捉了句子中的1-gram、2-gram、3-gram。接着通过一个max-pooling层,捕捉其中最重要的特征,同时还可以解决句子长度不一的问题。

textCNN的结构

作为一个提出的模型,textCNN简单有效,十分强大。

2. DCNN

DCNN[2](Dynamic Convolutional Neural Network)和textCNN有些相似,但是从另一个角度来考虑卷积这件事的。

作者认为在建模句子时,词的顺序是非常重要的,循环神经网络(Recurrent neural networks)可以利用词语间的顺序,但是生成的向量会偏向于句子中的最后一个词,所以它适合用在语言模型中,不适合文本分类任务。而递归神经网络[3](Recursive neural networks)通过句法解析树将句子合成一个向量,可以较好的利用词语间的顺序,但它依赖于句法解析树,不容易推广。

RNTN的结构

于是,作者提出可以使用卷积+k-max-pooling动态建模句子的句法结构。其中k-max-pooling指的是进行pooling时选择前k个最大的值。如下图所示,蓝色的线就是k-max-pooling所选择的句法结构。

通过DCNN捕捉句法结构

在DCNN中,卷积核的高度并没有设置为词向量的维度,而是为1。此外,DCNN中D体现在对k-max-pooling中k的动态选择上。在DCNN可以看出k表示了每一层节点的个数,所以k随着层数的增加而会逐渐减少,如下图由5到3。文章给出了k的计算方式,感兴趣的同学去看文章吧。

DCNN的网络结构

3. RCNN

与DCNN中相似,作者认为递归神经网络(Recursive neural networks)和循环神经网络(Recurrent neural networks)虽然利用词之间的顺序,但都存在一些问题。与之对比,CNN不依赖于句法解析树,也没有偏向的问题(bias problem)。但CNN中的问题在于难以决定卷积核的宽度:较小的卷积窗口会造成关键信息的损失,而较大的卷积窗口会使得参数空间过大。

于是,作者提出了RCNN[4](Recurrent Convolutional Neural Network),抛弃了CNN中的卷积核结构,而使用RNN来捕捉单词的上下文。只看上面一句话,你肯定和我当时一样云里雾里了。我们来看下面的图!

RCNN的结构

在上图中,一个单词 经过双向RNN得到 ,它们分别保存了单词 的上下文,接着将 与 对应的词向量拼接在一起得到 ,即

经过一个全连接网络得到 。这便是RCNN的卷积层,之后max-pooling层则和普通的CNN一样。

从下图中,我们可以看到CNN的性能随着卷积核窗口的大小先增加后下降,并且RCNN的性能优于CNN。由于textCNN是同时取多个卷积窗口,所以根据本文无法判断RCNN和textCNN性能谁好谁坏,但是RCNN为我们设计网络结构提供一个非常好的思路。

RCNN和CNN的性能对比

文章还列举出了由RCNN获得的关键词。文章将在max-pooling层被选择次数最多的词视为关键词。

情感分类中通过RCNN获得的类别关键词

4. HAN

前面的模型都是面向句子的,而现实中的许多分类任务是面向文档的。于是,有学者在提出了HAN[5](Hierarchical Attention Networks),从名字我们就可以看出此模型的两个关键点分别是层次结构和Attention。

HAN的网络结构分两部分,首先通过attention机制将一句话合成为一个向量 ,然后再次通过attention机制将一个文档中的所有句子合成为一个向量 ,再接一个全连接层输出预测结果。

han的网络结构

合词成句的时候,(1) 首先使用一个双层的GRU获得第 个句子第 个单词的隐含表示 ;(2) 接下来, 首先经过全连接层生成 ,然后计算 与向量 的相似度 ,通过相似度 和 得到句子的加权表示。其中,是网络中可学习的参数,用以衡量单词对分类任务的重要程度,可以理解为判断单词是否为停用词的一个向量。

合句成文与合词成句类似,对应的向量 用来衡量句子的相似度程度。

这种层次结构使得HAN在文档分类中的性能得到大幅提升。此外,文章展示了单词在合词成句时的权重分布,从下图(b)-(f)中可以看出,随着情感倾向由负变为正,good的平均权重逐渐增加。

情感分类任务中good的attention权重分布

由于HAN使用了RNN,它的时间和空间开销均大大超过textCNN。后续有文章[6]保持HAN中的层次结构,但是去掉了其中的RNN结构以优化时间开销,但引起的关注不大。

参考

[1]Kim Y. Convolutional neural networks for sentence classification[J]. arXiv preprint arXiv:1408.5882, .

[2]Kalchbrenner N, Grefenstette E, Blunsom P. A convolutional neural network for modelling sentences[J]. arXiv preprint arXiv:1404.2188, .

[3]Socher R, Perelygin A, Wu J, et al. Recursive deep models for semantic compositionality over a sentiment treebank[C]//Proceedings of the conference on empirical methods in natural language processing. : 1631-1642.

[4]Lai S, Xu L, Liu K, et al. Recurrent convolutional neural networks for text classification[C]//Twenty-ninth AAAI conference on artificial intelligence. .

[5]Yang Z, Yang D, Dyer C, et al. Hierarchical attention networks for document classification[C]//Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. : 1480-1489.

[6]Gao S, Ramanathan A, Tourassi G. Hierarchical convolutional attention networks for text classification[R]. Oak Ridge National Lab.(ORNL), Oak Ridge, TN (United States), .

@张义策

版权声明

本文版权归《张义策》,转载请自行联系。

历史文章推荐:

学习率和batchsize如何影响模型的性能?

深度相机室内实时稠密三维重建简介

SFFAI分享 | 马聪:NLP中的生成式预训练模型【附PPT与视频资料】

一幅图真正理解LSTM的物理结构

再谈人脸识别损失函数综述

初学者|今天掌握SnowNLP好不好

【AI产品】深扒美图秀秀中掳获万千少女芳心的“AI秘籍”

旷视研究院新出8000点人脸关键点,堪比电影级表情捕捉

PointNet系列论文解读

你正在看吗??

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。