Advertisement

Deep Learning for Extreme Multi-label Text Classification阅读笔记

阅读量:

文章目录

  • 概述

  • 模型

    • Dynamic max pooling
    • 损失函数
    • Hidden Bottleneck layer
  • 实验

    • 参数设置
    • 实验结果

概述

Extreme multi-label指的是总的标签数量非常庞大, 达到成千上万甚至数百万级别.

模型

在这里插入图片描述

模型是基于text-cnn改进的.
创新点:

  • 动态最大池化技术
  • 优化了损失函数
  • 在pooling层与输出层之间新增了一个瓶颈层,并非但降低了模型的整体规模而且也提高了训练效率。

Dynamic max pooling

text convolutional neural network(TCNN)对每个特征图执行最大池化操作,在池化后仅提取出一个具有代表性的特征。
作者的观点是:这种池化操作在输入文本非常长时会导致大量的信息丢失,并且未能充分考虑词语的位置信息。

对此, 作者采用了Dynamic max pooling方法, 对于每一个feature map进行池化操作后会输出p个特征. 详细说明了操作流程

假设给定一个长度为m的词汇序列S = {s₁, s₂, ..., sₘ}。
将其划分为p个子序列S₁, S₂, ..., Sₚ。
对每个子序列分别应用最大值池化操作后进行拼接。

损失函数

损失函数使用binary cross-entropy, 而不是 softmax cross-entropy

在这里插入图片描述

Hidden Bottleneck layer

其实就是在pooling层和ouput层之间加了个全连接

实验

参数设置

  • 卷积核尺寸设置:{2,4,8}
  • 每组卷积核的数量(即输出通道数):在小数据集上设置为128个通道,在大数据集上则增加至32个通道
  • 应用Dropout正则化技术(概率设为0.5)
  • 瓶颈层的输出维度设定为512

实验结果

在这里插入图片描述

全部评论 (0)

还没有任何评论哟~