多个标签的文本分类

时间:2016-09-14 11:23:23

标签: python machine-learning tensorflow text-classification

我通过卷积神经网络进行文本分类。我为我的项目使用了健康文档(ICD-9-CM代码),并使用了与dennybritz相同的模型,但我的数据有36个标签。我使用one_hot编码来编码我的标签。

这是我的问题,当我运行每个文档都有一个标签的数据时,我的代码精确度从0.8到1是完美的。如果我运行的数据有多个标签,则精度会大大降低。

例如:文档的单个标签为"782.0"[0 0 1 0 ... 0]
文档的多个标签为"782.0 V13.09 593.5"[1 0 1 0 ... 1]

有人能说出为什么会发生这种情况以及如何改进吗?

1 个答案:

答案 0 :(得分:4)

标签编码似乎是正确的。如果您有多个正确的标签,[1 0 1 0 ... 1]看起来完全没问题。 Denny的post中使用的损失函数是tf.nn.softmax_cross_entropy_with_logits,这是多类问题的损失函数。

  

计算logits和标签之间的softmax交叉熵。

     

测量离散分类任务中的概率误差   哪些类互斥(每个条目只有一个类)。

在多标签问题中,您应该使用tf.nn.sigmoid_cross_entropy_with_logits

  

根据logits计算sigmoid交叉熵。

     

测量离散分类任务中的概率误差,其中每个类是独立的而不是互斥的。例如,可以执行多标签分类,其中图片可以同时包含大象和狗。

损失函数的输入将是logits(WX)和目标(标签)。

修复准确度度量

为了正确测量多标签问题的准确性,需要更改以下代码。

# Calculate Accuracy
with tf.name_scope("accuracy"):
    correct_predictions = tf.equal(self.predictions, tf.argmax(self.input_y, 1))
    self.accuracy = tf.reduce_mean(tf.cast(correct_predictions, "float"), name="accuracy")

如果您有多个正确的标签,则上面correct_predictions的逻辑不正确。例如,说num_classes=4,标签0和2是正确的。因此,你的input_y=[1, 0, 1, 0]. correct_predictions需要打破索引0和索引2之间的联系。我不确定tf.argmax如何打破平局,但如果通过选择较小的索引打破平局,标签2的预测总是被认为是错误的,这肯定会损害您的准确度。

实际上,在多标签问题中,precision and recall是比准确性更好的衡量标准。您还可以考虑使用precision @ k(tf.nn.in_top_k)来报告分类器性能。

相关问题