Dice Loss for Data-imbalanced NLP Tasks (Dice Loss,替代cross entropy(CE)处理数据不平衡问题)

https://github.com/ShannonAI/dice_loss_for_NLP

通过定义Dice Loss,替代cross entropy(CE)处理数据不平衡问题。

问题
在样本不平衡的情况中,主要有以下两种难以克服的难点
    the training-test discrepancy: 如果不能很好的平衡样本标签,那么模型学习过程通常会朝着有更多标签的类别收敛。
    the overwhelming effect of easy-negative examples: 如果容易判别的负样本太多,那么模型很难学习到真正区分正样本与负样本的边界,很难捕捉到特征。

方法

交叉熵

 权重交叉熵

 

 损失函数

实验

Part-of-Speech Tagging
Named Entity Recognition
Machine Reading Comprehension
Paraphrase Identification
 

不均衡数据集

 实验结果

实验结果太多了,请大家参照原文吧

https://arxiv.org/abs/1911.02855

https://arxiv.org/pdf/1911.02855.pdf

Reference

https://zhuanlan.zhihu.com/p/106802620

猜你喜欢

转载自blog.csdn.net/weixin_48185819/article/details/124496109