如何处理在训练神经网络时结果不平衡的多标签分类?我遇到的解决方案之一是惩罚罕见标记类的错误.以下是我如何设计网络:
类数:100.输入层,第一隐藏层和第二层(100)与辍学和ReLU完全连接.第二个隐藏层的输出是py_x.
cost = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=py_x, labels=Y))
其中Y是一个热编码的修改版本,其值为1到5,为样本的所有标签设置.最常用标签的值为~1,最稀有标签的值为~5.该值不是离散的,即,在一次热编码中要设置的新值是基于公式的
= 1 + 4*(1-(percentage of label/100))
例如:<0,0,1,0,1,....>将转换为类似<0,0,1.034,0,3.667,...>的内容.注意:仅更改原始矢量中的值1.
这样,如果模型错误地预测罕见标签,则其错误将是高的,例如:0.0001-5 = -4.9999,与非常频繁的标签的错误标记相比,这将反向传播更重的错误.
这是惩罚的正确方法吗?有没有更好的方法来处理这个问题?