适用场景:一个输入对应多个label,或输入类别间不互斥
调用函数:
1. Pytorch使用torch.nn.BCEloss
2. Tensorflow使用tf.losses.sigmoid_cross_entropy
3. Caffe使用SigmoidCrossEntropyLoss
在output和target之间构建binary cross entropy,其中i为每一个类。
以pytorch为例:Caffe,TensorFlow版本类比,输入均为相同形式的向量
m = nn.Sigmoid() loss = nn.BCELoss() input = autograd.Variable(torch.randn(3), requires_grad=True) target = autograd.Variable(torch.FloatTensor(3).random_(2)) output = loss(m(input), target) output.backward()
注意target的形式,要写成01编码形式,eg:如果同时为第一类和第三类则,[1, 0, 1]
主要是结合sigmoid来使用,经过classifier分类过后的输出为(batch_size,num_class)为每个数据的标签, 标签不是one-hot的主要体现在sigmoid输出之后,仍然为(batch_size,num_class),对于一个实例,它的各个label的分数加起来不一定等于1,bceloss在每个类维度上求cross entropy loss然后加和求平均得到,这里就体现了多标签的思想。
[CVPR2015] Is object localization for free? – Weakly-supervised learning with convolutional neural networks这篇论文里设计了针对多标签问题的loss,传统的类别分类不适用,作者把这个任务视为多个二分类问题,loss function和分类的分数如下:
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:Multi label 多标签分类问题(Pytorch,TensorFlow,Caffe) - Python技术站