在pytorch中计算KLDiv loss时,注意reduction='batchmean',不然loss不仅会在batch维度上取平均,还会在概率分布的维度上取平均。
参考:KL散度-相对熵
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch, KL散度,reduction=’batchmean’ - Python技术站
在pytorch中计算KLDiv loss时,注意reduction='batchmean',不然loss不仅会在batch维度上取平均,还会在概率分布的维度上取平均。
参考:KL散度-相对熵
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch, KL散度,reduction=’batchmean’ - Python技术站