因为我有数学物理背景,所以清楚卷积的原理。但是在看pytorch文档的时候感到非常头大,罗列的公式以及各种令人眩晕的下标让入门新手不知所云...最初我以为torch.nn.conv1d的参数in_channel/out_channel表示图像的通道数,经过运行错误提示之后,才知道[in_channel,kernel_size]构成了卷积核。
loss函数中target/label的类型必须是dtype=torch.long 。
排查之后发现,cross_entropy输入的矩阵行数需要等于taget/label的个数,即行对行。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch踩坑记 - Python技术站