结论
nn.CrossEntropyLoss (y_pred, y_label)的顺序不要搞错
y_pred的形状(N,分类数),一般为(batch,分类数)
,如全连接网络输出MINIST手写数字中的(64,10)
y_label在pytorch中允许两种形式的输入:
-
输入索引,形状为(batch)
,如MINIST手写数字中的(64)。CrossEntropyLoss会自动处理为one-hot编码进行计算,标签索引须为int类型,即LongTensor
-
输入标签的one-hot编码,形状为(batch,分类数)
,如MINIST手写数字中的(64,10)
损失函数输入及输出的Tensor形状
import torch
from torch import nn, optim
loss_func = nn.CrossEntropyLoss()
pre_data = torch.tensor([[0.8, 0.5, 0.2, 0.5],
[0.2, 0.9, 0.3, 0.2],
[0.4, 0.3, 0.7, 0.1],
[0.1, 0.2, 0.4, 0.8]], dtype=torch.