内容目录
合集请看:pyTorch入门合集
参考视频:https://www.bilibili.com/video/BV1hE411t7RN/?spm_id_from=333.337.search-card.all.click
损失函数的用处
1、计算实际输出和目标之间的差距
2、为我们更新输出提供一定的依据(反向传播)
[[003深度学习入门——神经网络的学习]]
[[004深度学习入门——误差反向传播法]]
计算实际输出和目标之间的差距
单独代码
import torch
from torch.nn import L1Loss
inputs = torch.tensor([1,2,3], dtype=torch.float32)
targets = torch.tensor([1,2,5], dtype=torch.float32)
inputs = torch.reshape(inputs,(1,1,1,3))
targets = torch.reshape(targets,(1,1,1,3))
loss = L1Loss()
result = loss(inputs,targets)
print(result)
可以看到,其实还是很简单的,pytorch也提供了除L1Loss以外的很多种损失函数
代码
for data in dataloader:
imgs, targets = data
outputs = pan(imgs)
result_loss = loss(outputs, targets)
print(result_loss)
反向传播
通过 result_loss.backward()
计算梯度(grad)来进行反向传播与优化