model の param がちゃんと更新されなかった時

a = list(self.parameters())[0].clone()
loss.backward()
self.optimizer.step()
b = list(self.parameters())[0].clone()
torch.equal(a.data, b.data)

discuss.pytorch.org