Pourquoi avons-nous besoin d'appeler zero_grad() dans PyTorch?

La méthode zero_grad() doit être appelé au cours de la formation. Mais le la documentation n'est pas très utile

|  zero_grad(self)
|      Sets gradients of all model parameters to zero.

Pourquoi devons-nous appeler cette méthode?

InformationsquelleAutor user1424739 | 2017-12-28