L'ajout de L1/L2 de régularisation dans PyTorch?

Est-il de toute façon, je peux ajouter simple L1/L2 de régularisation dans PyTorch? Nous pouvons probablement calculer la régularisation de la perte en ajoutant simplement le data_loss avec le reg_loss mais est-il une manière explicite, tout le soutien de PyTorch de la bibliothèque de le faire plus facilement, sans avoir à le faire manuellement?

OriginalL'auteur Wasi Ahmad | 2017-03-09