Comment convertir Pytorch autograd.Variable de Numpy?
Le titre dit tout. Je veux convertir un PyTorch autograd.Variable
à son équivalent numpy
tableau. Dans leur la documentation officielle ils ont prôné l'utilisation d' a.numpy()
d'obtenir l'équivalent numpy
array (pour PyTorch tensor
). Mais cela me donne l'erreur suivante:
Traceback (most recent call last): File "stdin", line 1, dans le module
Fichier
"/home/bishwajit/anaconda3/lib/python3.6/site-packages/torch/autograd/variable.py",
ligne 63, dans getattr élever AttributeError(nom) AttributeError:
numpy
Est il possible que je peux contourner cela?
OriginalL'auteur Bishwajit Purkaystha | 2017-06-03
Vous devez vous connecter pour publier un commentaire.
Deux cas possible
À l'aide de GPU: Si vous essayez de convertir un cuda float-tenseur directement à numpy comme indiqué ci-dessous,il lèvera une erreur.
Donc, vous ne pouvez pas convertir un cuda float-tenseur directement à numpy, la place, vous devez le convertir en un cpu float-tenseur d'abord, et de tenter de les convertir en numpy, comme illustré ci-dessous.
À l'aide du PROCESSEUR: de la Conversion d'un PROCESSEUR tenseur est simple.
J'ai pensé à mentionner, en particulier, comme beaucoup le font face à ce problème.Cheers !!
Comment cela se compare à
x.cpu().data.numpy()
etnp.asarray(torch_tensor)
? Ne pouvez pas trouver toute la documentation qui mentionne cetteOriginalL'auteur blitu12345
J'ai trouvé le moyen. En fait, je peux le premier extrait de l'
Tensor
données à partir de laautograd.Variable
en utilisanta.data
. Puis le reste de la partie est vraiment simple. Je viens de l'utilisera.data.numpy()
d'obtenir l'équivalentnumpy
tableau. Voici les étapes:OriginalL'auteur Bishwajit Purkaystha