À l'aide de CUDA avec pytorch?
J'ai cherché ici, mais j'ai trouvé seulement dépassée postes.
Je veux courir la formation sur mon GPU. J'ai trouvé sur certains forums que j'ai besoin d'appliquer .cuda()
sur ce que je veux utiliser CUDA avec (je l'ai appliqué à tout ce que je pouvais sans faire planter le programme)
Étonnamment, cela rend la formation plus encore.
Puis, j'ai trouvé que vous pouvez utiliser cette torch.set_default_tensor_type('torch.cuda.FloatTensor')
d'utiliser CUDA. Avec les deux, rien ne change. Ce qui se passe?
Est-il un moyen fiable pour permettre CUDA sur l'ensemble du modèle?
EDIT: Ceci est signalé comme un doublon. Il n'est pas. Le poste que j'était lié à ne pas répondre à toutes mes questions.
Aussi, ce qui ne MyModel()
veux dire? J'ai besoin de plus d'exemples tangibles, comme des exemples de code. (C'est le post, je me réfère à)
Vous devez vous connecter pour publier un commentaire.
Vous pouvez utiliser le
tenseur.pour(appareil)
de commande pour déplacer un tenseur à un périphérique.La
.à()
de commande est également utilisé pour déplacer un ensemble de modèle un dispositif, comme dans l'après-vous liés à.Une autre possibilité est de fixer l'appareil d'un tenseur cours de création à l'aide de la
device=
argument mot-clé, comme danst = torch.tensor(some_list, device=device)
Pour configurer l'appareil de façon dynamique dans votre code, vous pouvez utiliser
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
pour définir cuda sur votre appareil, si possible.Il existe plusieurs exemples de code sur PyTorch Tutoriels et dans la documentation ci-dessus qui pourraient vous aider.