Tensorflow: Cuda de calcul de la capacité 3.0. Le minimum requis Cuda capacité est de 3.5
Je suis de l'installation de tensorflow à partir de la source (documentation).
Cuda driver version:
nvcc: NVIDIA (R) Cuda compiler driver
Cuda compilation tools, release 7.5, V7.5.17
Lorsque j'ai exécuté la commande suivante :
bazel-bin/tensorflow/cc/tutorials_example_trainer --use_gpu
il m'a donné le message d'erreur suivant :
I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcurand.so locally
I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:925] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/core/common_runtime/gpu/gpu_init.cc:118] Found device 0 with properties:
name: GeForce GT 640
major: 3 minor: 0 memoryClockRate (GHz) 0.9015
pciBusID 0000:05:00.0
Total memory: 2.00GiB
Free memory: 1.98GiB
I tensorflow/core/common_runtime/gpu/gpu_init.cc:138] DMA: 0
I tensorflow/core/common_runtime/gpu/gpu_init.cc:148] 0: Y
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
I tensorflow/core/common_runtime/gpu/gpu_device.cc:843] Ignoring gpu device (device: 0, name: GeForce GT 640, pci bus id: 0000:05:00.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.
F tensorflow/cc/tutorials/example_trainer.cc:128] Check failed: ::tensorflow::Status::OK() == (session->Run({{"x", x}}, {"y:0", "y_normalized:0"}, {}, &outputs)) (OK vs. Invalid argument: Cannot assign a device to node 'Cast': Could not satisfy explicit device specification '/gpu:0' because no devices matching that specification are registered in this process; available devices: /job:localhost/replica:0/task:0/cpu:0
[[Node: Cast = Cast[DstT=DT_FLOAT, SrcT=DT_INT32, _device="/gpu:0"](Const)]])
F tensorflow/cc/tutorials/example_trainer.cc:128] Check failed: ::tensorflow::Status::OK() == (session->Run({{"x", x}}, {"y:0", "y_normalized:0"}, {}, &outputs)) (OK vs. Invalid argument: Cannot assign a device to node 'Cast': Could not satisfy explicit device specification '/gpu:0' because no devices matching that specification are registered in this process; available devices: /job:localhost/replica:0/task:0/cpu:0
[[Node: Cast = Cast[DstT=DT_FLOAT, SrcT=DT_INT32, _device="/gpu:0"](Const)]])
F tensorflow/cc/tutorials/example_trainer.cc:128] Check failed: ::tensorflow::Status::OK() == (session->Run({{"x", x}}, {"y:0", "y_normalized:0"}, {}, &outputs)) (OK vs. Invalid argument: Cannot assign a device to node 'Cast': Could not satisfy explicit device specification '/gpu:0' because no devices matching that specification are registered in this process; available devices: /job:localhost/replica:0/task:0/cpu:0
[[Node: Cast = Cast[DstT=DT_FLOAT, SrcT=DT_INT32, _device="/gpu:0"](Const)]])
F tensorflow/cc/tutorials/example_trainer.cc:128] Check failed: ::tensorflow::Status::OK() == (session->Run({{"x", x}}, {"y:0", "y_normalized:0"}, {}, &outputs)) (OK vs. Invalid argument: Cannot assign a device to node 'Cast': Could not satisfy explicit device specification '/gpu:0' because no devices matching that specification are registered in this process; available devices: /job:localhost/replica:0/task:0/cpu:0
[[Node: Cast = Cast[DstT=DT_FLOAT, SrcT=DT_INT32, _device="/gpu:0"](Const)]])
Aborted (core dumped)
Ai-je besoin d'un autre gpu pour exécuter cette?
- Vous devez spécifier le calcul de la capacité 3.0 support lors de la configuration de Tensorflow. Voir: tensorflow.org/versions/r0.10/get_started/os_setup.html et github.com/tensorflow/tensorflow/issues/25
- Je l'ai configuré à l'aide de
TF_UNOFFICIAL_SETTING=1 ./configure
et puis aprèsbazel build -c opt --config=cuda //tensorflow/cc:tutorials_example_trainer
j'ai courubazel-bin/tensorflow/cc/tutorials_example_trainer --use_gpu
. Il me donne toujours la même erreur - Avez-vous une demande explicite de calcul de la capacité 3.0 support lors de l'exécution ./configurer?
- Il fonctionne parfaitement maintenant. Merci une tonne!
Vous devez vous connecter pour publier un commentaire.
J'ai installé Tensorflow révision 1.8. Il recommande CUDA 9.0. Je suis l'aide d'une GTX 650M de la carte qui a CUDA de calcul de la capacité 3.0 et travaille maintenant comme un charme. OS est ubuntu 18.04. Ci-dessous sont les étapes détaillées:
L'installation de dépendances
J'ai inclus ffmpeg et certains paquets pour mon opencv 3.4 compilation, si ce n'est requis de ne pas installer
Exécutez les commandes ci-dessous:
L'installation du pilote nvidia
Exécuter les commandes ci-dessous:
Redémarrer et exécutez la commande ci-dessous et il devrait vous donner plus de détails comme décrit dans l'image ci-dessous:
gcc-6 et g++-6 contrôles.
gcc-6 et g++-6 est nécessaire pour CUDA 9.0, exécutez les commandes ci-dessous:
Installer CUDA 9.0
Aller à https://developer.nvidia.com/cuda-90-download-archive. Sélectionnez options: Linux->x86_64->Ubuntu->17.04->deb(local).
Télécharger le fichier principal et les deux patchs.
Exécuter les commandes ci-dessous:
Accéder à la première patch sur votre ordinateur et double-cliquez dessus, il va automatiquement exécuter, suivre la même pour le second patch.
Ci-dessous pour ajouter des lignes à votre ~/.bashrc fichier et donnez-lui un redémarrage:
Installation cudnn 7.1.4 pour CUDA 9.0
Télécharger le fichier tar de https://developer.nvidia.com/cudnn et l'extraire dans votre dossier Téléchargements
Téléchargement nécessite une nvidia a développé de connexion, gratuit inscrivez-vous
Exécutez les commandes ci-dessous:
Installation NCCL 2.2.12 pour CUDA 9.0
Télécharger le fichier tar de https://developer.nvidia.com/nccl et l'extraire dans votre dossier Téléchargements
Téléchargement nécessite une nvidia a développé de connexion, gratuit inscrivez-vous
Exécutez les commandes ci-dessous:
Installer avec les sections de bazel (recommandée pour une installation manuelle de travaillé avec les sections de bazel, pour référence: https://docs.bazel.build/versions/master/install-ubuntu.html#install-with-installer-ubuntu)
Télécharger "bazel-0.13.1-installer-darwin-x86_64.sh" à partir de https://github.com/bazelbuild/bazel/releases
Exécutez les commandes ci-dessous:
Compilation Tensorflow
Nous allons compiler avec CUDA, avec XLA JIT (oh yeah) et jemalloc que malloc soutien. Ainsi nous entrons oui pour ces choses.
Exécutez la commande ci-dessous et de répondre à des requêtes comme décrit pour la configuration en cours d'exécution
Maintenant compiler tensorflow, exécutez commande ci-dessous, c'est super RAM consomme et prendra du temps. Vous pouvez supprimer "--local_resources 2048,.5,1.0" de la ligne ci-dessous si vous avez beaucoup de RAM ou cela fonctionne sur 2 GO de RAM
Une fois la compilation terminée, vous devrez chose apparaître comme l'image ci-dessous confirme que ce fut un succès
Construire la roue de fichier, exécutez ci-dessous:
Installer le générés roue de fichier à l'aide de pip
À découvrir sur les périphériques vous pouvez maintenant exécuter tensorflow, l'image ci-dessous est la vitrine sur ipython terminal
@Taako, donc désolé pour cette réponse tardive. Je n'ai pas enregistrer la roue de fichier de la compilation s'affichent ci-dessus. Cependant, voici un nouveau pour tensorflow 1.9. Espérons que cette aide vous assez. Veuillez vous assurer de la ci-dessous les détails utilisés pour la construction.
Tensorflow: 1.9
CUDA Toolkit: 9.2
CUDNN: 7.1.4
NCCL: 2.2.13
Ci-dessous est le lien de la roue de fichier:
roue de fichier