Est-ce que TensorFlow utilise par défaut tous les GPU disponibles sur la machine?

J'ai 3 GTX Titan Gpu dans ma machine. Je exécuter l'exemple fourni dans Cifar10 avec cifar10_train.py et a obtenu le résultat suivant:

I tensorflow/core/common_runtime/gpu/gpu_init.cc:60] cannot enable peer access from device ordinal 0 to device ordinal 1
I tensorflow/core/common_runtime/gpu/gpu_init.cc:60] cannot enable peer access from device ordinal 1 to device ordinal 0
I tensorflow/core/common_runtime/gpu/gpu_init.cc:127] DMA: 0 1 
I tensorflow/core/common_runtime/gpu/gpu_init.cc:137] 0:   Y N 
I tensorflow/core/common_runtime/gpu/gpu_init.cc:137] 1:   N Y 
I tensorflow/core/common_runtime/gpu/gpu_device.cc:694] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX TITAN, pci bus id: 0000:03:00.0)
I tensorflow/core/common_runtime/gpu/gpu_device.cc:694] Creating TensorFlow device (/gpu:1) -> (device: 1, name: GeForce GTX TITAN, pci bus id: 0000:84:00.0)

Il me semble que l'TensorFlow est de l'initialisation de lui-même sur les deux appareils (gpu0 et gpu1).

Ma question est pourquoi il ne fait que sur les deux appareils et est-il un moyen pour éviter cela? (Je ne veux qu'il fonctionne comme si il n'y a qu'un seul GPU)

source d'informationauteur Zk1001 | 2016-01-17