Comment puis-je résoudre «manqué de mémoire gpu» dans TensorFlow

J'ai couru le MNIST démo en TensorFlow avec 2 conv couches et la conect couche, j'ai reçu un message 'a manqué de mémoire en essayant de répartir 2.59 GiB' , mais elle montre que la mémoire totale est de 4.69 GiB, et la mémoire libre est 3.22 GiB, comment peut-il arrêter avec 2.59 GiB? Et avec un plus grand réseau, comment puis-je gérer la mémoire gpu? Je ne concerner que la meilleure façon d'utiliser de la mémoire graphique et vous voulez savoir comment c'est arrivé, non pas à la pré-allocation de mémoire

source d'informationauteur Fangxin