“g++ non détecté” tout ensemble de données va encore plus loin, est-il une limite à la taille de la matrice dans le GPU?

J'ai eu ce message en utilisant Keras pour former une RNN de modèle de langue avec une grande 3D tenseur (généré à partir d'un texte, d'un chaud codé, et les résultats sous la forme d'un (165717, 25, 7631)):

WARNING (theano.configdefaults): g++ not detected ! Theano will be unable to 
execute optimized C-implementations (for both CPU and GPU) and will default to 
Python implementations. Performance will be severely degraded. To remove this 
warning, set Theano flags cxx to an empty string.
ERROR (theano.sandbox.cuda): nvcc compiler not found on $PATH. Check your nvcc 
installation and try again.

Mais tout va bien alors que je limite la taille du jeu de données en petits. Donc je me demande qui ne Théano ou CUDA limite de la taille de la matrice?

Ailleurs, j'ai une meilleure façon de faire un chaud de la représentation? Je veux dire, dans la grande 3D tenseur, la plupart des éléments sont 0 en raison de la "one-hot" de la représentation. Cependant, je n'ai pas trouvé une couche qui accepte de l'indice de la représentation de mots.

Il ressemble à un joli message d'erreur clair pour moi et il n'a rien à voir avec CUDA. Votre théano de configuration n'est pas correcte, et il ne peut pas trouver l'hôte ou GPU compilateurs. De la réparer, et le problème disparaîtra
Je n'ai pas à me faire comprendre. Mon code fonctionne très bien avec un petit jeu de données (juste pour le débogage de mon code), une telle erreur se produit uniquement avec un grand ensemble de données.
Oui, mais le message d'erreur vous indique également pourquoi cela arrive aussi. De petite taille, en pur Python implémentations sont utilisés, car il n'y a pas d'avantage de performance en essayant d'utiliser le GPU

OriginalL'auteur nanoix9 | 2015-11-12