Le choix entre les GeForce ou Quadro pour faire l'apprentissage de la machine via TensorFlow
Est-il une différence notable dans TensorFlow performances en cas d'utilisation de Gpu Quadro vs Gpu GeForce?
par exemple, faut-il utiliser les opérations à double précision ou quelque chose d'autre qui serait la cause d'une baisse de cartes GeForce?
Je suis sur le point d'acheter un GPU pour TensorFlow, et je voulais savoir si une carte graphique GeForce serait ok. Merci et vous remercie de votre aide
- C'est 100% pas d'opinion fondée.
- Cette question n'est pas une opinion fondée, tensorflow est une application spécifique et il y a des différences matérielles entre ces cartes. La question même des points à l'une des principales différences et se demande si la bibliothèque de programmation utilise cette technologie.
Vous devez vous connecter pour publier un commentaire.
Je pense que la GeForce TITAN est grand et il est largement utilisé dans l'Apprentissage de la Machine (ML). En ML, simple précision est suffisante dans la plupart des cas.
Plus de détails sur les performances de la GTX ligne (actuellement GeForce 10) peut être trouvé dans Wikipedia, ici.
D'autres sources sur le web l'appui de cette prétention. Voici une citation de doc-ok en 2013 (permalien).
Spécifiques à ML, y compris l'apprentissage en profondeur, il y a un Kaggle forum de discussion dédié à ce sujet (Déc 2014, permalien), qui va au-dessus des comparaisons entre les Quadro, GeForce, et Tesla série:
REMARQUE: faire attention à ce que la plate-forme et la précision par défaut est en elle. Par exemple, ici, dans le CUDA forums (août 2016), un développeur et propriétaire de deux Titan X (GeForce de la série) et ne voit pas un gain de performance dans leurs R ou de scripts Python. C'est diagnostiquée comme un résultat de la R étant par défaut en double précision, et a une moins bonne performance sur les nouveaux GPU que leur CPU (un processeur Xeon). Tesla Gpu sont cités comme étant les meilleures performances pour la double précision. Dans ce cas, la conversion de tous les nombres à float32 augmente les performances de 12.437 s avec nvBLAS 0.324 s avec gmatrix+float32s sur un TITAN X (voir le premier point de repère). Citant ce forum de discussion: