Combien de threads (ou d'éléments de travail) peuvent s'exécuter en même temps?

Je suis nouveau dans la programmation GPGPU et je suis en train de travailler avec NVIDIA mise en œuvre d'OpenCL.

Ma question était de savoir comment calculer la limite d'un GPU de l'appareil (en nombre de threads).
De ce que j'ai compris il y a un certain nombre de travail-groupe de (l'équivalent de blocs dans CUDA) qui contiennent un certain nombre d'éléments de travail (~ cuda thread).

  • Comment puis-je obtenir le numéro de travail-groupe présent sur ma carte (et qui peuvent s'exécuter en même temps) et le nombre de travail-élément présent sur un travail de groupe?
  • À ce que CL_DEVICE_MAX_COMPUTE_UNITS correspond?
    Le khronos spécification speeks de cœurs ("Le nombre de cœurs de calcul parallèle sur la Prise de l'appareil.") quelle est la différence avec le CUDA core donnée dans la spécification de ma carte graphique. Dans mon cas, openCL donne 14 et ma GeForce 8800 GT a 112 core basé sur le site web de NVIDIA.
  • Ne CL_DEVICE_MAX_WORK_GROUP_SIZE (512 dans mon cas) correspond à la somme de travail, les objets donnés à un travail de groupe ou le nombre d'éléments de travail qui peuvent s'exécuter en même temps dans un travail de groupe?

Toutes les suggestions seront très appréciés.

source d'informationauteur Laure Jonchery