OpenCV extrinsèques de la caméra à partir d'une entité points

Comment puis-je récupérer la matrice de rotation, la translation de vecteur et peut-être que certains facteurs d'échelle de chaque caméra à l'aide d'OpenCV lorsque j'ai des photos d'un objet à partir de la vue de chacune de ces caméras? Pour chaque image, j'ai l'image des coordonnées de plusieurs points métrages. Pas toutes les fonctionnalité de points sont visibles dans toutes les images.
Je veux une carte le calcul des coordonnées 3D de la fonction des points de l'objet à une manière légèrement différente objet d'aligner la forme de la deuxième objet de l'objet premier.

J'ai entendu, il est possible à l'aide de cv::calibrateCamera(...) mais je ne peux pas obtenir assez à travers elle...

Quelqu'un qui ont des expériences avec ce genre de problème?

Il n'est pas clairement indiqué ci-dessus si vous connaissez le monde de la 3d coordonnées des points que vous observez dans les différentes images. Si c'est le cas, c'est une Perspective-n-points-problème et vous pouvez calibrer les paramètres de chaque appareil à l'aide de la EPnP algorithme disponible ici: cvlab.epfl.ch/software/EPnP/index.php. Sinon, voir ma réponse ci-dessous.
Les coordonnées 3d de l'objet photographié sont inconnus.
Si le monde de la 3d des coordonnées des points de l'objet sont inconnu, je ne pense pas que cv::calibrateCamera de travail, car il semble supposer que les points de l'objet sont connu.
Vous regardez le bundle ajustements trop: en.wikipedia.org/wiki/Bundle_adjustment. Cela suppose que vous avez un estimation initiale de l'appareil photo pose. Le problème est alors de reconstruire tous les points et toutes les poses.
Cela semble être exactement ce dont j'avais besoin! Je vous remercie pour votre durée d'attention et de votre temps!

OriginalL'auteur Martin Hennig | 2011-11-15