Kinect 3D geste de reconnaissance basé sur le squelette mouvements - Ce que les bibliothèques existent?
Ce geste de reconnaissance bibliothèques (le cas échéant) pour le Kinect? Actuellement, j'utilise OpenNI pour enregistrer squelette mouvements, mais je suis pas sûr de savoir comment passer de cette de déclenchement discret actions.
Mon problème peut être aussi simple que de poser la détection, mais il pourrait aussi être aussi compliqué que de temps en fonction des mouvements (ie. détecter si elles sont en déplaçant ses mains dans un cercle) selon la difficulté de ce qui est. Les exemples que j'ai vu pour la pose de détection ont été très ad-hoc - est-ce à cause d'un algorithme générique est difficile de faire le bien?
OriginalL'auteur Steve Vermeulen | 2011-03-08
Vous devez vous connecter pour publier un commentaire.
La NUIT de la bibliothèque (sur le haut de OpenNI) a des classes pour la détection de glissement et d'autres gestes, mais personnellement, j'ai eu du mal avec l'aide de la base, OpenNI et NITE ensemble des bibliothèques en C# (je continue à courir pour AccessViolationExceptions). Si vous êtes à l'écriture de code géré, le XnVNITE.net.dll est ce que le mouvement de balayage de détection. Il se trouve sous la PrimeSense/NITE dossier après l'installation de NITE.
Si vous pouvez faire sans le squelette et la reconnaissance des utilisateurs, il est également le ManagedNite.dll la bibliothèque, qui est redondant bibliothèque livré avec le PrimeSense NITE installer. ManagedNite.dll aussi a main/geste de reconnaissance, mais pas de squelette/détection de l'utilisateur.
Sinon, vous pouvez certainement détecter votre propre en fonction du temps de geste de balayage, comme vous l'avez suggéré. Vous devriez être en mesure de détecter si une série de points de main se déplace en ligne droite avec une fonction comme ceci:
Que vous pourriez améliorer ce code afin de détecter à droite vs. gauche le balayage. J'ai aussi fait de ne pas inclure le temps de calcul dans mon exemple ci - dessus, vous devez regarder à la fois du premier et du dernier point et de déterminer si le glissement a été complété à l'intérieur d'un certain laps de temps.
OriginalL'auteur kindohm
check this out: http://kinectrecognizer.codeplex.com/
prend en charge la 3D de suivi et de reconnaissance fine-tuning.. doit être facile à réutiliser ainsi
OriginalL'auteur akolev
Softkinetic semble prometteur, mais le SDK n'est pas librement disponible pour l'instant.
OriginalL'auteur Steve Vermeulen
Je suis en train de travailler sur un autonome squelette de code de détection pour kinect. http://code42tiger.blogspot.com
J'ai l'intention de le libérer pour gratuit, cependant j'ai encore un long chemin à parcourir à partir de la perfection. Je me demande si votre exigence est à la main uniquement de suivi de position, vous pouvez l'écrire vous-même, sans même l'aide d'OpenNI ou toute autre bibliothèque. Si vous avez besoin d'un simple conseil, lisez ci-dessous.
1) suppression du Fond (expliqué dans mon blog)
2) Blob de détection (à choisir la personne à suivre, est également expliqué dans le blog)
3) la Main de suivi (Maintenant, quand vous avez seul l'utilisateur dans les données, vous pouvez le trouver facilement trouver de la main en considérant le point le plus éloigné du corps.)
4) Suivre la position de la main pour détecter les gestes. (certaines de calcul qui suit la main tous les quelques images qui vous est donnée la géométrie du mouvement)
Cela devrait fonctionner (si ce n'est parfait) 75% du temps. À moins que l'utilisateur essaie de trouver à redire avec l'algo, il doit travailler pour les utilisateurs normaux.
OriginalL'auteur codetiger