Image de prétraitement dans l'apprentissage en profondeur
Je suis expérimenter avec l'apprentissage en profondeur sur les images. J'ai environ 4000 images à partir de caméras différentes, avec différentes conditions de lumière, les résolutions d'image et l'angle de vue.
Ma question est: Ce genre d'image prétraitement serait utile pour améliorer la détection d'objet? (Par exemple: contraste/couleur de la normalisation, de débruitage, etc.)
Personne ne pouvait répondre à cette question à moins qu'ils ont un coup d'oeil à vos données. généralement avec l'apprentissage en profondeur de pré-traitement n'est pas nécessaire. votre modèle peut apprendre à s'adapter à la variation de vos données si vous en avez assez de données.
Oui, je sais que ma question est trop générale, mais votre réponse m'a aidé. Ma vraie question est quelle est la sensibilité du fond dans l'apprentissage de la qualité de l'image?
réseau profond ou CNN a des filtres ont tendance à apprendre sur votre jeu de données. la grande quantité de données et d'options que vous avez, le plus robuste, votre système sera. bien sûr, il est sensible que si votre cible de domaine est différent de celui de votre formation domaine.
Une autre image de prétraitement technique ajoutés à votre liste pourrait être de correction de l'éclairage. Voir CE POST pour plus d'.
Et aussi vérifier les CE POST si vous envisagez l'utilisation de correction gamma pour vos images.
Oui, je sais que ma question est trop générale, mais votre réponse m'a aidé. Ma vraie question est quelle est la sensibilité du fond dans l'apprentissage de la qualité de l'image?
réseau profond ou CNN a des filtres ont tendance à apprendre sur votre jeu de données. la grande quantité de données et d'options que vous avez, le plus robuste, votre système sera. bien sûr, il est sensible que si votre cible de domaine est différent de celui de votre formation domaine.
Une autre image de prétraitement technique ajoutés à votre liste pourrait être de correction de l'éclairage. Voir CE POST pour plus d'.
Et aussi vérifier les CE POST si vous envisagez l'utilisation de correction gamma pour vos images.
OriginalL'auteur Norbert | 2017-01-02
Vous devez vous connecter pour publier un commentaire.
Pour le pré-traitement des images avant de les nourrir dans les Réseaux de Neurones. Il est préférable de rendre les données Zéro Centré. Puis essayer de normalisation technique. Il ne va certainement augmenter la précision des données est mise à l'échelle dans une gamme que des valeurs arbitrairement grandes ou trop petites valeurs.
Un exemple d'image sera: -
Voici une explication de la part de Stanford CS231n 2016 Conférences.
*
*
Lien pour l'extrait ci-dessus:- http://cs231n.github.io/neural-networks-2/
OriginalL'auteur WaterRocket8236
C'est certainement la fin de répondre à ce post, mais je l'espère, de qui tomber sur ce post.
Voici un article que j'ai trouvé en ligne Les Données de l'Image de Pré-Traitement pour les Réseaux de Neurones, je pensais que ce n'était certainement un bon article sur la façon dont le réseau doit être formé.
Principaux essentiel de l'article dit
1) Que les données(Images) quelques-unes dans le NN doit être mis à l'échelle selon la taille de l'image que le NN est conçu pour prendre, généralement un carré je.e 100x100,250x250
2) d'Envisager la DIRE(Image de Gauche) et ÉCART-type(Image de Droite) valeur de toutes les images de l'entrée dans votre collection d'un ensemble d'images
3) Normalisation de l'image entrées faire en soustrayant la moyenne de chaque pixel, et en divisant le résultat par l'écart-type, ce qui rend la convergence plus rapide tandis que la formation du réseau. Cela ressemblerait à une courbe de Gauss centrée à zéro
4)de réduction de Dimensionnalité RVB en niveaux de Gris de l'image, les performances du réseau de neurones est autorisé à être indifférent à cette dimension, ou de rendre le problème de formation plus souple
OriginalL'auteur Santhosh
Lisez cette, j'espère que ça sera utile. L'idée est de diviser l'image en deux parties. Ceci est appelé R-CNN (ici sont quelques exemples). Il y a deux étapes à ce processus, la détection d'objet et de la segmentation. Détection d'objet est le processus par lequel certains objets au premier plan sont détectés par l'observation des changements de gradient. La Segmentation est le processus par lequel les objets sont mis ensemble dans une image avec un contraste élevé. De haut niveau de l'image détecteurs utilisent bayésien d'optimisation qui permet de détecter ce qui pourrait arriver ensuite à l'aide de l'optimisation locale point.
Fondamentalement, la réponse à votre question, tous les pré-traitement des options que vous avez donné semble être la bonne. Comme le contraste et la couleur de la normalisation rend l'ordinateur à reconnaître les différents objets et de débruitage va faire des dégradés plus facile à distinguer.
J'espère que toute cette information est utile pour vous!
Merci pour votre réponse! En fait, je suis expérimenter l'esprit py-plus rapide-rcnn alors j'ai entendu au sujet de la R-CNN. Mon problème, c'est mon jeu de données de qualité variable, les images et la vraie question est de savoir comment la sensibilité de l'apprentissage en profondeur de la qualité de l'image?
OriginalL'auteur leon.stef