Tensorflow: perte de diminuer, mais la précision stable

Mon équipe est la formation de CNN dans Tensorflow pour la classification binaire endommagés/les parties acceptables. Nous avons créé notre code en modifiant la cifar10 exemple de code. Dans ma précédente expérience avec les Réseaux de Neurones, je me suis toujours entraîné jusqu'à ce que la perte a été très proche de 0 (bien en dessous de 1). Cependant, nous sommes en train d'évaluer notre modèle avec un ensemble de validation en cours de formation (sur un autre GPU), et il semble que la précision cessé d'augmenter après environ 6.7 k étapes, alors que la perte est encore en baisse constante, après plus de 40k étapes. Est-ce à cause de surajustement? Doit-on s'attendre à voir un autre pic de précision une fois que la perte est très proche de zéro? Le courant max de précision n'est pas acceptable. Doit-on le tuer et de le garder tuning? Que recommandez-vous? Voici notre code modifié et graphiques du processus de formation.

https://gist.github.com/justineyster/6226535a8ee3f567e759c2ff2ae3776b

La précision et la Perte d'Images

OriginalL'auteur Justin Eyster | 2017-04-19