L'obtention de l'apprentissage en cours taux de tf.le train.AdamOptimizer

Je voudrais imprimer le taux d'apprentissage pour chaque étape de mon nn.

Je sais qu'Adam a un apprentissage adaptatif taux, mais est-il une manière que je peux voir ceci (pour la visualisation dans tensorboard)

  • Par rapidement la lecture du code, vous pouvez obtenir de tr: imprimer sess.exécuter(adam_op._lr_t), après avoir adam_op = tf.le train.AdamOptimizer(0.1, beta1=0.5, beta2=0.5) , train_op = adam_op.minimiser(coût). Cependant, il n'est pas sûr de son travail dans votre code. Pouvez-vous qickly test?
  • Note de côté: La bonne façon de penser à propos d'adam n'est pas que l'apprentissage de taux (mise à l'échelle de la dégradés), mais comme une étape de taille. Le learning_rate que vous transmettez est la taille maximale du pas (par paramètre), Adam prend des mesures jusqu'à la taille, selon le degré de cohérence de la pente est.
  • OK @mdaoust, mais alors comment puis-je obtenir le taux d'apprentissage à chaque étape? J'ai essayé Sung Kim suggestion, mais ne fonctionne pas, car il renvoie une ligne plate. Merci.
InformationsquelleAutor kmace | 2016-05-02