Tensorflow l'erreur quadratique moyenne de la perte de la fonction

J'ai vu un peu différente de l'erreur quadratique moyenne de la perte des fonctions dans les différents postes pour les modèles de régression dans Tensorflow:

loss = tf.reduce_sum(tf.pow(prediction - Y,2))/(n_instances)
loss = tf.reduce_mean(tf.squared_difference(prediction, Y))
loss = tf.nn.l2_loss(prediction - Y)

Quelles sont les différences entre ces?

1-er et 2-ème faire la même chose en théorie, 3-rd est multipliée par une constante
Un moyen de plus pour calculer le MSE (équivalent à votre 1er et 2ème méthode): tf.les pertes.mean_squared_error

OriginalL'auteur Nitro | 2016-12-27