Qu'est-ce que logits, softmax et softmax_cross_entropy_with_logits?

Je passais par le tensorflow API docs ici. Dans le tensorflow de la documentation, ils ont utilisé un mot clé appelé logits. Quel est-il? Dans un grand nombre de méthodes dans l'API docs il est écrit comme

tf.nn.softmax(logits, name=None)

Si ce qui est écrit est ceux logits ne sont Tensors, pourquoi garder un nom différent comme logits?

Autre chose, c'est qu'il y a deux méthodes, je ne pouvais pas faire la différence. Ils ont été

tf.nn.softmax(logits, name=None)
tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

Quelles sont les différences entre eux? Les docs ne sont pas claires pour moi. Je sais ce que tf.nn.softmax n'. Mais pas les autres. Un exemple sera vraiment utile.

InformationsquelleAutor Shubhashis | 2015-12-12