Tag: cross-entropy
Dans l’apprentissage de la machine et de la théorie de l’information, de la croix, l’entropie est une mesure de la distance (l’inverse de similarité) entre deux distributions de probabilité sur le même sous-jacent ensemble d’événements.
La croix de l’entropie est le choix commun de la perte de fonction dans les réseaux de neurones pour la classification des tâches.