Ce qui rend la mesure de la distance de k-medoid “meilleures” que les k-means?

Je lis à propos de la différence entre le clustering k-means et k-medoid de clustering.

Soi-disant il y a un avantage à utiliser les combinaisons mesure de la distance dans le k-medoid algorithme, au lieu de la plus familière somme des carrés de la distance Euclidienne de type métrique pour évaluer la variance que nous trouvons avec k-means. Et apparemment, cette différence de distance métrique en quelque sorte réduit le bruit et les valeurs aberrantes.

J'ai vu cette demande, mais je n'ai pas encore vu tout bon raisonnement que pour les mathématiques derrière cette revendication.

Ce qui rend le paires distance de mesure couramment utilisée dans k-medoid mieux? Plus exactement, comment l'absence d'un terme au carré permettent de k-medoids avoir les propriétés associées à la notion de prendre une médiane?

  • stats.stackexchange.com peut être le meilleur endroit pour obtenir de plus profond et théoriques des réponses.
  • Voir ma réponse mis à jour, pour la notion de répartition point à partir de statistiques robustes. Le medoid est probablement un robuste statistique, la moyenne n'est pas du tout robuste.
InformationsquelleAutor Matt O'Brien | 2014-02-07