reduceByKey: Comment ça marche?

Je suis nouveau à l'Allumage et à la Scala. J'ai été confus au sujet de la façon reduceByKey fonctionne dans Spark. Supposons que nous avons le code suivant:

val lines = sc.textFile("data.txt")
val pairs = lines.map(s => (s, 1))
val counts = pairs.reduceByKey((a, b) => a + b)

La fonction map est clair: s est la clé et il points de la ligne de data.txt et 1 est la valeur.

Cependant, je n'ai pas comment le reduceByKey fonctionne en interne? Ne "une" des points à la clé? Sinon, n'est "qu'un" point "s"? Ensuite, ce qui représente un + b? comment sont-ils remplis?

InformationsquelleAutor user764186 | 2015-05-09