Comment fonctionne le partitionnement dans Spark?

J'essaie de comprendre comment partitionnement est fait dans Apache Spark. Pouvez-vous aider les gars s'il vous plaît?

Voici le scénario:

  • un maître et deux nœuds avec 1 de base de chaque
  • un fichier count.txt de 10 MO en taille

Nombre de partitions ne les suivants créer?

rdd = sc.textFile(count.txt)

Est la taille du fichier ont une incidence sur le nombre de partitions?

source d'informationauteur abhishek kurasala