Spark RDD par défaut du nombre de partitions

Version: Spark 1.6.2, Scala 2.10

Je suis de l'exécution de commandes ci-dessous Dans le spark-shell.
Je suis en train de voir le nombre de partitions que l'Étincelle est la création par défaut.

val rdd1 = sc.parallelize(1 to 10)
println(rdd1.getNumPartitions) //==> Result is 4

//Creating rdd for the local file test1.txt. It is not HDFS.
//File content is just one word "Hello"
val rdd2 = sc.textFile("C:/test1.txt")
println(rdd2.getNumPartitions) //==> Result is 2

Que par l'Apache Spark la documentation, le spark.default.parallelism est le nombre de noyaux de mon ordinateur portable (qui est de 2 core du processeur).

Ma question est : rdd2 semblent donner le bon résultat de 2 partitions comme indiqué dans la documentation. Mais pourquoi rdd1 est donner le résultat que 4 partitions ?

J'ai juste observé que quand j'essaie d'exécuter la même(val rdd1 = sc.paralléliser(de 1 à 10)) dans mon Ide, IDE de projet et d'essayer de récupérer le nombre de partiotions, je reçois 2 partitions. Je ne sais pas pourquoi c'est donner un tel résultat dans spark-shell.

OriginalL'auteur Sri | 2017-05-27