Comment définir le nombre d'exécuteurs Spark?

Comment pourrais-je configurer à partir de Java (ou Scala) code montant des exécuteurs avoir SparkConfig et SparkContext? Je vois constamment 2 exécuteurs testamentaires. Ressemble spark.default.parallelism ne fonctionne pas et est à propos de quelque chose de différent.

J'ai juste besoin de fixer le montant des exécuteurs être égale à la taille de cluster, mais il y a toujours seulement 2 d'entre eux. Je sais que ma taille de cluster. Je lance sur le FIL si cela est important.

source d'informationauteur Roman Nikitchenko