spark 2.1.0 session de paramètres de configuration (pyspark)

Je suis en train de remplacer la bougie d'session/spark contexte par défaut configs, mais c'est la cueillette ensemble de nœuds et de ressource de cluster.

 spark  = SparkSession.builder
                      .master("ip")
                      .enableHiveSupport()
                      .getOrCreate()

 spark.conf.set("spark.executor.memory", '8g')
 spark.conf.set('spark.executor.cores', '3')
 spark.conf.set('spark.cores.max', '3')
 spark.conf.set("spark.driver.memory",'8g')
 sc = spark.sparkContext

Il fonctionne très bien lorsque je l'ai mis dans la configuration de l'étincelle soumettre

spark-submit --master ip --executor-cores=3 --diver 10G code.py
Qu'est-ce que le gestionnaire de ressources ? Spark Autonome/FILS
Spark autonome
Autrement 2.0 est conf = (SparkConf().set("spark.executor.cores", "3")); spark = SparkSession.builder .master("ip").conf(conf=conf) .enableHiveSupport() .getOrCreate()
Désolé, essayé les deux, pas de chance. Pouvez-vous essayer une fois. Je viens de mettre à jour mon étincelle 2.2.0 instantané à venir plus de 64 ko de code de problème de taille(SPARK-16845).

OriginalL'auteur Harish | 2017-01-27