Comment passer des variables d'environnement à l'allumage du pilote en mode cluster avec spark-soumettre
spark-submit
permet de configurer l'exécuteur des variables d'environnement avec --conf spark.executorEnv.FOO=bar
, et l'Étincelle d'API REST permet de passer des variables d'environnement avec la environmentVariables
champ.
Malheureusement, je n'ai rien trouvé de similaire pour configurer la variable d'environnement du conducteur lors de la présentation du pilote avec spark-submit
en mode cluster:
spark-submit --deploy-mode cluster myapp.jar
Est-il possible de définir les variables d'environnement du conducteur avec spark-submit
en mode cluster?
J'aurais dit que je suis à l'aide d'allumage en mode autonome — pas de fils ou de mesos
Avez-vous trouver un moyen pour le faire finalement?
Avez-vous trouver un moyen pour le faire finalement?
OriginalL'auteur Gaëtan Lehmann | 2016-06-17
Vous devez vous connecter pour publier un commentaire.
Sur le FIL au moins, cela fonctionne:
spark-submit --deploy-mode cluster --conf spark.yarn.appMasterEnv.FOO=bar myapp.jar
Il est mentionné dans http://spark.apache.org/docs/latest/configuration.html#environment-variables que:
J'ai testé que l'on peut passer avec
--conf
drapeau pourspark-submit
, de sorte que vous n'avez pas à modifier mondiale fichiers de conf.--conf spark.executorEnv.FOO=bar
OriginalL'auteur Arvidaa
Vous pouvez utiliser la Classification ci-dessous pour configurer les variables d'environnement sur l'exécuteur testamentaire et de nœud maître:
Si vous venez de définir
spark.yarn.appMasterEnv.FOO = "foo"
, puis l'env de variable ne sera pas présent sur exécuteur des instances.OriginalL'auteur Sanchay
Sur le Fil en mode cluster, il a travaillé en ajoutant les variables d'environnement dans le bon de commande envoyer à l'aide de --conf comme ci-dessous-
étincelle soumettre --master fil-cluster --num exécuteurs testamentaires 15 --exécuteur-mémoire 52g --exécuteur des noyaux 7 --pilote-mémoire 52g --conf "l'étincelle.de fil.appMasterEnv.FOO=/Chemin/foo" --conf "l'étincelle.executorEnv.FOO2=/chemin/foo2" app.jar
Aussi, vous pouvez le faire en ajoutant dans conf/spark-valeurs par défaut.fichier conf.
OriginalL'auteur Jyoti Gupta
Oui, C'est possible. Quelles sont les variables que vous avez besoin, vous pouvez poster que dans spark-soumettez-vous comme vous êtes en train de faire?
Prendre variables de http://spark.apache.org/docs/latest/configuration.html et dépend de votre optimisation de l'utilisation de ces. Cette lien pourrait également être utile.
J'ai l'habitude d'utiliser en mode cluster, mais maintenant je suis à l'aide de FIL donc mes variables sont comme suit: (je l'espère, utile)
Dans cette, mon pot suivants sont des arguments de la classe.
OriginalL'auteur ChikuMiku