Puis-je ajouter des arguments de code python quand je soumettre étincelle d'emploi?
Je suis en train d'utiliser spark-submit
d'exécuter mon code python dans spark cluster.
Généralement, nous courons spark-submit
avec du code python comme ci-dessous.
# Run a Python application on a cluster
./bin/spark-submit \
--master spark://207.184.161.138:7077 \
my_python_code.py \
1000
Mais je veux exécuter my_python_code.py
en passant plusieurs arguments en Est-il de manière intelligente pour passer des arguments?
OriginalL'auteur Jinho Yoo | 2015-08-26
Vous devez vous connecter pour publier un commentaire.
Oui: Mettre cela dans un fichier appelé args.py
Si vous exécutez
Vous verrez:
OriginalL'auteur Paul
Même
sys.argv
est une solution gagnante, je préfère cette façon appropriée de gérer en ligne de commande arguments dans mon Étincelle d'emplois:Puis lancez votre travail de la manière suivante:
Plus d'informations sur
argparse
module peut être trouvé dans Argparse TutorielSi vous avez des configs que vous souhaitez envoyer avec votre étincelle soumission du travail, assurez-vous d'exécuter avec info de config juste après étincelle soumettre, comme:
spark-submit --master somemasterurl job.py --ngrams 3
OriginalL'auteur noleto
Ah, c'est possible. http://caen.github.io/hadoop/user-spark.html
OriginalL'auteur Jinho Yoo