Spark Tuer Application En Cours D'Exécution
J'ai une course d'application Spark où il occupe tous les cœurs, où mes autres applications ne sont pas alloué de ressources.
J'ai fait quelques recherches rapides et les gens ont suggéré d'utiliser du FIL de tuer ou /bin/spark-classe de tuer la commande. Cependant, je suis en utilisant le CDH version et /bin/spark-catégorie n'existe même pas du tout, les FILS de tuer l'application ne fonctionne pas non plus.
Quelqu'un peut-il avec moi?
- si vous êtes dans un essai env : ps aux | grep spark -> obtenir le pid de l'étincelle et de le tuer en ligne de commande
- env", pour moi, le travail est déjà distribués.
- vous voulez tuer un emploi dans la production????
- Ouais... un emploi dans la production d'suis bloqué en raison de la défaillance de l'un d'hôte.
Vous devez vous connecter pour publier un commentaire.
yarn application -kill application_1428487296152_25597
web UI
?Spark History UI
ou de la LAINERUNNING
les applications de l'INTERFACE utilisateur (fil de l'hôte:8088/cluster/apps/RUNNING) ou deSpark Job Web UI
URL (_https://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Application_State_API
METTRE http://{rm adresse http:port}/ws/v1/cluster/apps/{appid}/etat
Il peut prendre beaucoup de temps pour obtenir tous les Id d'application à partir de FILS et de les tuer un par un. Vous pouvez utiliser un Bash pour la boucle pour accomplir cette tâche répétitive rapidement et plus efficacement, comme indiqué ci-dessous:
Tuer toutes les applications sur le FILS qui sont ACCEPTÉES état:
for x in $(yarn application -list -appStates ACCEPTED | awk 'NR > 2 { print $1 }'); do yarn application -kill $x; done
Tuer toutes les applications sur le FILS qui sont en cours d'EXÉCUTION:
for x in $(yarn application -list -appStates RUNNING | awk 'NR > 2 { print $1 }'); do yarn application -kill $x; done