erreur dans le démarrage de namenode
Lorsque je tente de démarrer le hadoop sur le nœud maître, j'obtiens le résultat suivant.et le namenode n'est pas de départ.
[hduser@dellnode1 ~]$ start-dfs.sh
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hduser-namenode-dellnode1.library.out
dellnode1.library: datanode running as process 5123. Stop it first.
dellnode3.library: datanode running as process 4072. Stop it first.
dellnode2.library: datanode running as process 4670. Stop it first.
dellnode1.library: secondarynamenode running as process 5234. Stop it first.
[hduser@dellnode1 ~]$ jps
5696 Jps
5123 DataNode
5234 SecondaryNameNode
source d'informationauteur Tejas
Vous devez vous connecter pour publier un commentaire.
"L'arrêter".
Premier appel stop-all.sh
Type jps
Appel start-all.sh (ou start-dfs.sh et start-mapred.sh)
Type de jps (si namenode ne semblent pas du type "hadoop namenode" et cochez la case erreur)
Selon en cours d'exécution "stop-all.sh" sur les nouvelles versions de hardoop, elle est obsolète. Vous devez utiliser à la place:
stop-dfs.sh
et
stop-yarn.sh
Aujourd'hui, tout en exécutant des scripts pig j'ai eu le même message d'erreur mentionné dans la question:
Donc, la réponse est:
puis tapez:
Le problème sera résolu. Maintenant, vous pouvez exécuter le script pig avec mapreduce!
Dans Mac (Si vous installez à l'aide de homebrew) Où 3.0.0 est version Hadoop. Sous Linux, modifier le chemin d'installation(uniquement cette partie va changer .
/usr/local/Cellar/
).Mieux pour les utilisateurs pro écrire ce
alias
à la fin de votre~/.bashrc
ou~/.zshrc
(Si vous êtes zsh de l'utilisateur). Et il suffit de taperhstop
depuis la ligne de commande à chaque fois que vous voulez arrêter de Hadoop et tous les processus connexes.