JobTracker dans hadoop pas en cours d'exécution
En fait j'ai installé et configuré mon hadoop cluster unique à l'aide de
http://wiki.apache.org/hadoop/Running_Hadoop_On_Ubuntu_Linux_%28Single-Node_Cluster%29
Maintenant, quand je suis à l'aide de
NameNode - (http://localhost:50070)/ (pour mon nom de nœud), il est en cours d'exécution fine, mais pour
JobTracker - (http://localhost:50030)/ il n'est pas de travail
Ce qui peut être le cas
Grâce
Chaque service (namenode, jobtracker, etc.) est séparément et les journaux de sa sortie. Veuillez vérifier la sortie de la jobtracker pour voir ce qui n'allait pas.
En regardant les journaux peuvent donner une meilleure idée de ce qui se passe. Sur ubuntu (et sur d'autres systèmes basés sur Linux), les logs sont dans /var/log/hadoop/<username> il suffit de cocher ces journaux d'erreurs:- hadoop-<username>-jobtracker-<nom d'hôte>.journal hadoop-<username>-namenode-<nom d'hôte>.journal
Êtes-vous en utilisant Hadoop 2.x.x alors la réponse est ici--> stackoverflow.com/questions/21852633/...
En regardant les journaux peuvent donner une meilleure idée de ce qui se passe. Sur ubuntu (et sur d'autres systèmes basés sur Linux), les logs sont dans /var/log/hadoop/<username> il suffit de cocher ces journaux d'erreurs:- hadoop-<username>-jobtracker-<nom d'hôte>.journal hadoop-<username>-namenode-<nom d'hôte>.journal
Êtes-vous en utilisant Hadoop 2.x.x alors la réponse est ici--> stackoverflow.com/questions/21852633/...
OriginalL'auteur Uselesssss | 2012-11-12
Vous devez vous connecter pour publier un commentaire.
Après l'exécution de $HADOOP_HOME/bin/start-all.sh vous pouvez saisir une commande "jps" pour vérifier si tous les agréments nécessaires hadoop proccesses ont commencé. Si tout est ok, il devrait ressembler à ceci:
Il est possible que votre JobTracker proccess est hors de travail. Donc, vérifiez d'abord. Si c'est vrai, alors vous devriez regarder dans les fichiers journaux dans le répertoire de journaux pour une raison spécifique.
les logs ne contient pas de fichier de journal relatives à l'emploi et de la tâche tracker
OriginalL'auteur Happy3
OriginalL'auteur pablo pidal
format de votre namenode à l'aide de la commande suivante.
Cela permettra de résoudre votre problème.
OriginalL'auteur Hisham Muneer
Dans la nouvelle version d'hadoop, vous pouvez surveiller les travaux exécutés à
localhost:8088
où vous trouverez l'interface utilisateur web pour les nouveaux hadoop
Lien : https://stackoverflow.com/a/24105597/1971660
OriginalL'auteur Mit Mehta
Peut-être un peu tard pour répondre mais je l'espère, sera utile pour d'autres lecteurs.
Dans Hadoop 2.0, le JobTracker et TaskTracker n'existent plus et ont été remplacés par trois composantes:
ResourceManager: un planificateur qui alloue les ressources disponibles dans le cluster entre les demandes concurrentes.
NodeManager: s'exécute sur chaque nœud du cluster et prend la direction de la classe ResourceManager. Il est responsable de la gestion des ressources disponibles sur un seul nœud.
ApplicationMaster: une instance d'un cadre spécifique de la bibliothèque, un ApplicationMaster exécute un spécifique FIL de travail et est responsable de la négociation des ressources de la classe ResourceManager et travaille également avec le NodeManager à exécuter et surveiller les Conteneurs.
Donc autant que vous voyez ResourceManager(NN) & NodeManager(DN) les processus que vous êtes bon pour aller.
OriginalL'auteur Code wrangler
Bien ..quelle est la distribution/version d'Hadoop utilisez ? Son été un moment depuis que j'ai utilisé hadoop-site.xml. Avec Hadoop 1.0.x, il est core-site.xml et mapred-site.xml. Fondamentalement, je pense que les start-tout n'est pas de commencer votre jobtracker à tous qu'il n'est pas configuré correctement.
OriginalL'auteur kiru
S'il vous plaît essayer cette commande --- hadoop dfsadmin -safemode congé est plus efficace.
OriginalL'auteur Jorge Cadavid
démarrer avec
OriginalL'auteur Yousef Irman