http: // localhost: 50070 ne fonctionne pas HADOOP
J'ai déjà installé Hadoop sur ma machine Ubuntu 13.05" et maintenant j'ai une erreur lors de la navigation sur localhost:50070 le navigateur dit que la page n'existe pas.
source d'informationauteur deltascience
Vous devez vous connecter pour publier un commentaire.
Depuis Hadoop 3.0.0 - Alpha 1 il y avait un Changement dans la configuration du port:
http://localhost:50070
a été déplacé à
http://localhost:9870
voir https://issues.apache.org/jira/browse/HDFS-9427
port 50070 changé à 9870 dans 3.0.0-alpha1
En fait, beaucoup d'autres ports changé aussi. Look:
Source
Tout d'abord, vérifiez que java processus en cours d'exécution à l'aide de "jps". Si vous êtes dans un pseudo-mode distribué, vous devez disposer des éléments suivants proccesses:
Si vous ne sont pas, utilisez le redémarrage de commandes:
Il peut être aussi parce que vous n'avez pas à ouvrir ce port sur la machine:
Pour les dernières versions hadoop (je suis en utilisant 2.7.1)
La démarrer /arrêter les scripts sont situés dans le
sbin
dossier. Les scripts sont:Je n'ai rien à faire avec fil bien que pour obtenir le NameNodeServer instance en cours d'exécution.
Maintenant mon erreur était que je n'ai pas formater la NameNodeServer HDFS.
Je ne suis pas tout à fait sûr de ce que cela fait à l'instant, mais il est évident qu'elle prépare l'espace sur lequel le NameNodeServer utilisera pour fonctionner.
Si vous pouvez ouvrir le http://localhost:8088/clustermais ne peut pas ouvrir http://localhost:50070/. Peut-être datanode n'ai pas de démarrage ou namenode n'ai pas le formate.
Hadoop version 2.6.4
vérifier si votre namenode a été formaté, si ce n'type:
vérifier votre namenode tmp chemin d'accès au fichier, à voir dans
/tmp
si le namenode répertoire est en/tmp
vous devez définir tmp chemin danscore-site.xml
parce que chaque fois que vous redémarrez ou démarrez votre ordinateur, les fichiers de/tmp
sera supprimé, vous devez définir un tmp dir chemin.ajouter le suivant.
vérifiez l'étape 2, arrêt hadoop et retirer le namenode tmp dir en
/tmp
puis tapez/path/to/hdfs namenode -format
et de commencer à hadoop. Il y a aussi unetmp
dir en$HADOOP_HOME
Si tous les ci-dessus ne vous aide pas, s'il vous plaît commentaire ci-dessous!
Essayer
voir
namenode
etdatanode
sont en cours d'exécution et de parcourirSi
localhost:50070
ne fonctionne toujours pas, vous devrez alors vous permet de ports. Donc, vérifiezActiver le port dans votre système, il est pour CentOS 7
le flux de commandes ci-dessous
1.firewall-cmd --get-active-zones
2.firewall-cmd --zone=zone dmz --add-port=50070/tcp --permanent
3.firewall-cmd --zone=public --add-port=50070/tcp --permanent
4.firewall-cmd --zone=zone dmz --add-port=9000/tcp --permanent
5.firewall-cmd --zone=public --add-port=9000/tcp --permanent
6.firewall-cmd --reload
Il y a une question similaire, et en réponse à: Début Hadoop 50075 Port n'est pas résolu
Prendre un coup d'oeil à votre core-site.xml fichier à déterminer le port, il est réglé. Si 0, il va choisir au hasard un port, alors assurez-vous d'en installer.
D'abord tous besoin de faire est de commencer à hadoop nœuds et les suivis, en tapant simplement
start-all.sh sur ur terminal.
De vérifier tous les trackers et les nœuds sont commencé à écrire " jps "commande".
si tout va bien et de travail,
allez dans votre navigateur, tapez l'url suivante
http://localhost:50070
si vous êtes en cours d'exécution et ancienne version d'Hadoop (hadoop 1.2) vous avez une erreur car http://localhost:50070/dfshealth.html ne pas quitter. Vérifier http://localhost:50070/dfshealth.jsp qui fonctionne !