hadoop fs -lsr hdfs://localhost:9000 ne fonctionne pas
je suis nouveau à l'apprentissage de la sf et ont un seul nœud hadoop(version 2.2.0) mis en place sur centos boîte.
après le démarrage de tous les commande je suis en train d'exécuter certains hdfs commandes, mais mentionnés ci-dessous ne fonctionne pas.
bin/hadoop fs -lsr hdfs://localhost:9000/tmp/hadoop-root/dfs/name
alors que cette commande fonctionne
bin/hadoop fs -lsr file:///tmp/hadoop-root/dfs/name
c'est mon core-site.xml fichier
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
mapred-site.xml fichier
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
hdfs-site.xml fichier
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
telnet avec localhost 9000 est de travailler tout en telnet avec x.x.x.x 9000 n'est pas de travail aussi.
Quelqu'un peut me dire pls. où est mon erreur ?
Vous devez vous connecter pour publier un commentaire.
HDFS est un système de fichiers, afin de l'utiliser comme un système de fichiers:
Je vous conseille aussi d'utiliser uniquement des noms pleinement qualifiés pour les hôtes dans vos fichiers de configuration. Simplement dit, il ne faut pas utiliser localhost.