reçois de départ secondaire namenodes [0.0.0.0]
Je suis en train d'installer hadoop dans le pseudo mode distribué en suivant les instructions de ce mode
http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/SingleNodeSetup.html
mais je reçois
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to
/home/ec2-user/hadoop-2.4.0/logs/hadoop-ec2-user-secondarynamenode-ip-x-x-x-x.out
je suis juste copier coller de la configuration(.xml) et l'utilisation start-dfs.sh commande.
d'autres qui ont vécu cela semble le point de sortir de faute de frappe dans le fichier de configuration, mais je ne peux pas voir quelque chose de mal. ci-dessous mon fichier de config
etc/hadoop-2.4.0/core-site.xml:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
etc/hadoop-2.4.0/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
etc/hadoop-2.4.0/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
Ce que je fais mal??
OriginalL'auteur user2773013 | 2014-06-11
Vous devez vous connecter pour publier un commentaire.
Alors quel est le problème avec cela, laissez-le commencer secondaire nom de nœud. Avez-vous obtenu aucune exception ? OU tout autres problèmes comme le HDFS pas de départ etc?
Dans core-site.xml vous devriez avoir
Reportez-vous à cette réponse pour plus d'config de détails.
comme par le jira, il n'y a pas de différence, c'est juste que je l'avais fait à l'ancienne et vous a envoyé le même. les deux doivent fonctionner correctement.
OriginalL'auteur sagar