Comment configurer le fichier hosts pour l'écosystème Hadoop

![entrez la description de l'image ici][1]La question peut paraître évident, mais j'ai été confrontée à de nombreuses reprises, en raison d'une mauvaise configuration du fichier hosts sur un cluster hadoop.

Quelqu'un peut-il décrire comment configurer le fichier hosts et d'autres liées à la configuration du réseau pour hadoop et de l'environnement semblable à l'utilisation (comme cloudera).

Spécialement quand je dois ajouter le nom d'hôte et nom de domaine complet

Mise à jour

Voici le fichier host de la machine de nom d'hôte cdh4hdm ont un rôle de hadoop Maître

 127.0.0.1       cdh4hdm        localhost
  #127.0.1.1      cdh4hdm 

 # The following lines are desirable for IPv6 capable hosts

   172.26.43.40    cdh4hdm.imp.co.in            kdc1
   172.26.43.41    cdh4hbm.imp.co.in   
   172.26.43.42    cdh4s1.imp.co.in    
   172.26.43.43    cdh4s2.imp.co.in    
   172.26.43.44    cdh4s3.imp.co.in    
   172.26.43.45    cdh4s4.imp.co.in    

   ::1     ip6-localhost ip6-loopback
   fe00::0 ip6-localnet
   ff00::0 ip6-mcastprefix
   ff02::1 ip6-allnodes
   ff02::2 ip6-allrouters 

Veuillez voir image ci-jointe

Ici sur un cluster certains nœuds sont l'obtention de nom de domaine complet et certains sont d'obtenir le nom d'hôte.

Aussi IP nom d'hôte n'est pas bon et montrant 127.0.0.1 à la place de l'IP de l'hôte

S'il vous plaît suggérer

Entendez-vous le /etc/hosts fichier?
veuillez voir la mise à jour de la question avec plus de détails si vous avez besoin d'autres détails, n'hésitez pas à demander

OriginalL'auteur Vikas Hardia | 2014-03-05