hadoop - Connexion refusée sur namenode

J'ai cherché sur le web et stackoverflow pour une longue période, mais il n'était pas utile.

J'ai installé hadoop yarn 2.2.0 dans 2 nœud de cluster de l'installation. mais quelque chose va mal.
quand j'ai commencer à hadoop démons à l'aide de start-dfs.sh et start-yarn.sh sur le nœud maître, ils ont réussi à exécuter en maître et de l'esclave (mon maître est le nom d'hôte est RM et mon esclave du nom d'hôte est slv). ils peuvent ssh les uns les autres avec succès. mais quand je veux exécuter une tâche, cette erreur s'affiche:

14/01/02 04:22:53 AVERTIR util.NativeCodeLoader: Impossible de charger le natif hadoop bibliothèque pour votre plate-forme... à l'aide de builtin-classes java le cas échéant
14/01/02 04:22:56 AVERTIR hdfs.DFSClient: DataStreamer Exception
org.apache.hadoop.de la cib.RemoteException(java.io.IOException): Fichier /utilisateur/root/QuasiMonteCarlo_1388665371850_813553673//part0 ne pouvait être répliqué à 0 nœuds au lieu de minReplication (=1). Il y a 0 datanode(s) en cours d'exécution et pas de nœud(s) sont exclus de cette opération.
au org.apache.hadoop.hdfs.serveur.blockmanagement.La commande gestionnaire de blocs.chooseTarget(la commande gestionnaire de blocs.java:1384)
au org.apache.hadoop.hdfs.serveur.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:2477)
au org.apache.hadoop.hdfs.serveur.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:555)
au org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSidetranslatorpb.addBlock(ClientNamenodeProtocolServerSidetranslatorpb.java:387)
au org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java:59582)
au org.apache.hadoop.de la cib.ProtobufRpcEngine$Serveur,$ProtoBufRpcInvoker.appel(ProtobufRpcEngine.java:585)
au org.apache.hadoop.de la cib.RPC$Serveur.d'appel(RPC.java:928)
au org.apache.hadoop.de la cib.Serveur$Gestionnaire De$1.exécuter(Serveur de.java:2048)
au org.apache.hadoop.de la cib.Serveur$Gestionnaire De$1.exécuter(Serveur de.java:2044)
à java.de sécurité.AccessController.doPrivileged(Native method)
au javax.de sécurité.auth.Sujet.doAs(sous réserve.java:416)
au org.apache.hadoop.de sécurité.UserGroupInformation.doAs(UserGroupInformation.java:1491)
au org.apache.hadoop.de la cib.Serveur$Handler.exécuter(Serveur de.java:2042)

at org.apache.hadoop.ipc.Client.call(Client.java:1347)
at org.apache.hadoop.ipc.Client.call(Client.java:1300)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206)
at com.sun.proxy.$Proxy9.addBlock(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:622)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:186)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy9.addBlock(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.addBlock(ClientNamenodeProtocolTranslatorPB.java:330)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.locateFollowingBlock(DFSOutputStream.java:1226)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1078)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:514)

et dans datanode journal ce journal existe:

2014-01-02 04:40:31,616 AVERTIR org.apache.hadoop.hdfs.serveur.datanode.DataNode: Problème de connexion au serveur: RM/192.168.1.101:9000
2014-01-02 04:40:37,618 INFO org.apache.hadoop.de la cib.Client: nouvelle tentative de connexion au serveur: RM/192.168.1.101:9000. Déjà essayé 0 temps(s)$
2014-01-02 04:40:38,619 INFO org.apache.hadoop.de la cib.Client: nouvelle tentative de connexion au serveur: RM/192.168.1.101:9000. Déjà essayé 1 temps(s)$
2014-01-02 04:40:39,620 INFO org.apache.hadoop.de la cib.Client: nouvelle tentative de connexion au serveur: RM/192.168.1.101:9000. Déjà essayé 2 temps(s)$
2014-01-02 04:40:40,621 INFO org.apache.hadoop.de la cib.Client: nouvelle tentative de connexion au serveur: RM/192.168.1.101:9000. Déjà essayé 3 temps(s)

J'ai vérifié sur le port 9000 sur le nœud maître et la sortie est ceci:

tcp 0 0 127.0.0.1:9000 0.0.0.0:* LISTEN 10227/java

Je crois que le problème est causé par la raison que dans le nœud esclave quand je

telnet RM 9000

il dit

Essayer 192.168.1.101...
telnet: Unable to connect to remote host: Connexion refusée

cependant

telnet RM

la sortie est :

Essayer 192.168.1.101...
Connecté à RM.
Caractère d'échappement '^]'.
Ubuntu 12.04.2 LTS
RM login:

pour plus d'informations mon /etc/hosts sur le maître et de l'esclave est comme ci-dessous:

127.0.0.1 RM|slv localhost

192.168.1.101 RM

192.168.1.103 slv

quelqu'un peut-il me suggérer une solution?
toute aide est très apprécié.
grâce

Exécutez-vous iptables sur le namenode? Ou quelque chose d'autre qui serait de restreindre l'accès au port 9000?
Bon rapport, je vous remercie.

OriginalL'auteur masoumeh | 2014-01-02