java.net.ConnectException: Connexion refusée erreur lors de l'exécution de la Ruche
Je suis en train de travailler à travers une ruche tutoriel dans lequel je entrez les informations suivantes:
load data local inpath '/usr/local/Cellar/hive/0.11.0/libexec/examples/files/kv1.txt' overwrite into table pokes;
Thits résultats dans l'erreur suivante:
FAILED: RuntimeException java.net.ConnectException: Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused
Je vois qu'il ya des réponses sur SA, ayant à faire avec la configuration de mon adresse ip et de l'hôte local, mais je ne suis pas familier avec les concepts dans les réponses. Je te remercie de tout ce que vous pouvez me dire sur les fondements de ce qui provoque ce genre de réponse et comment le résoudre. Merci!
OriginalL'auteur ouonomos | 2013-11-24
Vous devez vous connecter pour publier un commentaire.
C'est parce que la ruche n'est pas en mesure de communiquer avec votre
namenode
Vérifier si votre
hadoop
services a démarré correctement.Exécutez la commande
jps
de voir ce que tous les services sont en cours d'exécution.cela signifie que aucun de vos hadoop services sont en cours d'exécution. avez-vous configuré hadoop?
Merci. Je pense que j'ai tout compris -- lorsque vous lancez la ruche, vous devez d'abord exécuter la start-all.sh script, correct? Une fois que je l'ai fait, j'ai eu la liste complète des juges de paix des services et de la ConnectException s'en alla. J'avais mal lu l'start-all.sh comme quelque chose à être fait qu'une seule fois lors de la configuration initiale.
vous avez raison 🙂 démarrer-tous va démarrer tous les services hadoop. Je vous suggère de commencer namenode et datanode séparément et de les exécuter start-mapred.sh. De cette façon, vous pouvez facilement voir ce qui se passe dans ces nœuds. Cela vous aidera à débogage.
OriginalL'auteur vishnu viswanath
La raison pour laquelle vous obtenez cette erreur, c'est que la Ruche besoins hadoop comme base. Donc, vous avez besoin pour commencer Hadoop premier.
Voici quelques étapes.
Etape 1: télécharger hadoop et décompressez-le
Etape 2: cd #your_hadoop_path
Etape 3: ./bin/hadoop namenode -format
Etape 4: ./sbin/start-all.sh
Et ensuite, retournez à #your_hive_path et début de la ruche encore
Qu'est-ce que l'erreur d'info?
OriginalL'auteur Haimei
Facile façon que j'ai trouvée pour modifier le fichier /etc/hosts. par défaut, il ressemble
juste de modifier et de faire 127.0.1.1 à l'adresse 127.0.0.1 c'est ça , le redémarrage de votre coquille et redémarrez votre cluster en start-all.sh
OriginalL'auteur Amey Jadiye
même question lorsqu'il est configuré de la ruche.
résolu par le changement de mon /etc/hostname
autrefois, il est mon user_machine_name
après je l'ai changé pour localhost, puis il est allé bien
Je suppose que c'est parce que hadoop peut vouloir résoudre le nom d'hôte à l'aide de ce fichier /etc/hostname, mais il l'a réalisé à votre user_machine_name tandis que les hadoop service est en cours d'exécution sur l'hôte local
OriginalL'auteur lukalau
J'ai été en mesure de résoudre le problème en exécutant la commande ci-dessous:
Cela permettrait de s'assurer que la Ruche service a commencé.
Ensuite, à partir de la Ruche était simple.
OriginalL'auteur Keshav Pradeep Ramanath