De base Étincelle exemple ne fonctionne pas

Je suis Étincelle d'apprentissage et voulait courir le plus simple possible cluster composé de deux machines physiques. J'ai fait toutes les configuration de base et il semble être très bien. La sortie du démarrage automatique de script se présente comme suit:

[username@localhost sbin]$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/username/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.master.Master-1-localhost.out
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /home/sername/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.worker.Worker-1-localhost.out
[email protected].???.??: starting org.apache.spark.deploy.worker.Worker, logging to /home/username/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.worker.Worker-1-localhost.localdomain.out

donc pas d'erreurs ici et il semble qu'un nœud Maître est en cours d'exécution ainsi que deux nœuds du Travailleur. Cependant quand j'ouvre l'interface WebGUI à 192.168.???.??:8080, il ne répertorie que l'un travailleur local. Mon problème est similaire à celui décrit ici: Spark Clusters: travailleur info n'apparaît pas sur l'INTERFACE web mais Il ne se passe rien dans mon fichier /etc/hosts. Tout ce qu'il contient est:

127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6 

Ce qui me manque?
Les deux machines sont en cours d'exécution Fedora Workstation x86_64.

La plus simple possible du cluster dans un autonome cluster. Vous pourriez commencer par lire ce qui suit documentation.
Pourriez-vous commencer avec une description de la configuration de votre réseau et l'ajout de logs? Aussi, si vous avez quelques détails utiles à ajouter juste modifier la question.
OK, donc le problème est maître de configuration. Depuis sa /etc/hosts fournit seulement localhost configuration de cette information est transmise au travailleur à distance. Il essaie de se connecter au maître sur localhost (ce qui est visible dans ses journaux) et, évidemment, échoue.
Vous devez faire de votre maître accessibles à partir de la travailleur à distance et mise à jour de la configuration ou vous pouvez essayer de transmettre à tous les ports requis par ssh.
Soit confiure SPARK_MASTER_IP de sorte qu'il pointe vers un accès par un travailleur ou de fournir de l'entrée dans /etc/hosts qui correspond au nom d'hôte et accessible (pas localhost) IP. Cela devrait être suffisant.

OriginalL'auteur Krzysiek Setlak | 2016-02-16