Hadoop: besoin de root, mot de passe après l'entrée “start-all.sh”
J'ai installé Hadoop et SSH sur mon portable. "ssh localhost" fonctionne très bien. Après le formatage de HDFS, j'ai essayé de commencer hadoop.
munichong@GrindPad:~$ sudo /usr/sbin/start-all.sh
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-GrindPad.out
root@localhost's password:
root@localhost's password: localhost: Permission denied, please try again.
localhost: Permission denied (publickey,password).
Il nécessite un mot de passe. Mon rôle est "munichong". Mais munichong du mot de passe ne fonctionne pas ici. Ici, mon rôle a changé à "root". Je ne sais pas si j'ai raté quelque chose ici.
Est-ce que quelqu'un peut m'aider?
Merci!
si vous êtes l'exécuter avec
sudo
, alors bien sûr, il serait attendons de vous d'être le root
et voulez le mot de passe root et pas le vôtre! Ou suis-je manque ici quelque chose de terriblement!
OriginalL'auteur Munichong | 2013-03-04
Vous devez vous connecter pour publier un commentaire.
Solution:
1) Générer des clés ssh sans mot de passe
2) Copie id_rsa.pub autorisés-clés
3) Démarrer le ssh localhost
4) maintenant, allez à la hadoop sbin répertoire et lancez hadoop
5)mot de passe ne demande pas
lors de la génération de ssh, le champ mot de passe est vide, de sorte que lors du démarrage de hadoop services de ses démarrer automatiquement une par une, sans poser aucune password.@PythonNewHand
OriginalL'auteur KARTHIKEYAN.A
Comme dans le cas ci-dessus munichong est un utilisateur (munichong@GrindPad)
Dans mon cas: connectez-vous en tant que hduser
Tout d'abord, supprimez le répertoire
sudo rm -rf ~/.ssh
Utiliser pour re-générer /.ssh annuaire avec configuration par défaut:
Ici, nous ne copiez et collez le contenu de id_rsa.pub dans authorised_keys fichier créé à l'aide de la commande ci-dessus)
[hduser@localhost ~]$
chmod -R 750 ~/.ssh/authorized_keys
[hduser@localhost ~]$
ssh localhost
[hduser@localhost ~]$
jps
18531 Jps
[hduser@localhost ~]$
start-all.sh
Tous les démons de commencer
Remarque: Parfois, en raison de fichiers de journaux autre problème, dans ce cas, supprimez seuls le point (.) les fichiers de /usr/local/hadoop/logs.
OriginalL'auteur Nishant Shrivastava
Je suis tombé sur le même problème. Comme Amar dit,si vous l'utilisez en tant que sudo hadoop va demander le mot de passe root.
Si vous n'avez pas de mot de passe root, vous pouvez configurer une aide
l'URL ci-dessous vous donne plus de détails à propos de la gestion de l'utilisateur.
https://help.ubuntu.com/12.04/serverguide/user-management.html
OriginalL'auteur javamak
De créer et de Configuration de SSH Certificats
Hadoop nécessite un accès SSH pour gérer ses nœuds, c'est à dire à distance des machines, plus la machine locale. Pour notre seul nœud de configuration de Hadoop, nous avons donc besoin de configurer un accès SSH localhost.
Donc, nous avons besoin de SSH et en cours d'exécution sur notre machine, et les a configurés pour autoriser SSH authentification par clé publique.
Hadoop utilise le protocole SSH (pour accéder à ses nœuds) qui nécessiterait normalement à l'utilisateur d'entrer un mot de passe. Toutefois, cette exigence peut être éliminée par la création et la configuration de SSH certificats en utilisant les commandes suivantes. Si l'on vous demande un nom de fichier, il suffit de laisser le champ vide et appuyez sur la touche entrée pour continuer.
vérifier ce site
OriginalL'auteur bun
Il semble que vous avez ouvert une session en tant que root et en invoquant start-all.sh.
Au lieu de cela, la connexion en tant que propriétaire du répertoire $SPARK_HOME et invoquer la spark
start-all.sh.
(ou)
Permettre à l'utilisateur hadoop être le propriétaire du répertoire $SPARK_HOME et actuellement connecté en tant que root, puis de commande se présente comme suit:
Hypothèse:
un CHEMIN a référence au répertoire $SPARK_HOME/bin
b) Certificat d'authentification est configurée pour l'utilisateur hadoop
OriginalL'auteur AVA
journal en super-utilisateur ou root
donner la permission à l'utilisateur
pour votre exemple de log de l'utilisateur: munichong
HADOOP_HOME = /usr/local/hadoop/
OriginalL'auteur user3029620