Nom de nœud est en mode sans échec. Pas en mesure de quitter
root# bin/hadoop fs -mkdir t
mkdir: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/t. Name node is in safe mode.
pas en mesure de créer quoi que ce soit dans hdfs
Je n'ai
root# bin/hadoop fs -safemode leave
Mais en montrant
safemode: Unknown command
quel est le problème?
- hadoop.apache.org/docs/stable/hdfs_user_guide.html#Safemode pourrait aider.
- Hey Sree, s'il vous plaît ne pas mettre [résolu] dans le titre. Cela encombre les questions et les rend plus difficile à analyser. Au lieu de cela, si il y a une réponse qui résout votre problème, il marque que l'on a accepté la réponse en cliquant sur la case à cocher en regard de la réponse. Cela modifie la couleur sur la page principale, aussi, de sorte que les gens sachent qu'elle est sans réponse. Espérons que cette aide!
- ok jmort253.désolé, j'ai inclus [résolu] dans chaque question. ok je vil supprimer. Comme je l'ai édité pour toutes la question de mon privilège est allé.maintenant, j'ai la permission de modifier uniquement par demain.est ce bon si je l'ai demain
- Salut Sree, j'ai déjà fixé pour vous. Vous êtes tous ensemble! 😀
- ok.Thxs pour la correction de mon erreur 🙂
- Dans mon cas, il était sûr nœud, car les ressources étaient faibles (en cours d'exécution sur le panneau)
- voici la actuellement lien de travail pour Hadoop 3.2.0: hadoop.apache.org/docs/r3.2.0/hadoop-project-dist/hadoop-hdfs/...
- Et voici ce qui est actuellement en train de travailler le lien pour Hadoop «stable» (actuellement 2.9.x): hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/...
Vous devez vous connecter pour publier un commentaire.
Dans l'ordre à force de laisser le namenode laisser safemode, à la suite de la commande doit être exécutée:
Vous obtenez
Unknown command
erreur pour votre commande comme-safemode
n'est pas une sous-commande pourhadoop fs
, mais il est dehadoop dfsadmin
.Aussi après la commande ci-dessus, je vous suggère pour une fois exécuté
hadoop fsck
de sorte que les éventuelles incohérences glissée dans le hdfs pourrait être triés.Mise à jour:
Utilisation
hdfs
de commande au lieu dehadoop
de commande pour les nouvelles distributions. Lehadoop
commande est obsolète:hadoop dfsadmin
a été abandonné et est donchadoop fs
de commande, tous les hdfs tâches connexes sont déplacés pour une commande séparéehdfs
.hadoop dfsadmin
de commande, il m'a donné ceci:______ DEPRECATED: Use of this script to execute hdfs command is deprecated. Instead use the hdfs command for it. Safe mode is OFF
______ ... mais encore couru. Semble la suggestion de @user3316017 ci-dessous est la syntaxe recommandée.hdfs dfsadmin -safemode leave
comand est exécuté en raison de cluster est plein, il est parfois possible de sortir de la situation immédiatement par le chaînage de la commande pour le nettoyage des trucs, par exemplehdfs dfsadmin -safemode leave; hdfs dfs -rm -skipTrash /path/to/stuff/to/delete
sudo -u hdfs hdfs dfsadmin -safemode leave
essayer cela, il va travailler
La Commande n'a pas fonctionné pour moi, mais la suite n'a
J'ai utilisé le
hdfs
de commande au lieu de lahadoop
commande.Découvrez http://ask.gopivotal.com/hc/en-us/articles/200933026-HDFS-goes-into-readonly-mode-and-errors-out-with-Name-node-is-in-safe-mode- lien trop
Si vous utilisez Hadoop version 2.6.1 ci-dessus, tandis que la commande fonctionne, il se plaint de ce que son amorti. En fait je ne pouvais pas utiliser le
hadoop dfsadmin -safemode leave
parce que j'étais en train de Hadoop dans un conteneur Docker et qui commande comme par magie échoue lorsqu'il est exécuté dans le récipient, de sorte que je n'ai fait que cela. J'ai vérifié doc et trouvédfs.safemode.threshold.pct
dans la documentation qui ditj'ai donc changé le
hdfs-site.xml
dans la suite (Dans les anciennes versions Hadoop, apparemment, vous avez besoin de le faire danshdfs-default.xml
:Essayer cette
vérifier l'état de safemode
Si elle est toujours en mode sans échec ,puis celui de la raison en serait pas assez d'espace dans votre nœud, vous pouvez vérifier votre nœud de l'utilisation du disque à l'aide de :
si la partition racine est pleine, supprimez des fichiers ou ajouter de l'espace dans la partition racine et réessayer première étape.
Namenode entre en mode sans échec quand il y a un manque de mémoire. En conséquence, la SF devient lisible uniquement. Cela signifie que l'on ne peut pas créer un supplémentaire de fichier ou de répertoire dans le HDFS. Pour sortir du mode sans échec, la commande suivante est utilisée:
Si vous utilisez cloudera manager:
Mais il ne permet pas toujours de résoudre le problème. La solution complète est de faire de l'espace dans la mémoire. Utilisez la commande suivante pour vérifier votre utilisation de la mémoire.
Si vous utilisez cloudera, vous pouvez également vérifier si le HDFS montre quelques signes de mauvaise santé. Il doit probablement être en montrant un peu de problème de mémoire concernant le namenode. Allouer plus de mémoire en suivant les options disponibles. Je ne suis pas sûr de ce que les commandes à utiliser pour la même si vous n'êtes pas à l'aide de cloudera manager mais il doit y avoir un moyen. Espérons que cela aide! 🙂
mode sans échec sur les moyens (HDFS est en mode LECTURE seule)
safe mode off moyens (HDFS est accessible en Écriture et lisible à la mode)
Dans
Hadoop 2.6.0
, nous pouvons vérifier le statut d'un nom de nœud à l'aide des commandes ci-dessous:POUR VÉRIFIER LE nom de l'état du nœud de
POUR ENTRER EN MODE SANS ÉCHEC:
DE QUITTER mode sans échec
Exécutez la commande ci-dessous à l'aide de la HDFS OS de l'utilisateur pour désactiver le mode sans échec:
utiliser la commande ci-dessous pour désactiver le mode sans échec
$> hdfs dfsadmin -safemode laisser