Impossible de trouver la winutils binaire dans hadoop chemin binaire
J'obtiens l'erreur suivante lors du démarrage du namenode pour les dernières hadoop-version 2.2. Je n'ai pas trouvé winutils fichier exe dans hadoop dossier bin. J'ai essayé ci-dessous les commandes
$ bin/hdfs namenode -format
$ sbin/yarn-daemon.sh start resourcemanager
ERROR [main] util.Shell (Shell.java:getWinUtilsPath(303)) - Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:278)
at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:300)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:293)
at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:76)
at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.main(ResourceManager.java:863)
- Voir stackoverflow.com/questions/18630019/...
- Essayez de vous débarrasser de ce message d'erreur j'ai mis -Dhadoop.la maison.dir à une valeur raisonnable. Maintenant j'obtiens quelque chose comme (chemin d'accès local remplacé par le nom de la variable): impossible de localiser le fichier exécutable ${HADOOP_HOME}\bin\winutils.exe dans Hadoop binaires. Et devinez quoi: définition de la variable n'a pas fait que les binaires apparaissent. Aussi la priorité de l'ERREUR est erroné, car l'application semble continuer. À mes yeux, c'est un bug dans Hadoop 2.2.0.
- Il y a (selon d'aujourd'hui ouverte) jira pour cet> issues.apache.org/jira/browse/HADOOP-10051
- Il y a un HADOOP-11003.
- Veuillez accepter la réponse donnée par Prasad D. Il a fourni les fichiers à utiliser; ainsi, en évitant les efforts.
- C'est en partie doublon de ma réponse. Télécharger et source sont des liens de mon blog comme mentionné dans la réponse.
- C'est connu Hadoop bug avec Windows OS. issues.apache.org/jira/browse/SPARK-2356
- jaceklaskowski.gitbooks.io/mastering-apache spark/...
Vous devez vous connecter pour publier un commentaire.
Solution Simple :
Télécharger à partir de ici et ajouter à
$HADOOP_HOME/bin
(Source :Cliquez ici)
EDIT:
Pour hadoop-2.6.0 vous pouvez télécharger des fichiers binaires à partir de Titus Barik blog >>.
Je n'ai pas seulement besoin de point de
HADOOP_HOME
d'extraits du répertoire[path]
, mais aussi de créer un système de propriété-Djava.library.path=[path]\bin
à charge native des bibliothèques (dll).Si nous, prendre directement la distribution binaire d'Apache Hadoop 2.2.0 et essayer de le faire fonctionner sur Microsoft Windows, puis nous allons rencontrer l'ERREUR util.Shell: impossible de trouver la winutils binaire dans hadoop chemin binaire.
La distribution binaire d'Apache Hadoop 2.2.0 ne contient pas certains natifs de windows composants (comme winutils.exe, hadoop.dll etc.). Ces données sont nécessaires (non facultatif) pour exécuter Hadoop sur Windows.
Donc, vous avez besoin pour construire windows binaire natif de la distribution hadoop de codes sources suivantes "BUILD.txt" fichier situé à l'intérieur de la source de distribution d'hadoop. Vous pouvez suivre les messages ainsi de guide étape par étape de avec capture d'écran
Construire, Installer, Configurer et Exécuter Apache Hadoop 2.2.0 dans Microsoft Windows OS
ERREUR util.Shell: impossible de trouver la winutils binaire dans hadoop chemin binaire
Si vous faites face à ce problème lors de l'exécution autonome de l'application locale avec Spark (c'est à dire, après l'ajout de spark-assembly-x.x.x-hadoopx.x.x.jar ou la dépendance Maven pour le projet), une solution plus simple serait de mettre winutils.exe (télécharger à partir de ici) dans "C:\winutil\bin". Ensuite, vous pouvez ajouter winutils.exe à la hadoop de répertoire en ajoutant la ligne suivante dans le code:
Source: Cliquez Sur ici
hadoop/bin/bin/
. Il suffit donc de copier le winutilsbin
dossier dans hadoop estbin
dossier. (HADOOP_HOME
est définie dans l'env de vars)La déclaration
java.io.IOException: impossible de localiser le fichier exécutable null\bin\winutils.exe
explique que la valeur null est reçu lors de l'extension ou le remplacement d'une Variable d'Environnement. Si vous voyez la Source dans Shell.Java en Commun Package, vous trouverez que HADOOP_HOME variable n'est pas définie et que vous recevez la valeur null à la place de qui et d'où l'erreur.
Donc, HADOOP_HOME doit être définie pour cette correctement ou que la variable hadoop.la maison.dir de la propriété.
Espère que cette aide.
Grâce,
Kamleshwar.
Je viens de tomber sur ce problème tout en travaillant avec Eclipse. Dans mon cas, j'avais la bonne version Hadoop téléchargé (hadoop-2.5.0-cdh5.3.0.tgz), j'ai extrait le contenu et placé directement dans mon lecteur C. Puis je suis allé à
Eclipse->Debug/Run Configurations -> Environnement (onglet) -> et il ajouta
variable: HADOOP_HOME
Valeur: C:\hadoop-2.5.0-cdh5.3.0
Vous pouvez télécharger winutils.exe ici:
http://public-repo-1.hortonworks.com/hdp-win-alpha/winutils.exe
Puis de le copier sur votre
HADOOP_HOME/bin
répertoire.winutils.exe sont nécessaires pour hadoop pour effectuer hadoop commandes connexes. s'il vous plaît télécharger
hadoop-commune-2.2.0 fichier zip. winutils.exe peut être trouvé dans le dossier bin. Extraire le fichier zip et le copier dans le local hadoop/bin.
J'ai été confrontée au même problème. Retrait de la
bin\
de la HADOOP_HOME chemin résolu pour moi. Le chemin d'accès pour HADOOP_HOME variable devrait ressembler à quelque chose comme.Redémarrage du système peut être nécessaire. Dans mon cas, le redémarrage de l'IDE était suffisant.
Configurer HADOOP_HOME variable dans windows pour résoudre le problème.
Vous pouvez trouver la réponse dans
org/apache/hadoop/hadoop-common/2.2.0/hadoop-common-2.2.0-sources.jar!/org/apache/hadoop/util/Shell.java
:IOException de
HADOOP_HOME_DIR de
À partir de l'URL :
https://github.com/steveloughran/winutils/hadoop-
version
/binRemarque : Vous devez Définir les variables d'environnement:
Variable utilisateur:
Variable: HADOOP_HOME
Valeur: Hadoop ou une étincelle dir
Dans Pyspark, pour exécuter les locaux de spark application à l'aide de Pycharm utilisation ci-dessous les lignes de
J'ai fait le même problème dans windows. Je l'ai fixée par
Télécharger la version souhaitée de hadoop dossier (Dire si vous installez étincelle sur Windows puis hadoop version pour laquelle votre étincelle est construit pour l') à partir de cette le lien sous zip.
Extraire le zip dans le répertoire désiré.
Vous avez besoin d'avoir répertoire de la forme
hadoop\bin
(créer explicitement une tellehadoop\bin
structure de répertoire si vous le souhaitez) avecbin
contenant tous les fichiers contenus dansbin
dossier téléchargé hadoop. Il contient de nombreux fichiers tels que hdfs.dll, hadoop.dll etc. en plus winutil.exe.Maintenant créer une variable d'environnement
HADOOP_HOME
et mis à<path-to-hadoop-folder>\hadoop
. Puis ajouter;%HADOOP_HOME%\bin;
àPATH
variable d'environnement.Ouvrir une "nouvelle invite de commande" et de recommencer votre commande.
Winutils.exe est utilisé pour l'exécution de commandes de shell pour l'ÉTINCELLE.
Lorsque vous devez exécuter l'Étincelle sans installer Hadoop, vous avez besoin de ce fichier.
Étapes sont comme suit:
Télécharger le winutils.exe partir de l'emplacement suivant pour hadoop 2.7.1
https://github.com/steveloughran/winutils/tree/master/hadoop-2.7.1/bin
[NOTE: Si vous êtes à l'aide d'une version hadoop alors s'il vous plaît télécharger le winutils de correspondant hadoop dossier de la version sur GITHUB à partir de l'emplacement comme mentionné ci-dessus.]
Maintenant, créez un dossier 'winutils' dans le lecteur C:\. Maintenant, créez un dossier 'bin' à l'intérieur du dossier 'winutils" et copier le winutils.exe dans ce dossier.
Ainsi, l'emplacement de winutils.exe sera C:\winutils\bin\winutils.exe
Maintenant, ouvrez la variable d'environnement et de définir HADOOP_HOME=C:\winutil
[NOTE: s'il vous Plaît ne pas ajouter \bin dans HADOOP_HOME et pas besoin de définir HADOOP_HOME dans le Chemin d'accès]
Votre problème doit être résolu !!
J'ai utilisé "hbase-1.3.0" et "hadoop-2.7.3" versions. Réglage HADOOP_HOME variable d'environnement et de copie 'winutils.exe fichier de sous HADOOP_HOME/bin résout le problème sur un système d'exploitation windows.
Attention pour HADOOP_HOME de l'environnement dans le dossier d'installation de hadoop(/bin n'est pas nécessaire pour ces versions).
De plus, j'ai préféré à l'aide de la croix-plate-forme de l'outil cygwin à s'installer linux os fonctionnalité (autant que possible comme il le peut) car Hbase équipe vous recommandons de linux/unix env.