$HADOOP_HOME est obsolète ,Hadoop
J'ai essayé d'installer Hadoop sur un seul nœud de cluster (mon labtop-ubuntu 12.04).
J'ai suivi ce tutoriel et vérifié ligne par ligne deux fois .
http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/
tout semble correct. J'ai mis toutes les core-site.xml ,mapred-site.xml ,hdfs-site.xml .
quand je lance la commande suivante dans hduser su :
hduser@maziyar-Lenovo-IdeaPad-U300s:~$ /usr/local/hadoop/usr/sbin/start-all.sh
J'obtiens les erreurs suivantes :
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-namenode-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/masters: No such file or directory
starting jobtracker, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-jobtracker-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
J'ai ajouté à l'exportation HADOOP_HOME_WARN_SUPPRESS="TRUE" dans hadoop-env.sh et toujours le même message d'erreur.
Sur le fichier /home/hduser/.bashrc où je pense que mon erreur venant de j'ai :
# Set Hadoop-related environment variables
export HADOOP_HOME=/usr/local/hadoop
# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/jdk-7u10-linuxi586/usr/java/jdk1.7.0_10
# Some convenient aliases and functions for running Hadoop-related commands
unalias fs &> /dev/null
alias fs="hadoop fs"
unalias hls &> /dev/null
alias hls="fs -ls"
# If you have LZO compression enabled in your Hadoop cluster and
# compress job outputs with LZOP (not covered in this tutorial):
# Conveniently inspect an LZOP compressed file from the command
# line; run via:
#
# $ lzohead /hdfs/path/to/lzop/compressed/file.lzo
#
# Requires installed 'lzop' command.
#
lzohead () {
hadoop fs -cat $1 | lzop -dc | head -1000 | less
}
# Add Hadoop bin/ directory to PATH
export PATH=$PATH:$HADOOP_HOME/usr/sbin
J'ai ajouté /usr/sbin comme un répertoire bin parce que start-all.sh et les commandes sont là.
J'ai aussi essayé "HADOOP_PREFIX" au lieu de "HADOOP_HOME" dans le fichier bashrc mais toujours la même erreur.
J'ai ce dossier dans mes hadoop répertoire ,
maziyar@maziyar-Lenovo-IdeaPad-U300s:/usr/local/hadoop$ ls -lha
total 20K
drwxr-xr-x 5 hduser hadoop 4.0K May 30 15:25 .
drwxr-xr-x 12 root root 4.0K May 30 15:25 ..
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 etc
drwxr-xr-x 12 hduser hadoop 4.0K Jun 4 21:29 usr
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 var
J'ai téléchargé la dernière version d'apache hadoop de la semaine dernière: hadoop-1.1.2-1.i386.tr /min
- quelle est la version d'hadoop utilisez-vous?
- ressemble 1.1.2
- vous pouvez obtenir la version par
hadoop version
- 1.1.2 est utilisé
Vous devez vous connecter pour publier un commentaire.
J'ai essayé de réglage
export HADOOP_HOME_WARN_SUPPRESS="TRUE"
dans monconf/hadoop-env.sh
fichier et l'avertissement disparu. Bien, je suis toujours pas sûr de pourquoi cet avertissement est arrivé en première place.Remplacement
HADOOP_HOME
parHADOOP_PREFIX
dans le~/.bashrc
résout ce pour moi.Avez-vous essayez de vous déconnecter de la session en cours, après avoir fait cette modification et essayé de nouveau? Les modifications que vous apportez à votre fête profil entrera en vigueur lorsque vous vous connectez dans le shell de nouveau.
Votre bash session peut encore avoir
HADOOP_HOME
variable définie. Essayez deecho $HADOOP_HOME
et voir si vous obtenez n'importe quelle valeur.Si vous obtenez une valeur pour
HADOOP_HOME
cela signifie que le shell obtient à partir de certains fichiers de configuration, vérifier les fichiers (~/.bashrc
,~/.profile
,/etc/profile/
,/etc/bash.bashrc
, etc.) et supprimer le fichier exportéHADOOP_HOME
variable.D'ouvrir une nouvelle session après que vous avez fixé
HADOOP_PREFIX
variable d'environnement au lieu deHADOOP_HOME
dans~/.bashrc
et vous êtes sûr$HADOOP_HOME
n'est pas exporté dans tout fichier de config, et vous ne devriez pas voir que le message d'avertissement.Obsolète erreur signifie que la version que vous utilisez est considéré comme sans importance ou il va arrêter le support de rapidement lire sur le site web.
Par cela, je veux dire que vous avez installé Openjdk dans hadoop. Ce que j'ai fait c'est que au lieu d'installer openjdk j'ai installé Oraclejdk. Peut-être que vous devriez essayer de faire ça.
Lemme savoir si cela a aidé.
Ce qui concerne.
$HADOOP_HOME
est obsolète est un message d'avertissement . Aujourd'hui, j'ai installé à l'aide de Micheal site web de l'instruction sur Ubuntu et Il a bien fonctionné.