$HADOOP_HOME est obsolète ,Hadoop

J'ai essayé d'installer Hadoop sur un seul nœud de cluster (mon labtop-ubuntu 12.04).
J'ai suivi ce tutoriel et vérifié ligne par ligne deux fois .
http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/

tout semble correct. J'ai mis toutes les core-site.xml ,mapred-site.xml ,hdfs-site.xml .

quand je lance la commande suivante dans hduser su :

hduser@maziyar-Lenovo-IdeaPad-U300s:~$ /usr/local/hadoop/usr/sbin/start-all.sh

J'obtiens les erreurs suivantes :

Warning: $HADOOP_HOME is deprecated.

starting namenode, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-namenode-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/masters: No such file or directory
starting jobtracker, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-jobtracker-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory

J'ai ajouté à l'exportation HADOOP_HOME_WARN_SUPPRESS="TRUE" dans hadoop-env.sh et toujours le même message d'erreur.

Sur le fichier /home/hduser/.bashrc où je pense que mon erreur venant de j'ai :

# Set Hadoop-related environment variables
export HADOOP_HOME=/usr/local/hadoop

# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/jdk-7u10-linuxi586/usr/java/jdk1.7.0_10

# Some convenient aliases and functions for running Hadoop-related commands
unalias fs &> /dev/null
alias fs="hadoop fs"
unalias hls &> /dev/null
alias hls="fs -ls"

# If you have LZO compression enabled in your Hadoop cluster and
# compress job outputs with LZOP (not covered in this tutorial):
# Conveniently inspect an LZOP compressed file from the command
# line; run via:
#
# $ lzohead /hdfs/path/to/lzop/compressed/file.lzo
#
# Requires installed 'lzop' command.
#
lzohead () {
    hadoop fs -cat $1 | lzop -dc | head -1000 | less
}

# Add Hadoop bin/ directory to PATH
export PATH=$PATH:$HADOOP_HOME/usr/sbin

J'ai ajouté /usr/sbin comme un répertoire bin parce que start-all.sh et les commandes sont là.

J'ai aussi essayé "HADOOP_PREFIX" au lieu de "HADOOP_HOME" dans le fichier bashrc mais toujours la même erreur.

J'ai ce dossier dans mes hadoop répertoire ,

maziyar@maziyar-Lenovo-IdeaPad-U300s:/usr/local/hadoop$ ls -lha
total 20K
drwxr-xr-x  5 hduser hadoop 4.0K May 30 15:25 .
drwxr-xr-x 12 root   root   4.0K May 30 15:25 ..
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 etc
drwxr-xr-x 12 hduser hadoop 4.0K Jun  4 21:29 usr
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 var

J'ai téléchargé la dernière version d'apache hadoop de la semaine dernière: hadoop-1.1.2-1.i386.tr /min

  • quelle est la version d'hadoop utilisez-vous?
  • ressemble 1.1.2
  • vous pouvez obtenir la version par hadoop version
  • 1.1.2 est utilisé
InformationsquelleAutor Mazy | 2013-06-05