R pour la Ruche de connexion à l'aide de RHive Paquet
J'ai installé R 2.15.2 sur les PC Windows.
Hadoop & de la Ruche sont sur un autre PC.
J'ai chargé RHive et de ses dépendances à R.
Maintenant, je suis en train d'essayer de se connecter à la Ruche.
> Sys.setenv(HIVE_HOME="/home/hadoop/hive-0.7.0-cdh3u0")
> Sys.setenv(HADOOP_HOME="/home/hadoop/hadoop-0.20.2-cdh3u0")
> library(RHive)
> rhive.env(ALL=TRUE)
Ruche Home Directory : /home/hadoop/ruche-0.7.0-cdh3u0
Hadoop Home Directory : /home/hadoop/ruche-0.7.0-cdh3u0
Hadoop Répertoire Conf :
Aucune RServe
Déconnecté HiveServer et HDFS
RHive Liste Des Bibliothèques
C:/Program Files/R/R-2.15.2/library/RHive/java/rhive_udf.jar /home/hadoop/ruche-0.7.0-cdh3u0/conf
> rhive.init()
[1] "il n'y a pas d'esclaves fichier de HADOOP. donc, vous devriez passer hôtes argument lorsque vous appelez rhive.connect()."
Erreur dans .jnew("org/apache/hadoop/conf/Configuration") :
java.lang.ClassNotFoundException
En outre: le message d'Avertissement:
Dans le fichier(fichier, "rt") :
ne peut pas ouvrir un fichier "/home/hadoop/hadoop-0.20.2-cdh3u0/conf/esclaves": Aucun fichier ou répertoire de
> rhive.connect(hdfsurl="hdfs://212.63.135.149:9000/")
Erreur .jnew("org/apache/hadoop/conf/Configuration") :
java.lang.ClassNotFoundException
Le résultat est erreur de connexion!
même essayé
rhive.connect(host = "212.63.135.149", port = 10000, hdfsurl="hdfs://212.63.135.149:9000/")
, mais pas de l'utiliser.
Vous devez vous connecter pour publier un commentaire.
J'ai eu le même problème il y a quelques semaines lors de l'installation de RHive. C'est parce que certains fichiers jar ne sont pas dans le classpath qui est défini dans rhive.init.
Vous devez définir les arguments de la ruche, libs, hadoop_home, hadoop_conf, hlibs qui indiquent où ces fichiers jar sont situés.
J'ai d'abord installé à partir de la source, qui a travaillé avec rhive.init mais rhive.connect ne fonctionne pas correctement. Il a fonctionné comme un charme quand j'ai installé la Ruche par le biais de la Cloudera manager https://ccp.cloudera.com/display/CDH4DOC/Hive+Installation. Donc je vous conseille de suivre les instructions, il est bien documenté.
Probablement, c'est parce que de mal Hadoop version que vous utilisez.
RHive ne fonctionne pas avec du FIL, puis utiliser hadoop-0.20.205.0 ou plus tôt.
Je fixe avec fixation rhive_udf.jar classpath (qui se trouve dans RHive répertoire source, après la construction)
Puis testez nouvellement ajouté le classpath avec :
Vous devriez voir/usr/lib64/R/library/RHive/java/rhive_udf.jar " dans une liste!
Puis redémarrez R - et ici vous allez!