Toujours obtenir "Impossible de charger les informations de domaine à partir de SCDynamicStore" après correction de bogue
J'ai installé Hadoop
et Pig
à l'aide de brew install hadoop
et brew install pig
.
J'ai lu ici qui vous permettra d'obtenir Unable to load realm info from SCDynamicStore
message d'erreur, sauf si vous ajoutez:
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
à votre hadoop-env.sh
fichier, que j'ai.
Cependant, lorsque je lance hadoop namenode -format
je vois encore:
java[1548:1703] Unable to load realm info from SCDynamicStore
parmi les sorties.
Ce que quelqu'un sait pourquoi je suis encore en train?
source d'informationauteur FilmiHero
Vous devez vous connecter pour publier un commentaire.
Comme dturnanski l'indique, vous avez besoin d'utiliser une ancienne version de JDK. Vous pouvez le faire dans la
hadoop-env.sh
fichier en changeant l'JAVA_HOME
paramètre pour:(Note de la tombe citations ici.) Le problème est résolu pour moi.
J'ai eu le même problème avec java 7. fonctionne avec java 6