L'obtention de NullPointerException lors de l'exécution de l'Étincelle Code Zeppelin 0.7.1

J'ai installé Zeppelin 0.7.1. Quand j'ai essayé d'exécuter l'Exemple de l'étincelle programme(qui a été disponible avec Zeppelin Tutorial portable), j'obtiens l'erreur suivante

java.lang.NullPointerException
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:391)
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:380)
    at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146)
    at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:828)
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70)
    at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:483)
    at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
    at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    at java.lang.Thread.run(Thread.java:745)

J'ai aussi installer le fichier de configuration(zeppelin-env.sh) pour pointer vers mon Étincelle installation & Hadoop répertoire de configuration

export SPARK_HOME="/${homedir}/sk"
export HADOOP_CONF_DIR="/${homedir}/hp/etc/hadoop"

L'Étincelle de la version que j'utilise est 2.1.0 & Hadoop est 2.7.3

Aussi je suis en utilisant la valeur par défaut de l'Étincelle Interprète de Configuration(si l'Étincelle est configuré pour s'exécuter dans Local mode)

Suis-je manqué quelque chose?

PS : je suis en mesure de se connecter à l'allumage du Terminal à l'aide de spark-shell

OriginalL'auteur Raj | 2017-04-08