Spark application jette javax.servlet.FilterRegistration

Je suis en utilisant Scala pour créer et exécuter une Étincelle application localement.

Mon build.sbt:

name : "SparkDemo"
version : "1.0"
scalaVersion : "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0"    exclude("org.apache.hadoop", "hadoop-client")
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.2.0"
libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.6.0"  excludeAll(
ExclusionRule(organization = "org.eclipse.jetty"))
libraryDependencies += "org.apache.hadoop" % "hadoop-mapreduce-client-core" % "2.6.0"
libraryDependencies += "org.apache.hbase" % "hbase-client" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-server" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-common" % "0.98.4-hadoop2"
mainClass in Compile := Some("demo.TruckEvents")

Au cours de l'exécution j'obtiens l'exception:

Exception in thread "main" java.lang.ExceptionInInitializerError
lors de l'appel de... Causés par: java.lang.SecurityException: classe
"javax.servlet.FilterRegistration"'s signataire de l'information ne correspond pas à
signataire de l'information des autres classes du même package

L'exception est déclenchée ici:

val sc = new SparkContext("local", "HBaseTest")

Je suis à l'aide de l'Ide, Scala/SBT plugin.

J'ai vu que d'autres personnes ont aussi ce problème suggestion de solution. Mais c'est un build maven... Est mon sbt mal ici? Ou toute autre suggestion comment je peux résoudre ce problème?

InformationsquelleAutor Marco | 2015-01-22