Comment soumettre une étincelle de travail sur une distance de maître nœud dans le fil en mode client?

J'ai besoin de soumettre étincelle apps/travaux sur une distance étincelle de cluster. J'ai actuellement étincelle sur ma machine et l'adresse IP du nœud maître en tant que fil-client. Btw, ma machine n'est pas dans le cluster.
- Je soumettre mon travail avec cette commande

./spark-submit --class SparkTest --deploy-mode client /home/vm/app.jar 

- Je avoir l'adresse de mon maître codé en dur dans mon application sous la forme

val spark_master = spark://IP:7077

Et pourtant, tout ce que j'obtiens l'erreur est

16/06/06 03:04:34 INFO AppClient$ClientEndpoint: Connecting to master spark://IP:7077...
16/06/06 03:04:34 WARN AppClient$ClientEndpoint: Failed to connect to master IP:7077
java.io.IOException: Failed to connect to /IP:7077
at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:216)
at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:167)
at org.apache.spark.rpc.netty.NettyRpcEnv.createClient(NettyRpcEnv.scala:200)
at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:187)
at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:183)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.net.ConnectException: Connection refused: /IP:7077

Ou plutôt si j'utilise

./spark-submit --class SparkTest --master yarn --deploy-mode client /home/vm/test.jar

- Je obtenir

Exception in thread "main" java.lang.Exception: When running with master 'yarn' either HADOOP_CONF_DIR or YARN_CONF_DIR must be set in the environment.
at org.apache.spark.deploy.SparkSubmitArguments.validateSubmitArguments(SparkSubmitArguments.scala:251)
at org.apache.spark.deploy.SparkSubmitArguments.validateArguments(SparkSubmitArguments.scala:228)
at org.apache.spark.deploy.SparkSubmitArguments.<init>(SparkSubmitArguments.scala:109)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:114)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

Ai-je vraiment besoin d'avoir hadoop configuré en tant que bien dans mon poste de travail? Tout le travail sera fait à distance et cette machine ne fait pas partie de l'amas.
Je suis à l'aide de l'Étincelle 1.6.1.

OriginalL'auteur Mnemosyne | 2016-06-06