Comment trouver le répertoire d'installation de Spark?
Je veux changer spark-env.sh
. Comment puis-je trouver le répertoire d'installation de ubuntu??
J'ai regardé dans l'INTERFACE utilisateur, mais ne trouve rien.
whereis spark
résultat : spark:
Voici le journal pour localiser commande
recherchez étincelle
/home/sys6002/.netbeans/8.0.2/apache-tomcat-8.0.15.0_base/temp/spark-ba1ea995-b959-43f4-ab6c-7d9f1ee5fcc1/blockmgr-db3a931b-7f1a-423e-b5da-b75a958a1909/11
/home/sys6002/.netbeans/8.0.2/apache-tomcat-8.0.15.0_base/temp/spark-ba1ea995-b959-43f4-ab6c-7d9f1ee5fcc1/blockmgr-db3a931b-7f1a-423e-b5da-b75a958a1909/13
/home/sys6002/.netbeans/8.0.2/apache-tomcat-8.0.15.0_base/temp/spark-ba1ea995-b959-43f4-ab6c-7d9f1ee5fcc1/httpd-16b4313e-72dc-4665-b4ac-df491869386d/files
/home/sys6002/.netbeans/8.0.2/apache-tomcat-8.0.15.0_base/temp/spark-ba1ea995-b959-43f4-ab6c-7d9f1ee5fcc1/httpd-16b4313e-72dc-4665-b4ac-df491869386d/jars
/home/sys6002/Desktop/diff spark hadoop.png
/home/sys6002/Desktop/sparkmain
/home/sys6002/Downloads/learning-spark-master.zip
/home/sys6002/Downloads/mongo-spark-master
/home/sys6002/Downloads/spark-1.5.1
/home/sys6002/Downloads/spark-1.5.1-bin-hadoop2.6
/home/sys6002/Downloads/spark-1.5.1-bin-hadoop2.6 (2)
/home/sys6002/Downloads/spark-1.5.1-bin-hadoop2.6.tgz
/home/sys6002/Downloads/spark-1.5.1-bin-without-hadoop
/home/sys6002/Downloads/spark-cassandra-connector-master
/home/sys6002/Downloads/spark-core_2.9.3-0.8.0-incubati
home/sys6002/anaconda3/pkgs/odo-0.3.2-np19py34_0/lib/python3.4/site-packages/odo/backends/tests/__pycache__/test_sparksql.cpython-34.pyc
/home/sys6002/spark-example/a.txt
/home/sys6002/spark-example/a.txt~
/home/sys6002/spark-example/pom.xml
/home/sys6002/spark-example/pom.xml~
/home/sys6002/spark-example/src
/home/sys6002/spark-example/src/main
/home/sys6002/spark-example/src/test
/home/sys6002/spark-example/src/main/java
/home/sys6002/spark-example/src/main/java/com
/home/sys6002/spark-example/src/main/java/com/geekcap
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld/App.java
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld/WordCount.java~
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld/sparkexample
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld/sparkexample/WordCount.java
/home/sys6002/spark-example/src/main/java/com/geekcap/javaworld/sparkexample/WordCount.java~
/home/sys6002/spark-example/src/test/java/com/geekcap/javaworld/AppTest.java
/usr/share/app-install/desktop/lightspark:lightspark.desktop
/usr/share/app-install/desktop/sparkleshare:sparkleshare-invite-opener.desktop
/usr/share/app-install/desktop/sparkleshare:sparkleshare.desktop
source d'informationauteur Anil
Vous devez vous connecter pour publier un commentaire.
Vous pouvez essayer ces deux commandes:
locate spark
whereis spark
Pourquoi avez-vous besoin le répertoire home de l'Étincelle à tous? Vous n'avez pas nécessairement besoin d'avoir une installation locale de Spark pour exécuter Étincelle applications. Vous avez besoin d'avoir un local d'installation de package Spark avoir Étincelle Autonome ou de la distribuer sur de la LAINE ou de Mesos clusters, mais il ne semble pas être votre cas.
Vous avez besoin de bocaux et de l'Étincelle par défaut fera le reste.
Vous pouvez le voir sur l'INTERFACE Web, car il est par défaut lorsque vous créez un SparkContext instance.
Dans l'ensemble, la Spark est dans le projet que vous êtes en développement comme un tas de pots et lorsque votre Spark application démarre, il crée un SparkContext que, selon votre maître URL de se connecter à l'environnement d'exécution.
Variables d'environnement dans
spark-env.sh
peut être facilement fixé à l'aide deSparkContext
.Cela a également travaillé pour moi:
cd $SPARK_HOME
Il faudra vous dans le répertoire où l'Étincelle a été installé, si cette variable d'environnement est définie.
Grâce à Jacek, j'ai trouvé que l'Étincelle n'est pas installé sur ma machine et j'ai été tout simplement à l'aide de l'étincelle libararies dans mon projet.
À ajouter de plus,pour Exécuter spark application en java projet, Vous n'avez pas nécessairement besoin d'
apache spark
scala
etpyspark
.Y compris les pots, votre travail fait