Spark : Erreur qui n'a Pas trouvé la valeur de SC
Je viens de commencer avec Spark. J'ai CDH5 Installé avec Spark . Cependant lorsque j'essaie d'utiliser sparkcontext il donne une Erreur comme ci-dessous
<console>:17: error: not found: value sc
val distdata = sc.parallelize(data)
J'ai fait des recherches à ce sujet et a trouvé erreur: pas trouvé: valeur sc
et essayé de démarrer l'étincelle contexte avec ./spark-shell . Il donne une erreur No such File or Directory
Vous devez vous connecter pour publier un commentaire.
Vous pouvez démarrer
spark-shell
de départ avec./
si vous êtes dans son répertoire oupath/to/spark-shell
si vous êtes ailleurs.Aussi, si vous êtes en cours d'exécution d'un script avec
spark-submit
, vous devez l'initialisersc
commeSparkContext
première:spark-shell
? Il n'est pas dans votre système/bin
par défaut, vous devez l'exécuter comme/path/to/spark-shell
spark-shell
ou avez-vous simplement d'utiliser votrescala
compilateur?spark-shell
peuvent être trouvés dans votre étincelle répertoire àbin/spark-shell
SparkContext
comme je l'ai suggéré?Ajouter étincelle répertoire de chemin alors vous pouvez utiliser spark-shell à partir de n'importe où.
Ajouter
import org.apache.spark.SparkContext
si vous l'utilisez dans une étincelle de la soumettre de travail pour créer une étincelle contexte à l'aide de:où conf est déjà défini.
De départ d'un nouveau terminal, résout le problème dans mon cas.
Vous avez besoin pour exécuter Hadoop démons première (exécuter cette commande "start-all.sh"). Ensuite, essayez