Spark contexte " sc " non défini

Je suis nouveau à l'Étincelle et je suis en train d'installer le PySpark en se référant au site ci-dessous.

http://ramhiser.com/2015/02/01/configuring-ipython-notebook-support-for-pyspark/

J'ai essayé d'installer les deux prêts à l'emploi package et aussi par la construction de l'Étincelle paquet thru SBT.

Lorsque j'essaie d'exécuter un code python dans IPython Notebook-je obtenir l'erreur ci-dessous.

    NameError                                 Traceback (most recent call last)
   <ipython-input-1-f7aa330f6984> in <module>()
      1 # Check that Spark is working
----> 2 largeRange = sc.parallelize(xrange(100000))
      3 reduceTest = largeRange.reduce(lambda a, b: a + b)
      4 filterReduceTest = largeRange.filter(lambda x: x % 7 == 0).sum()
      5 

      NameError: name 'sc' is not defined

Dans la fenêtre de commande, je vois l'erreur ci-dessous.

<strong>Failed to find Spark assembly JAR.</strong>
<strong>You need to build Spark before running this program.</strong>

Remarque que j'ai eu un scala invite quand j'ai exécuté spark-shell commande

Mise à jour:

Avec l'aide d'un ami que je suis en mesure de résoudre le problème lié à l'Étincelle de l'assemblée POT en modifiant le contenu de .ipython/profile_pyspark/startup/00-pyspark-setup.py fichier

J'ai maintenant que le problème de l'Allumage variable de Contexte. La modification du titre pour être correctement compte de mon problème actuel.

OriginalL'auteur Arvind | 2015-06-10