pyspark ImportError: impossible d'importer nom accumulateurs

But: je suis en train d'essayer d'obtenir apache spark pyspark afin d'être correctement interprétés dans mon pycharm IDE.

Problème: j'ai actuellement recevoir le message d'erreur suivant:

ImportError: cannot import name accumulators

Je suivais le blog suivant pour m'aider à travers le processus. http://renien.github.io/blog/accessing-pyspark-pycharm/

En raison du fait que mon code était de prendre la sauf le chemin je me suis personnellement débarrasser de l'essai: à l'exception de: juste pour voir ce que l'erreur exacte est.

Avant cela, j'ai reçu le message d'erreur suivant:

ImportError: No module named py4j.java_gateway

Cela a été résolu simplement en tapant '$sudo pip install py4j " dans bash.

Mon code ressemble actuellement les suivants morceau:

import os
import sys

# Path for spark source folder
os.environ['SPARK_HOME']="[MY_HOME_DIR]/spark-1.2.0"

# Append pyspark to Python Path
sys.path.append("[MY_HOME_DIR]/spark-1.2.0/python/")

try:
    from pyspark import SparkContext
    print ("Successfully imported Spark Modules")

except ImportError as e:
    print ("Can not import Spark Modules", e)
    sys.exit(1)

Mes Questions:

1. Quelle est la source de cette erreur? Quelle est la cause?
2. Comment puis-je résoudre le problème afin que je puisse courir pyspark dans mon pycharm éditeur.

REMARQUE: L'interprète que j'utilise dans pycharm Python 2.7.8 (~/anaconda/bin/python)

Merci d'avance!

Ne

InformationsquelleAutor Donald Vetal | 2014-12-22