Spark peut accéder à la table Hive de pyspark mais pas à spark-submit

Donc, lors de l'exécution de pyspark je voudrais taper (sans préciser les contextes) :

df_openings_latest = sqlContext.sql('select * from experian_int_openings_latest_orc')

.. et il fonctionne très bien.

Cependant, lorsque je lance mon script de spark-submitcomme

spark-submit script.py j'ai mis la suivante dans

from pyspark.sql import SQLContext
from pyspark import SparkConf, SparkContext
conf = SparkConf().setAppName('inc_dd_openings')
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)

df_openings_latest = sqlContext.sql('select * from experian_int_openings_latest_orc')

Mais il me donne une erreur

pyspark.sql.utils.AnalysisException: u'Table pas trouvé:
experian_int_openings_latest_orc;'

Si elle ne marche pas, voir mon tableau.

Ce que je fais mal? S'il vous plaît aider

P. S. Spark version 1.6 en cours d'exécution sur Amazon EMR

source d'informationauteur Dennis