IntelliJ Idea 14: impossible de résoudre le symbole de l'étincelle

J'ai fait une dépendance de l'Étincelle qui a travaillé dans mon premier projet. Mais quand j'essaie de faire un nouveau projet avec Spark, mon TAS n'a pas d'importation de l'externe pots de org.apache.spark. Par conséquent, IntelliJ Idea donne l'erreur qu'il ne peut pas résoudre le symbole".
J'ai déjà essayé de faire un nouveau projet à partir de zéro et de l'utilisation de l'auto-import mais aucun ne fonctionne. Lorsque j'essaie de compiler je reçois les messages "objet apache n'est pas un membre de package org". Mon build.sbt ressemble à ceci:

name := "hello"
version := "1.0"
scalaVersion := "2.11.7"
libraryDependencies += "org.apache.spark" % "spark-parent_2.10" % "1.4.1"

J'ai l'impression qu'il pourrait y avoir quelque chose de mal avec mon TAS de paramètres, même s'il a déjà travaillé un temps. Et, sauf pour les bibliothèques externes, tout est la même chose...
J'ai aussi essayé d'importer les pom.xml fichier de mon étincelle de dépendance, mais qui a également ne fonctionne pas.
Je vous remercie à l'avance!

  • scalaVersion := "2.11.7" éventuellement des conflits avec "spark-parent_**2.10**" essayer spark-parent_2.11
  • J'ai aussi pensé à cela, mais cela ne marche pas. Et il a déjà travaillé avec spark-parent 2.10...
  • Est-il compiler dans le terminal? Êtes-vous en utilisant par défaut du résolveur ou une sorte de proxy (Nexus, Artifactory)? Qu'est-ce que la sortie du journal?
  • J'ai aussi ce message: SBT projet d'importation [avertir] [ECHEC ] org.apache.spark#spark-parent_2.11;1.4.1!spark-parent_2.11.jar(doc): (0ms) [avertissement] ==== local: essayé [avertir] C:\Users\Giselle\.ivy2\local\org.apache.spark\spark-parent_2.11\1.4.1\docs\spark-parent_2.11-javadoc.jar [avertissement] ==== public: essayé [avertir] repo1.maven.org/maven2/org/apache/spark/spark-parent_2.11/1.4.1/... [avertissement] [ECHEC ] org.apache.spark#spark-parent_2.11;1.4.1!spark-parent_2.11.jar(src): (0ms)
  • Je n'utilise pas toutes les résolveurs (pour autant que je suis au courant)
  • J'ai également le message d'erreur qu'il ne peut pas résoudre le % symboles dans la ligne de libraryDependencies
  • semble comme sbt est en train de télécharger Javadoc pour spark-parent. Avez-vous configuré javadoc télécharger en tas ou dans l'idée d'importer les paramètres?
  • par le moyen de l'étincelle-parent référentiels pour les deux 2.10 et 2.11 semblent ne contenir que des tests. En outre, officiel de l'étincelle de la documentation, ce qui semble indiquer que les réponses mentionnant spar-core sont plus probablement raison.