hadoop Pas de système de fichiers pour le système de fichier

Je suis en train de lancer un simple NaiveBayesClassifer l'utilisation d'hadoop, cette erreur

Exception in thread "main" java.io.IOException: No FileSystem for scheme: file
    at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1375)
    at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
    at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:180)
    at org.apache.hadoop.fs.Path.getFileSystem(Path.java:175)
    at org.apache.mahout.classifier.naivebayes.NaiveBayesModel.materialize(NaiveBayesModel.java:100)

Code :

    Configuration configuration = new Configuration();
    NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), configuration);//error in this line..

modelPath vers NaiveBayes.bin fichier, et de l'objet de configuration de l'impression - Configuration: core-default.xml, core-site.xml

Je pense que c'est parce que des jarres, des idées?

  • Besoin d'un peu plus d'infos...
  • Ne sais pas moi, mais un rapide coup d'oeil sur google suggère qu'il y a certaines questions autour de pots de ne pas être référencé comme vous l'avez suggéré. Peut-être les liens suivants vous donneront une réponse. groups.google.com/a/cloudera.org/forum/#!topic/scm-utilisateurs/... grokbase.com/t/cloudera/cdh-user/134r64jm5t/...
  • J'étais en ajoutant hadoop-common-2.0.0-cdh4.3.0-sources.jar et hadoop-core-0.20.2.jar au chemin de classe, j'ai enlevé le premier et il a travaillé ne sais pas pourquoi.
  • Hmm..Pourriez-vous me dire au sujet de votre environnement? Aussi, veuillez me montrer la complète message d'exception.
  • Quel est la valeur de modelPath? avez-vous essayé file:///path/to/dir
  • comme @emile suggéré, assurez-vous que vous exécutez votre jar via hadoop, pas de java. c'est à dire "il suffit d'exécuter le distribuées pot avec "hadoop jar", au lieu d'essayer de l'exécuter autonome "java-jar"."
  • J'ai utilisé hadoop jar test.jar au lieu de java-jar test.jar