Utilisez Spark pour lister tous les fichiers dans un répertoire Hadoop HDFS?

Je veux une boucle sur tous les fichiers texte dans une Hadoop dir et de compter toutes les occurrences du mot "erreur". Est-il un moyen de faire un hadoop fs -ls /users/ubuntu/ à la liste de tous les fichiers dans un dir avec Apache Spark Scala API?

De la premier exemplel'étincelle contexte semble être la seule à accéder à des fichiers individuellement par quelque chose comme:

val file = spark.textFile("hdfs://target_load_file.txt")

Dans mon problème, je ne sais pas combien, ni les noms des fichiers dans le HDFS dossier à l'avance. Regardé le spark contexte docs mais ne pouvais pas trouver ce genre de fonctionnalité.

source d'informationauteur poliu2s