Comment utiliser Hadoop InputFormats Dans Apache Spark?

J'ai une classe ImageInputFormat dans Hadoop qui lit les images de HDFS. Comment utiliser mon InputFormat Spark?

Voici mon ImageInputFormat:

public class ImageInputFormat extends FileInputFormat<Text, ImageWritable> {

    @Override
    public ImageRecordReader createRecordReader(InputSplit split, 
                  TaskAttemptContext context) throws IOException, InterruptedException {
        return new ImageRecordReader();
    }

    @Override
    protected boolean isSplitable(JobContext context, Path filename) {
        return false;
    }
}  

OriginalL'auteur hequn8128 | 2014-01-09