Comment lire gz fichier compressé par pyspark

J'ai de la ligne de données .gz format compressé. - Je le lire dans pyspark
Voici l'extrait de code

rdd = sc.textFile("data/label.gz").map(func)

Mais je ne pouvais pas lire le fichier ci-dessus avec succès. Comment puis-je lire gz fichier compressé. J'ai trouvé une question similaire ici mais ma version actuelle de l'étincelle est différente que la version en question. Je m'attends il devrait y avoir un construit en fonction que dans hadoop.

Double Possible de Pourquoi mon "binaryFiles" vide quand je les collectionne dans pyspark?
C'est pas un doublon, mais vous avez nécessaires extrait de code là 🙂

OriginalL'auteur Shafiq | 2017-03-13