Étincelle: l'écriture DataFrame comprimé JSON

Apache Spark est DataFrameReader.json() pouvez gérer au format gzip JSONlines automatiquement les fichiers, mais il ne semble pas être un moyen d'obtenir DataFrameWriter.json() à écrire comprimé JSONlines fichiers. Le réseau supplémentaire I/O est très cher dans le cloud.

Est-il un moyen de contourner ce problème?

Avez-vous trouver un moyen pour compresser les données json? Je suis aussi à la recherche d'une solution.
Je n'ai pas découvert le moyen de le faire encore.

OriginalL'auteur Sim | 2015-08-11