Enregistrer la structure de données Spark en tant que table partitionnée dynamique dans Hive

J'ai un exemple d'application de travail à lire à partir de fichiers csv dans un dataframe. Le dataframe peuvent être stockées dans une table de la Ruche en parquet format à l'aide de la méthode
df.saveAsTable(tablename,mode).

Le code ci-dessus fonctionne très bien, mais j'ai tellement de données pour chaque jour que je veux partition dynamique de la ruche table basée sur la creationdate(colonne de la table).

est-il de toute façon à la dynamique de la partition de la dataframe et de les stocker dans la ruche de l'entrepôt. Vouloir s'abstenir de coder en Dur l'instruction insert à l'aide de hivesqlcontext.sql(insert into table partittioin by(date)....).

Question peuvent être considérées comme une extension de :Comment enregistrer DataFrame directement à la Ruche?

toute aide est très appréciée.

source d'informationauteur Chetandalal