Spark unionAll plusieurs dataframes

Pour un ensemble de dataframes

val df1 = sc.parallelize(1 to 4).map(i => (i,i*10)).toDF("id","x")
val df2 = sc.parallelize(1 to 4).map(i => (i,i*100)).toDF("id","y")
val df3 = sc.parallelize(1 to 4).map(i => (i,i*1000)).toDF("id","z")

à l'union de tous, je ne

df1.unionAll(df2).unionAll(df3)

Est-il plus élégant et évolutive, la façon de faire cela pour un certain nombre de dataframes, par exemple à partir de

Seq(df1, df2, df3) 

OriginalL'auteur echo | 2016-06-03