Le partitionnement en plusieurs colonnes dans Spark SQL
Avec Spark SQL les fonctions de la fenêtre, j'ai besoin de partition en plusieurs colonnes pour exécuter mes requêtes de données, comme suit:
val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)
J'ai actuellement n'avez pas un environnement de test (travail sur les paramètres de cette place), mais comme une petite question, est-ce pris en charge actuellement comme une partie de la Spark SQL les fonctions de la fenêtre, ou bien cela ne fonctionne pas?
Vous devez vous connecter pour publier un commentaire.
Cela ne fonctionnera pas. La deuxième
partitionBy
remplacera le premier. Les deux colonnes de partition doivent être spécifiées dans le même appel: