PySpark 2.0, La taille ou la forme d'un DataFrame

Je suis en train d'essayer de trouver la taille/forme d'un DataFrame dans PySpark. Je ne vois pas une seule fonction qui peut faire cela.

En Python je peux faire

data.shape()

Est-il une fonction similaire dans PySpark. C'est ma solution actuelle, mais je suis à la recherche d'un élément on

row_number = data.count()
column_number = len(data.dtypes)

Le calcul du nombre de colonnes n'est pas l'idéal...

Mettre cela dans une fonction ?

OriginalL'auteur Xi Liang | 2016-09-23