Comment obtenir le nom de la colonne dataframe dans pyspark?

Dans les pandas, ce qui peut être fait par colonne.nom.

Mais comment faire la même chose lors de sa colonne de spark dataframe?

par exemple, Le programme appelant a une étincelle dataframe: spark_df

>>> spark_df.columns
['admit', 'gre', 'gpa', 'rank']

Ce programme appelle ma fonction: my_function(spark_df['rang'])
Dans my_function, j'ai besoin du nom de la colonne c'est à dire "rang"

Si c'était pandas dataframe, nous pouvons l'utiliser à l'intérieur de my_function

>>> pandas_df['rank'].name
'rank'

source d'informationauteur Kaushik Acharya