Convertir séparées par des virgules chaîne de tableau dans pyspark dataframe
J'ai un dataframe comme ci-dessous où ev est de type string.
>>> df2.show()
+---+--------------+
| id| ev|
+---+--------------+
| 1| 200, 201, 202|
| 1|23, 24, 34, 45|
| 1| null|
| 2| 32|
| 2| null|
+---+--------------+
Est-il un moyen de jeter ev type ArrayType sans l'aide de l'UDF ou de l'UDF, est la seule option pour le faire?
OriginalL'auteur Swadeep | 2016-07-04
Vous devez vous connecter pour publier un commentaire.
Vous pouvez utiliser les haut-
split
fonction:Si vous voulez convertir les données numériques de types que vous pouvez exprimés comme suit:
ou
L'un de plus d'aide, j'ai cherché pour ce seul et pas en mesure de trouver. La résultante de la matrice est un tableau de chaîne de caractères, peut-on l'avoir en tant que tableau d'entiers?
Oui, vous pouvez convertir des types par la suite.
Super.. merci !!
OriginalL'auteur zero323