Ich habe ein Datenrahmen wie diese bekommen:Wie explodiert man alle Spalten eines Datenrahmens in pyspark?
+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+
| brand| diesel| e10| e5| houseNumber| id| isOpen| lat| lng| name| place| postCode| street| Datum|
+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+
|[TOTAL, ARAL, She...|[1.049, 1.029, 1....|[1.249, 1.209, 1....|[1.269, 1.229, 1....|[49, 12-14, , , ...|[4409a024-b190-4b...|[true, true, true...|[50.93128, 50.952...|[6.962356, 6.9616...|[TOTAL KOELN, Ara...|[KOELN, Köln, KOE...|[50676, 50668, 50...|[HOLZMARKT, Riehl...|2016-08-01 10:50:...|
+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+--------------------+
Grundsätzlich sind alle Spalten-Arrays sind. Es basiert auf verschachtelten JSON-Daten. Ich habe versucht, es zu explodieren. Dies ist jedoch nur mit einer Spalte in einer Select-Anweisung möglich. Kennst du ein Warum, wie ich alle Werte auf einmal in pyspark
entpacken kann, damit die Beziehungen beibehalten werden?