Ich habe einen Datenrahmen mit einer Spalte von Unix-Timestamp (zB.11435655706000), und ich möchte es in Daten mit dem Format 'JJJJ-MM-DD' konvertieren, ich habe versuchte nscala-time aber es funktioniert nicht.Wie konvertiert man den Unix-Zeitstempel in Spark
val time_col = sqlc.sql("select ts from mr").map(_(0).toString.toDateTime)
time_col.collect().foreach(println)
und ich habe Fehler: java.lang.IllegalArgumentException: Ungültige Format: "1435655706000" auf "6000" malformed
http://stackoverflow.com/questions/18680398/convert-seconds-since-epoch-to-joda-datetime-in-scala – ipoteka
Gelöst, importieren org.joda.time._, sqlc.sql ("select ts from mr"). Map (Zeile => new DateTime (line (0)). ToString ("yyyy-MM-dd")) – youngchampion