Ein weiteres Beispiel für das gleiche Konzept - aber sagen - Sie zwei verschiedene Spalten haben - und Sie wollen jeden von ihnen, dh unterschiedliche agg Funktionen anwenden
f.groupBy("col1").agg(sum("col2").alias("col2"), avg("col3").alias("col3"), ...)
Hier ist der Weg, es zu erreichen - obwohl ich noch nicht wissen, wie Sie den Alias in diesem Fall hinzufügen
Beispiel unten sehen - Verwenden von Karten
val Claim1 = StructType(Seq(StructField("pid", StringType, true),StructField("diag1", StringType, true),StructField("diag2", StringType, true), StructField("allowed", IntegerType, true), StructField("allowed1", IntegerType, true)))
val claimsData1 = Seq(("PID1", "diag1", "diag2", 100, 200), ("PID1", "diag2", "diag3", 300, 600), ("PID1", "diag1", "diag5", 340, 680), ("PID2", "diag3", "diag4", 245, 490), ("PID2", "diag2", "diag1", 124, 248))
val claimRDD1 = sc.parallelize(claimsData1)
val claimRDDRow1 = claimRDD1.map(p => Row(p._1, p._2, p._3, p._4, p._5))
val claimRDD2DF1 = sqlContext.createDataFrame(claimRDDRow1, Claim1)
val l = List("allowed", "allowed1")
val exprs = l.map((_ -> "sum")).toMap
claimRDD2DF1.groupBy("pid").agg(exprs) show false
val exprs = Map("allowed" -> "sum", "allowed1" -> "avg")
claimRDD2DF1.groupBy("pid").agg(exprs) show false
Es scheint 'aggregateBy' wäre hier anwendbar. Es ist schneller (viel schneller) als "groupBy".Oh, Moment mal - der 'DataFrame' zeigt 'aggregateBy' nicht an -' agg' zeigt auf 'groupBy'. Nun, das bedeutet, 'DataFrames' sind * langsam * .. – javadba
@javadba Nein, es bedeutet nur, dass' Dataset.groupBy'/'Dataset.groupByKey' und' RDD.groupBy'/'RDD.groupByKey' im Allgemeinen unterschiedliche Semantik. Im Falle einfacher 'DataFrame'-Aggregationen [dies prüfen] (http://stackoverflow.com/a/32903568/1560062). Da ist mehr, aber hier ist es nicht wichtig. – zero323
Schöne Info! Upvoted Ihre andere Antwort – javadba