2016-08-09 66 views
5

Wie lautet die Syntax für die Verwendung einer groupby-hading in Spark ohne sql/hiveContext? Ich weiß, was ich tun kannSpark - Group von HAVING mit Datenrahmen-Syntax?

DataFrame df = some_df 
df.registreTempTable("df");  
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff") 

aber wie mache ich es mit einer Syntax wie

df = df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")? Diese .having() scheint nicht zu existieren.

Antwort

5

Ja, es existiert nicht. Sie drücken dieselbe Logik mit agg gefolgt von where:

df.groupBy(someExpr).agg(somAgg).where(somePredicate)