Spark - 按 HAVING 使用数据帧语法进行分组?
2022-09-01 15:08:35
在没有 sql/hiveContext 的情况下在 Spark 中使用 groupby-have 的语法是什么?我知道我能做到
DataFrame df = some_df
df.registreTempTable("df");
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff")
但是我如何用这样的语法来做到这一点
df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")
这似乎并不存在。.having()