如何在Java的Apache Spark中将数据帧转换为数据集?
2022-09-03 01:47:10
我可以非常轻松地在Scala中将DataFrame转换为数据集:
case class Person(name:String, age:Long)
val df = ctx.read.json("/tmp/persons.json")
val ds = df.as[Person]
ds.printSchema
但是在Java版本中,我不知道如何将数据帧转换为数据集?有什么想法吗?
我的努力是:
DataFrame df = ctx.read().json(logFile);
Encoder<Person> encoder = new Encoder<>();
Dataset<Person> ds = new Dataset<Person>(ctx,df.logicalPlan(),encoder);
ds.printSchema();
但是编译器说:
Error:(23, 27) java: org.apache.spark.sql.Encoder is abstract; cannot be instantiated
已编辑(解决方案):
基于@Leet-Falcon答案的解决方案:
DataFrame df = ctx.read().json(logFile);
Encoder<Person> encoder = Encoders.bean(Person.class);
Dataset<Person> ds = new Dataset<Person>(ctx, df.logicalPlan(), encoder);