行类型 Spark 数据集的编码器
2022-09-01 09:40:07
我想为 DataSet 中的 Row 类型编写一个编码器,用于我正在执行的映射操作。从本质上讲,我不明白如何编写编码器。
下面是一个映射操作的示例:
In the example below, instead of returning Dataset<String>, I would like to return Dataset<Row>
Dataset<String> output = dataset1.flatMap(new FlatMapFunction<Row, String>() {
@Override
public Iterator<String> call(Row row) throws Exception {
ArrayList<String> obj = //some map operation
return obj.iterator();
}
},Encoders.STRING());
我知道需要按如下方式编写编码器而不是字符串:
Encoder<Row> encoder = new Encoder<Row>() {
@Override
public StructType schema() {
return join.schema();
//return null;
}
@Override
public ClassTag<Row> clsTag() {
return null;
}
};
但是,我不理解编码器中的clsTag(),我试图找到一个可以演示类似内容的运行示例(即行类型的编码器)
编辑 - 这不是所提到的问题的副本:尝试将数据帧行映射到更新的行时出现编码器错误,因为答案谈到了在Spark 2.x中使用Spark 1.x(我没有这样做),我也在寻找Row类的编码器而不是解决错误。最后,我正在寻找Java的解决方案,而不是Scala。