尝试在 Spark DataFrame 上使用映射
2022-09-02 13:04:34
我最近开始尝试使用 Spark 和 Java。我最初使用了这个著名的例子,一切都如预期的那样进行。现在我正在尝试实现我自己的示例,但使用DataFrames而不是RDD。WordCount
RDD
因此,我正在从文件中读取数据集
DataFrame df = sqlContext.read()
.format("com.databricks.spark.csv")
.option("inferSchema", "true")
.option("delimiter", ";")
.option("header", "true")
.load(inputFilePath);
然后我尝试选择一个特定的列,并对每一行应用一个简单的转换,就像这样
df = df.select("start")
.map(text -> text + "asd");
但是编译发现第二行有一个问题,我不完全理解(开始列被推断为类型)。string
在接口 scala 中找到多个非重写抽象方法。功能1
为什么我的lambda函数被视为Scala函数,错误消息实际上意味着什么?