如何使用单个 spark 上下文在 Apache Spark 中运行并发作业(操作)
2022-09-02 04:11:06
它在Apache Spark文档中说:“在每个Spark应用程序中,如果它们由不同的线程提交,则多个”作业“(Spark操作)可能会同时运行”。有人可以解释如何为以下示例代码实现此并发性吗?
SparkConf conf = new SparkConf().setAppName("Simple_App");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> file1 = sc.textFile("/path/to/test_doc1");
JavaRDD<String> file2 = sc.textFile("/path/to/test_doc2");
System.out.println(file1.count());
System.out.println(file2.count());
这两个作业是独立的,必须同时运行。
谢谢。