如何在使用 JAR 运行 spark-submit 时将程序参数传递给 main 函数?

2022-09-01 20:11:33

我知道这是一个微不足道的问题,但我无法在互联网上找到答案。

我正在尝试使用带有程序参数()的函数运行Java类。mainString[] args

但是,当我使用并传递程序参数提交作业时,我会这样做spark-submit

java -cp <some jar>.jar <Some class name> <arg1> <arg2>

它不读取 s。arg

我尝试运行的命令是

bin/spark-submit analytics-package.jar --class full.package.name.ClassName 1234 someargument someArgument

这给了

Error: No main class set in JAR; please specify one with --class

当我尝试时:

bin/spark-submit --class full.package.name.ClassName 1234 someargument someArgument analytics-package.jar 

我得到

Warning: Local jar /mnt/disk1/spark/1 does not exist, skipping.
java.lang.ClassNotFoundException: com.relcy.analytics.query.QueryAnalytics
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    at java.lang.Class.forName0(Native Method)
    at java.lang.Class.forName(Class.java:348)
    at org.apache.spark.util.Utils$.classForName(Utils.scala:176)
    at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:693)
    at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:183)
    at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:208)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:122)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

如何传递这些参数?它们在每次运行作业时频繁更改,并且需要作为参数传递。


答案 1

在.jar文件之前传递的参数将是 JVM 的参数,在 jar 文件之后传递的参数将传递给用户的程序。

bin/spark-submit --class classname -Xms256m -Xmx1g something.jar someargument

这里, 将等于 ,而 将 传递到 JVM 中。ssomeargument-Xms -Xmx

public static void main(String[] args) {

    String s = args[0];
}

答案 2

我从本教程中找到了正确的命令。

该命令的格式应为:

bin/spark-submit --class full.package.name.ClassName analytics-package.jar someargument someArgument

推荐