首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >无法运行"spark-submit“命令

无法运行"spark-submit“命令
EN

Stack Overflow用户
提问于 2021-10-12 09:18:43
回答 1查看 48关注 0票数 -1

我正在尝试学习一个大数据在线课程,在安装apache spark时遇到了这个问题。

我已经正确地完成了所有的工作,但是当我尝试运行spark-submit时,我想可能是java出了问题。

当我运行以下命令时:

代码语言:javascript
复制
(base) C:\SparkCourse>spark-submit ratings-counter.py

我得到了这个错误:

代码语言:javascript
复制
Exception in thread "main" java.lang.ExceptionInInitializerError
    at org.apache.spark.unsafe.array.ByteArrayMethods.<clinit>(ByteArrayMethods.java:54)
    at org.apache.spark.internal.config.package$.<init>(package.scala:1095)
    at org.apache.spark.internal.config.package$.<clinit>(package.scala)
    at org.apache.spark.deploy.SparkSubmitArguments.$anonfun$loadEnvironmentArguments$3(SparkSubmitArguments.scala:157)
    at scala.Option.orElse(Option.scala:447)
    at org.apache.spark.deploy.SparkSubmitArguments.loadEnvironmentArguments(SparkSubmitArguments.scala:157)
    at org.apache.spark.deploy.SparkSubmitArguments.<init>(SparkSubmitArguments.scala:115)
    at org.apache.spark.deploy.SparkSubmit$$anon$2$$anon$3.<init>(SparkSubmit.scala:1022)
    at org.apache.spark.deploy.SparkSubmit$$anon$2.parseArguments(SparkSubmit.scala:1022)
    at org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:85)
    at org.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:1039)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:1048)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Caused by: java.lang.reflect.InaccessibleObjectException: Unable to make private java.nio.DirectByteBuffer(long,int) accessible: module java.base does not "opens java.nio" to unnamed module @5b94b04d
    at java.base/java.lang.reflect.AccessibleObject.checkCanSetAccessible(AccessibleObject.java:354)
    at java.base/java.lang.reflect.AccessibleObject.checkCanSetAccessible(AccessibleObject.java:297)
    at java.base/java.lang.reflect.Constructor.checkCanSetAccessible(Constructor.java:188)
    at java.base/java.lang.reflect.Constructor.setAccessible(Constructor.java:181)
    at org.apache.spark.unsafe.Platform.<clinit>(Platform.java:56)
    ... 13 more

有什么想法吗?

干杯!

EN

回答 1

Stack Overflow用户

发布于 2021-10-16 07:51:25

我重新安装了windows,一切从头开始。

安装了jdk版本8,这个版本的spark "spark-3.0.3-bin-hadoop2.7.tgz“。正确地指出了所有的路径和。它的工作原理是,我可以打开pyspark shell并执行spark-submit,但cmd中仍然有很多我无法删除的文本。

票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69537971

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档