腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
未能找到“火花-提交2.cmd”
(master = master,
spark
_home =
spark
_home,
spark
_version = version, : >
s
浏览 1
修改于2020-11-01
得票数 0
回答已采纳
2
回答
如何在Docker上设置Apache
Spark
和Zeppelin
我正在尝试在Docker上使用Zeppelin设置
Spark
开发环境,但我在连接Zeppelin和
Spark
容器时遇到了问题。command: bin/
spark
-class org.apache.
spark
.deploy.master.Master -h
spark
-master image: gettyimages/
spark
command: bin/
sp
浏览 3
修改于2019-08-25
得票数 2
3
回答
启动Apache星系团
, logging to /opt/
spark
/logs/
spark
-hduser-org.apache.
spark
.deploy.master.Master-1-lebron.outdoublet:
浏览 9
提问于2016-10-19
得票数 4
回答已采纳
2
回答
Apache
Spark
2.3.1与蜂巢转移3.1.0
更新: (
spark
.sql.warehouse.dir,/
spark
.sql.warehouse.dir/tablespace/external/hive/) (
spark
.admin.acls,) (
spark
.yarn.dist.files,
spark
.yarn.dist.files,
spark
.history.kerberos.keytab (
spark
.history.kerberos.keytab,
浏览 0
修改于2018-10-26
得票数 6
2
回答
AWS胶-不能设置
spark
.yarn.executor.memoryOverhead
','5'),('
spark
.yarn.executor.cores', '5'), ('
spark
.yarn.cores.max', '5'), ('
spark
.yarn.driver.memory'_conf.get('
spark
.driver.memory') print '
spark
.driver.cores', sc._conf
浏览 1
提问于2018-08-23
得票数 6
2
回答
Dataproc忽略
Spark
配置
我在dataproc集群中运行下面的
spark
提交命令,但我注意到很少有
spark
配置被忽略。我想知道他们被忽视的原因是什么?=4G,
spark
.driver.memory=8G,
spark
.shuffle.service.enabled=true,
spark
.yarn.maxAppAttempts=1,
spark
.sql.shuffle.partitions=200,
spark
.executor.memoryOverhead=7680,
spark<
浏览 44
提问于2020-12-10
得票数 1
回答已采纳
2
回答
无效状态代码'400‘从..。错误有效负载:“需求失败:会话不活动
","3600s")
spark
.conf.set("
spark
.sql.tungsten.enabled", "true")
spark
.conf
浏览 0
修改于2019-09-24
得票数 5
1
回答
Spark
with Java - Error:无法从JAR加载主类
spark
-class org.apache.
spark
.deploy.master.Master
spark
-class org.apache.
spark
.deploy.worker.Worker” –-master
spark
://valid ip:7077 C:\
Spark
2.1.1\
spark
-2.1.1-bin-hadoop2.7\
spark
-mllib-example\
浏览 8
提问于2017-06-23
得票数 1
2
回答
Spark
无法下载kafka库
groupId = org.apache.
spark
version = 2.2.0 $ bin/
spark
-submit --jars <
spark
-streaming-kafka在下一次运行时,我运行了"<em
浏览 22
提问于2018-08-27
得票数 6
回答已采纳
1
回答
Spark
master Web Ui在Cloudera Quick start Vmware中显示
Spark
worker信息0
export
SPARK
_LAUNCH_WITH_SCALA=0export
SPARK
_LIBRARY_PATH=${
SPARK
_HOME}/lib export
SPARK<
浏览 0
修改于2015-05-22
得票数 1
1
回答
带有Scala sbt错误的Apache
Spark
Mllib 2.1.0
:
spark
-launcher _2.11, _2.10[error] org.json4s:json4s-ast _2.11, _2.10[error] org.apache.
spark
:
spark
-unsafe _2.11, _2.1
浏览 0
提问于2017-03-11
得票数 2
1
回答
编译错误
Spark
1.3.1
SKIPPED[INFO]
Spark
Project External Flume Sink .................._2.10: Could not resolve dependencies for project org.apache.
spark
:
spark
-assembly_2.10:pom:1.3.1: Couldnot find artifact org.apach
浏览 0
提问于2015-05-16
得票数 0
1
回答
为什么我的火花网页界面不活跃?
Spark
服务是如何在我的docker-compose file中定义的
spark
: environment: -
SPARK
_RPC_AUTHENTICATION_ENABLED=no -
SPARK
_RPC_ENCRYPTION_ENABLED/
s
浏览 2
提问于2022-01-28
得票数 0
1
回答
火花参数在SparkSubmitOperator - AirFlow中不起作用。
' : '30000', '
spark
.driver.cores' : '5',
浏览 4
修改于2019-12-02
得票数 0
1
回答
找不到数据源: com.databricks.
spark
.xml。请在http://
spark
.apache.org/third-party-projects.html上查找软件包
我正在使用intellij项目加载
Spark
,但没有安装
Spark
。添加到
spark
并使用
spark
.sparkContext.addJar("C:/.../
spark
-xml_2.10-0.2.0.jar&q
浏览 7
提问于2017-12-27
得票数 1
1
回答
Spark
REST API,在Windows上提交应用程序NullPointerException
我使用我的PC作为
Spark
服务器,同时作为
Spark
Worker,使用
Spark
2.3.1。 起初,我使用我的Ubuntu 16.04 LTS。一切运行正常,我尝试运行SparkPi示例(使用
spark
-submit和
spark
-shell),它能够正常运行。/
Spark
/
spark
-2.3.1-bin-hadoop2.7/examples/jars/
spark
-examples_2.11-2.3
浏览 10
提问于2018-09-07
得票数 0
回答已采纳
1
回答
在执行pyspark数据报时出现错误
我已经试图改变
spark
.executor.memory和
spark
.driver.memory,但问题不断出现。
spark
.network.timeout","200000s")\.conFig("
spark
. submit.deployMode"("
spark
.jars","/opt
浏览 7
修改于2022-09-08
得票数 0
1
回答
spark
docker- image -tool找不到docker镜像
此脚本必须从Apache
Spark
的可运行发行版运行。 但是所有的
spark
runnables都在这个目录中。
spark
-class
spark
-shell.cmd
spark
-sql2.cmd sparkR beeline.cmd load-
spark
-env.cmdpyspark2.cmd
spark
-class.cmd
spark
-shell2.c
浏览 50
提问于2020-04-08
得票数 0
1
回答
EMR无服务器上的火花卡桑德拉连接器(PySpark)
:
spark
-cassandra-connector_2.12:3.2.0添加包时,应用程序在 com.datastax.
spark
#
spark
-cassandra-connector_2.12 added/com/datastax/
spark
/
spark
-cassandra-connector_2.12/3.2.0/
spark
-cassandra-connector_2.12-3.2.0.pomcom.datastax.<em
浏览 11
提问于2022-08-09
得票数 1
回答已采纳
2
回答
在
spark
2.1上运行scala
spark
1.6作业失败
我有一个需要每晚运行的
spark
工作。然而,我不得不从1.6更新到
spark
2.1。(由file:/usr/local/src/
spark
21master/
spark
-2.1.2-bin-2.7.3/jars/
spark
-sql_2.11-2.1.2.jar加载)从(由org.apache.
spark
.util.MutableURLClassLoader@ee80a89b).从file:/tmp/
浏览 58
修改于2018-06-12
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券