腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(791)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
Amazon EMR
S3A
支持
Amazon EMR does not currently support use of the Apache Hadoop
S3A
file system, The
s3a
:// URI is not但是,我可以使用"
s3a
://“在spark作业中进行读写,而不会出现问题。
浏览 2
提问于2018-07-31
得票数 0
2
回答
使用distp和
s3a
方案将文件从HDFS复制到Amazon
s3a
hadoop distcp hdfs://<<namenode_host>>:9000/user/ubuntu/input/flightdata
s3a
://<<bucketid>> 使用上面的命令获取异常下面java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI:
s3a
:/
浏览 0
提问于2016-05-05
得票数 0
回答已采纳
1
回答
使用
s3a
问题编写分区拼花
我用
s3a
做读写。读取文件并执行转换是很好的,也没有问题。但是,当我尝试使用s3写入
s3a
并对其进行分区时,它会引发以下错误: 警告s3a.S3AFileSystem:找到文件(有/):真正的文件?不应该发生:folder1 1/output org.apache.hadoop.fs.FileAlreadyExistsException:不能为路径‘
s3A
://Bucket1/folder1 1/im用于编写代码的部分如下所示,其中im试图附加到现有目录,但为新日期添加一个新分区:
浏览 4
提问于2020-01-13
得票数 0
1
回答
local spark抱怨
s3a
模式
,我得到这个错误 Caught exception while loading path, returning empty data frame: No FileSystem for scheme:
s3a
浏览 0
提问于2018-03-06
得票数 0
1
回答
s3a
上传限制带宽?
我试图上传从IDC到AWS S3使用火花+hadoop。如何使用hadoop限制上传带宽?
浏览 1
提问于2018-07-26
得票数 0
回答已采纳
1
回答
使用
s3a
读取csv文件
我能够使用http协议读取文件,但我打算使用
s3a
协议。 val fileAPath = Files.s3aPath(Files.input); //
s3a
浏览 7
提问于2017-11-13
得票数 0
回答已采纳
1
回答
S3A
hadoop总是返回AccessDeniedException
<String> linesRDD = _sparkContext.textFile(_jArgs.getFileLocation()); Exception found in job for file type : EMAIL java.nio.file.AccessDeniedException:
s3a
://my.bucket/0.253592564392344final.txt:
浏览 0
修改于2018-04-11
得票数 2
1
回答
NameNode地址的URI无效,
s3a
不是模式'hdfs‘
value>xxxxxxxxxxxxx</value><property> <value>
s3a
://bucket_name</value> <name>fs.defaultFS</name
浏览 0
修改于2019-07-27
得票数 2
回答已采纳
1
回答
使用Spark访问
s3a
时出错
但是,在使用Hadoop/Spark的
S3A
连接器时,接收到以下错误: py4j.protocol.Py4JJavaError: An error occurred while calling o24.
浏览 0
修改于2020-03-02
得票数 8
1
回答
S3A
客户端和本地S3模拟
但是,系统的某些部分依赖于
S3A
客户端。据我所知,它的格式不允许指向特定的名称服务器或端点。 有没有可能让
S3A
在本地环境下工作?
浏览 1
修改于2018-10-05
得票数 0
1
回答
Nutch 1.x:如何使用
s3a
而不是HDFS?
在使用Hadoop时,我更喜欢使用
s3a
而不是HDFS作为存储后端。Nutch1.x是否支持使用
s3a
而不是HDFS来存储数据?如果是,需要调整哪些相关的Nutch/Hadoop设置?
浏览 15
提问于2019-08-12
得票数 0
回答已采纳
1
回答
使用
s3a
时遇到的困难
我想在本地测试hadoop通过
s3a
访问ceph的性能,我做了以下工作: 在不使用
s3a
的前提下,在Hadoop的客户端调用Hadoop是正常的,它可以操作normally.In命令使用
s3a
,从网站,我添加了hadoop和hadoo
浏览 4
提问于2021-05-07
得票数 0
1
回答
s3n/
s3a
如何管理文件?
s3n/
s3a
文件系统是在本地虚拟化HDFS风格的文件系统,然后按配置的间隔推送,还是在写入s3n/
s3a
和写入s3之间存在一对一的对应关系? 我不太确定我问的是不是对的。如有任何指导,将不胜感激。
浏览 1
提问于2017-04-07
得票数 0
回答已采纳
1
回答
通过电子病历写入
s3a
时出现OutOfMemory错误
如果我尝试写入hadoop文件系统而不是使用
s3a
,则不会发生这种情况,所以我认为我已经将问题缩小到
s3a
。)-写入
s3a
的最终目标。我想知道是否有一个最优的
s3a
配置,这样对于非常大的表,我就不会耗尽内存。df = spark.sql("SELECT * FROM my_big_table") df.repartition(1).write.option("header", "true").csv("
s3a
://m
浏览 40
提问于2020-08-30
得票数 2
回答已采纳
1
回答
在linux机器上使用
s3a
对于>100列拼接失败
我使用
s3a
从数据库读取数据帧并写入.parquet(
s3a
://bucketname//folder)。connection }val df_exe = execute(df_sql) df_exe.write.parquet(
s3a
浏览 15
提问于2021-05-20
得票数 1
回答已采纳
1
回答
如何在hadoop配置中正确设置
s3a
配置?
有没有任何方法显式地在hadoop配置中设置
s3a
凭据?
浏览 2
修改于2016-12-26
得票数 2
回答已采纳
2
回答
将
S3a
重置为S3
我使用以下代码设置
s3a
以切换AWS emr-6.2.0中的角色 sparky.sparkContext.
浏览 32
提问于2021-05-06
得票数 0
1
回答
使用Spark/hadoop访问
s3a
时出错
我已经通过k8s代理容器在坞中配置了Hadoop和spark,我们使用它来运行Jenkins作业,我们使用AWS。但是,在运行星火提交作业时,我们会得到以下错误 com.amazonaws.services.s3.model.AmazonS3Exception: Status Code: 403, AWS Service: Amazon S3, AWS Request ID: xxxxxxxxx, AWS Error Code: null, AWS
浏览 4
修改于2022-11-26
得票数 0
2
回答
无法从HDFS复制到
S3A
}这个类可以很好地处理单元测试中的本地(file:///)目录,但是当我试图在Hadoop集群中使用它将文件从HDFS (hdfs:///tmp/result)复制到AmazonS3 (
s3a
当我将同一个类(包括HDFS或
S3a
文件系统)用于另一个目的时,它可以正常工作,因此配置和fs引用在这里应该是可以的。 我做错什么了?如何正确地将文件从HDFS复制到
S3A
?
浏览 0
修改于2019-08-20
得票数 0
回答已采纳
2
回答
Spark +亚马逊S3 "
s3a
://“urls
AFAIK是Hadoop + Spark的最新、最好的S3实现,它是通过使用"
s3a
://“url协议调用的。这在预配置的Amazon EMR上非常有效。
浏览 0
提问于2016-09-03
得票数 3
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券