首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >本地spark集群的sparkcontext

本地spark集群的sparkcontext
EN

Stack Overflow用户
提问于 2017-04-15 21:17:28
回答 1查看 224关注 0票数 0

请告诉我如何在下面的代码中调整hdfs URI,以便它们在我的本地spark 'cluster‘上工作。

代码语言:javascript
复制
var lines = sparkContext.TextFile(@"hdfs://path/to/input.txt");  
// some more code
wordCounts.SaveAsTextFile(@"hdfs://path/to/wordcount.txt");  
EN

回答 1

Stack Overflow用户

发布于 2017-04-16 04:46:05

您可以只定义路径位置配置参数将在sparkcontext上设置,因此不需要添加hdfs,就像下面这样,应该可以在yarn模式下运行应用程序

代码语言:javascript
复制
var lines = sparkContext.TextFile("/path/to/input.txt");  
// some more code
wordCounts.SaveAsTextFile("/path/to/wordcount.txt");  

或者,您可以显式定义hdfs位置,如下所示

代码语言:javascript
复制
val lines =  sparkContext.textFile("hdfs://namenode:port/path/to/input.txt")

还可以定义分区的数量,这是可选的

代码语言:javascript
复制
var lines = sparkContext.TextFile("/path/to/input.txt",[number of partitions]);  
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43426517

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档