首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在没有Spark控制台的情况下使用Apache Spark MLib库

在没有Spark控制台的情况下使用Apache Spark MLib库
EN

Stack Overflow用户
提问于 2015-08-14 03:25:06
回答 1查看 404关注 0票数 1

我在Windows 7上安装了Apache Spark,并成功地运行了ScalaPython控制台。

我的问题是,如果只是想直接从Scala、Java或Python安装中使用Mlib (机器学习库),而不使用Spark控制台,那么是否有必要使用控制台。

有没有简单的方法可以做到这一点,有没有我可能不想这么做的主要原因?

EN

回答 1

Stack Overflow用户

发布于 2015-08-14 14:44:36

当然,您不必使用console。您可以在代码中创建Spark context

代码语言:javascript
复制
val conf = new SparkConf().setMaster("local[4]").setAppName("Spark Pi")
val spark = new SparkContext(conf)

然后创建RDD

代码语言:javascript
复制
val data = spark.textFile("data/mllib/kmeans_data.txt")

并对其运行Mlib算法。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31996792

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档