我有一些关于固件的一般性问题-宇宙,如果它们是基本的,很抱歉,但我正在努力了解宇宙的架构和使用。
我看到你正计划将Apache Spark整合到Cosmos中?你有实现这一目标的路线图或日期吗?如果我现在想使用Spark,会发生什么?
可以使用哪些Hadoop服务源?我想我读到Cosmos支持Cloudera CDH服务和原始Hadoop服务器服务?那么HortonWorks或MapR呢?
我知道非标准文件系统可以与Hadoop一起使用,例如MapR-FS,这样的选项在Cosmos中可能吗?
我还读到Cosmos“坐”在fiware之上,因此Hadoop as a service (HaaS)可以使用,Hadoop集群使用开放堆栈生成?然而,我看到人们指的是共享固件云?fiware是否作为远程云运行?是否可以在客户站点上使用本地云?
cosmos是fiware.org上唯一的Apache Hadoop/Spark解决方案吗?
最后,如果Cloudera CDH可以与Cosmos一起使用,Cloudera集群管理器如何融入其中?它还能被使用吗?
对于所有问题,我深表歉意:)
发布于 2016-05-31 16:18:02
Cosmos是FIWARE实验室中大数据GE的全局实例的名称。它是一个已部署在云中的共享Hadoop实例,可供FIWARE用户使用。
事实上,有两个实例:“旧的”实例,服务于Hadoop栈的一个相当旧的版本,并被cosmos.lab.fiware.org它的入口点。而“新”的是一对Hadoop集群,一个用于数据存储,另一个用于数据分析;入口点是storing.cosmos.lab.fiware.org和computing.cosmos.lab.fiware.org。
当然,您可以在FIWARE云(或任何其他云,如Amazon one)中自行部署任何其他Hadoop (甚至Spark)实例。
关于Spark,由于它最初在我们的FIWARE实验室部署计划中(这就是为什么它出现在路线图中),现在还不清楚它是否会被部署。
https://stackoverflow.com/questions/37472875
复制相似问题