返回9000个数据点的json需要6秒。我有大约10 in的数据在12个指标中,比如x.open,x.close.
数据存储模式:度量: x.open
标记:符号
tagv : stringValue
公制: x.close
标记:符号
tagv : stringValue
我的Configurations正在进行群集设置,如下所示
节点1:(真实的16 TSD ) JournalNode,Namenode,动物园管理员,RegionServer,HMaster,DFSZKFailoverController,TSD
节点2:(VM 8GB StandbyNN) JournalNode,Namenode,动物园管理员,RegionServer
节点3:(真实的16 TSD )数据节点、RegionServer、TSD
节点4:(VM4GB) JournalNode、Datanode、Zookeeper、RegionServer --设置是用于POC/ Dev,而不是用于生产。
时间戳的宽度就像,从1980年到今天,在地役权度量下,每个符号每一天都有一个数据点。如果上面的语句令人困惑(我的12个度量标准将得到3095个数据点,每天在连续运行中为每个符号添加一个)。
当前场景中标记值的基数是3095+符号
查询示例: http://myIPADDRESS:4242/api/query?start=1980/01/01&end=2016/02/18&m=sum:stock.Open{symbol=IBM}&arrays=true
调试器结果:8.44秒;检索数据点8859;数据交换:55
数据写入速度也很慢,编写220万个数据点需要6.5小时。我是不是错了什么地方的配置或期望太多?
编写方法: Json对象通过Http
启用盐渍:尚未启用
发布于 2016-03-30 08:26:14
在一个度量中过多的数据会导致性能下降。结果可能是9000个数据点,但原始数据集可能太大。从100万个数据点中检索9000个数据点的性能将与从10亿个数据点中检索9000个数据点的性能大不相同。
https://stackoverflow.com/questions/35502270
复制相似问题