首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >OpenTSDB的性能

OpenTSDB的性能
EN

Stack Overflow用户
提问于 2016-02-19 09:53:23
回答 1查看 988关注 0票数 2

返回9000个数据点的json需要6秒。我有大约10 in的数据在12个指标中,比如x.open,x.close.

数据存储模式:度量: x.open

标记:符号

tagv : stringValue

公制: x.close

标记:符号

tagv : stringValue

我的Configurations正在进行群集设置,如下所示

节点1:(真实的16 TSD ) JournalNode,Namenode,动物园管理员,RegionServer,HMaster,DFSZKFailoverController,TSD

节点2:(VM 8GB StandbyNN) JournalNode,Namenode,动物园管理员,RegionServer

节点3:(真实的16 TSD )数据节点、RegionServer、TSD

节点4:(VM4GB) JournalNode、Datanode、Zookeeper、RegionServer --设置是用于POC/ Dev,而不是用于生产。

时间戳的宽度就像,从1980年到今天,在地役权度量下,每个符号每一天都有一个数据点。如果上面的语句令人困惑(我的12个度量标准将得到3095个数据点,每天在连续运行中为每个符号添加一个)。

当前场景中标记值的基数是3095+符号

查询示例: http://myIPADDRESS:4242/api/query?start=1980/01/01&end=2016/02/18&m=sum:stock.Open{symbol=IBM}&arrays=true

调试器结果:8.44秒;检索数据点8859;数据交换:55

数据写入速度也很慢,编写220万个数据点需要6.5小时。我是不是错了什么地方的配置或期望太多?

编写方法: Json对象通过Http

启用盐渍:尚未启用

EN

回答 1

Stack Overflow用户

发布于 2016-03-30 08:26:14

在一个度量中过多的数据会导致性能下降。结果可能是9000个数据点,但原始数据集可能太大。从100万个数据点中检索9000个数据点的性能将与从10亿个数据点中检索9000个数据点的性能大不相同。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35502270

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档