关于Redis哈希集的最佳条目大小设置,我有一些问题。
非常感谢你的评论/澄清。
发布于 2017-06-08 11:01:43
关键是,从这里开始
操纵这些ziplist结构的紧凑版本可能会变得缓慢,因为它们会增长得更长。
和
随着压缩器获取/更新散列单个字段的时间越来越长,Redis将不得不对多个单独的条目进行解码,而CPU缓存就不会那么有效了。
所以对于你的问题
hash-max-zipmap-entries只是告诉Redis将编码从ziplist更改为散列的限制。发布于 2014-07-08 12:03:19
您鼓励我阅读这两个链接,而且您似乎要求“哈希表大小的默认值”。
我认为不可能说一个数字对所有可能性都是普遍的。所描述的机制类似于标准哈希映射。看看表格
如果哈希表的大小很小,则意味着许多不同的哈希值指向同一个数组,在该数组中使用equals方法查找项。
另一方面,大型哈希表意味着它将分配大量内存和许多空字段。但是,由于算法使用了O(1)大O表示法,并且没有相等的搜索项,所以这个算法的缩放性很好。
一般来说,IMHO的大小取决于您希望放入表中的所有元素的总数,也取决于键的多样性。我的意思是,如果每个散列都以"0001“开头,那么即使是size=100000也不会对您有所帮助。
https://stackoverflow.com/questions/24617615
复制相似问题