我是数据仓库环境中的数据库设计人员。我习惯于处理最多有100万行的表,现在面对的是5亿行以上的表。与“效率工具箱”中的工具有什么显著差异吗?我能相信我以前对索引、分区之类的知识吗,或者这些特定工具中的一些更多地是阻碍而不是帮助处理这么大的数据呢?还有其他处理这些桌子的窍门吗?
(已经在将7亿行更新为相同值上找到了一篇很棒的文章)
发布于 2013-02-16 15:56:35
索引等的基本原理都是以完全相同的方式工作的,所以严格地说,唯一的区别是错误的代价!
尽管如此,这里有一个(不一定是完整的)值得记住的事情清单:
estimate_percent,因此对表的采样较少。如果您还不熟悉阅读和理解执行计划,我会花一些时间学习以下内容:您在某一时刻一定会遇到性能问题,因此了解如何正确诊断问题将变得更加重要,因为当您的行数更大时,添加新索引或进行模式更改将变得更加困难。
发布于 2013-02-15 17:56:14
数量本身就有质量。
在处理这种大小的表时,不应将事实表视为表,而应将其视为段级的表,或将其视为离散表的集合。(年龄足够大,可以记住使用分区视图滚动我自己的分区会有帮助。)
蒂姆·戈尔曼( Tim )的缩放到无限论文是一份宝贵的资源。
https://dba.stackexchange.com/questions/34603
复制相似问题