我认为http://www.webopedia.com/TERM/O/overhead.html很好地描述了什么是编程“开销”。我的问题是,一个操作产生的开销是如何衡量的?是否有一种客观的方法来跨所有平台(例如计时)来衡量这一点?或者,是否存在必须应用的特定于平台的指标?
发布于 2011-12-30 07:21:29
如果您能够关闭开销功能(即使这需要注释掉一些代码),那么手动计时可能就足够了。
通过分析器运行代码将告诉您运行时的多大比例是开销功能的结果。这种方法避免了您不得不猜测性能瓶颈可能在哪里(与正在进行的一些其他处理相比,开销特性可能微不足道)。
发布于 2011-12-30 07:22:56
基本上,你用“操作”做了一个veriosn,然后没有,然后对它们进行基准测试。为了什么,取决于他们是什么。我怀疑你说的是“速度”,尽管响应性、磁盘占用和内存占用、资源分配(垃圾收集等),甚至编译/解释也同样重要。
记住,一个人的优化是另一个人的,这有点太大了?
https://stackoverflow.com/questions/8674440
复制相似问题