为什么我们总是在算法分析中考虑大的输入值,例如:在big-oh表示法中?
发布于 2011-02-16 15:13:49
Big-O notation的目的正是要计算出运行时间(或空间)如何随着输入大小的增加而变化-换句话说,它的伸缩性有多好。
如果你只对小输入感兴趣,你不应该使用大O分析...抛开其他事情不谈,通常有一些方法可伸缩性很差,但对于小输入非常有效。
发布于 2011-02-16 15:13:49
因为最坏情况下的性能通常比最佳情况下的性能更成问题。如果你的最坏情况下的性能是可以接受的,你的算法就会运行得很好。
发布于 2011-02-16 15:15:43
对算法的分析不仅仅意味着在计算机上运行它们来查看哪个算法更快。相反,它能够查看算法并确定它将如何执行。这是通过查看算法的数量级来完成的。随着项数(N)的变化,它对执行所需的操作数(时间)有什么影响。这种分类方法称为BIG-O表示法。
程序员使用Big-O粗略估计各种算法对“大”输入
使用的“多少秒”和“多少内存”
https://stackoverflow.com/questions/5013501
复制相似问题