O(m + n)和O(mn)之间的区别?

我试图通过不同的方法来发现算法的复杂性。从数学上讲,我遇到了一个O(m +

n)和另一个O(mn)方法。但是,我无法理解或说出这种形象。好像我看着他们并没有感觉到“啊!那是怎么回事”的感觉!有人可以使用自己的示例或任何其他工具对此进行解释吗?

回答:

我对发现直觉的建议是思想实验,如下所示:

首先,认识到m和n是 输入的 两个 不同度量

。它们可能是两个输入流的长度,矩阵边的长度,或同一数据结构的两个不同属性的计数,例如同一图形的边和节点计数,或任何类似的度量。

直觉是big-O用一个简单的函数-称R(m,n)-乘以某个值来表示算法的 真实

运行时间(或其他方面,例如比较计数或所需空间)的界限。任意常数。我们忽略了常数因素,并通过调用运行时间O(R(m,n))来考虑所有以同一R为界的算法。

因此,大O(m + n)表示,对于合适的大m和n,实际运行时间受某个函数R(m,n)= C(m +

n)限制。对于图示例,这表示算法的实际运行时间将受顶点和边的数量之和的倍数限制。

您可以将边界函数看作是3d中具有轴m,n和R(m,n)的图形。或者您可以想到图表:

R(m,n) = m + n

--------------

m= 1 2 3 4

n=1 1 2 3 4

2 3 4 5 6

3 4 5 6 7

4 5 6 7 8

对于R(m,n)= mn,您有

R(m,n) = mn

--------------

m= 1 2 3 4

n=1 1 2 3 4

2 2 4 6 8

3 3 6 9 12

4 4 8 12 16

作为3d图形,第一个函数是一个平面,第二个函数是在几乎所有点上都快得多的增长函数。这意味着,如果m和n足够大,则O(mn)边界最终将比O(m +

n)大(对应于可能更慢的程序),因为常量变得无关紧要了。

以快速增长的成本为例,假设O(m + n)算法在其运行时范围内具有3的额外常数(与上述两种算法相比,在小输入量下它的运行速度可能非常慢):

R(m,n) = 3(m + n)

--------------

m= 1 2 3 4

n=1 3 9 12 15

2 9 12 15 18

3 12 15 18 21

4 15 18 21 24

因此,与上表中的O(mn)相比,O(m + n)的约束似乎受约束的程度要小。但是看一下m = n = 100的情况。此处,在O(m +

n)算法上的界限是3(m + n)=600。但是常数较小的O(mn)算法的界限mn =10000。显然,如果m和n大,则您要第一个。

@Anonymous在本文的初始版本中提出了一个很好的观点,它混淆了big-O和big-Theta。Big-O仅处理被测数量的界限或 上限

。例如,这意味着 每个 O(n)算法也是O(n log n)和O(n ^ 2)。如果实际运行时间受较慢增长的函数限制,则它也受所有较快增长的函数限制。

然而,人们常常说“此算法为O(n)”,而这意味着边界是 紧密的

。也就是说,对于某些常数C,Cn是运行时间的上限,而对于其他常数D(合适的是较大的n),Dn也是下限。这样的严格界限正确地表示为Theta(n),而不是O(n)。Theta(R(m,n))算法的运行时间(大致而言)与R(m,n)成比例。

最后我要补充一点,在许多情况下,您不能忽略常量。文献中存在许多算法,它们比通常使用的算法渐近“快”,但是常数太大,以至于实际问题的规模总是太慢。计算几何有很多例子。基数2排序是另一种。它是Theta(n),但实际上,一个好的快速排序(Theta(n

log n)平均大小)将在大小至少为10 ^ 8的整数数组上胜过它。

以上是 O(m + n)和O(mn)之间的区别? 的全部内容, 来源链接: utcz.com/qa/431595.html

回到顶部