人们通常采用大O来表示法来描述分析的结果。如果存在正的的常数M和N0,当问题的规模N大于或等于N0后,算法的时间度T(n)小于或等于M·f(n),那么就称算法的时间复杂度为O(f(n))。这种说法意味着`当N充分大时,该算法复杂度不大于f(n)的一个常数倍! 这个怎么理解啊?