Java数据结构之基础知识
基础知识复习
数学知识复习
这里给出一些需要记忆或者能够推导出的基本公式。
指数
(没啥多说的)
对数
在计算机科学中,除非有特别说明,一般所有的对数都是以2为底的。
定义1.1:
定理1.1:
定理1.2:
证明如下:
级数
最容易记的公式是
和
(等比数列之和:$$
\begin{array}{l}
S_{n}=\frac{a_{1}-a_{n} q}{1-q} =\frac{a_{1}\left(1-q^{n}\right)}{1-q}(q \neq 1)
\end{array}
\begin{array}{c}
\sum_{i=1}^{N} f(N)=N f(N) \
\sum_{i=n_{0}}^{N} f(i)=\sum_{i=1}^{N} f(i)-\sum_{i=1}^{n_{0}-1} f(i)
\end{array}
1 | /** |
1 | public static void main(String[] args) { |
1 | public static void main(String[] args) { |
\mathrm{O}(1)<\mathrm{O}(\log n)<\mathrm{O}(n)<\mathrm{O}(n \log n)<\mathrm{O}\left(n{2}\right)<\mathrm{O}\left(n{3}\right)<\mathrm{O}\left(2^{n}\right)<\mathrm{O}(n !)<\mathrm{O}\left(n^{n}\right)
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n) = O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐进时间复杂度,简称为时间复杂度。
这样用大写O()
来体现算法时间复杂度的记法,我们称之为大O记法。
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。
推导大O阶的方法
推导大O阶:
- 用常数1取代运行时间中所有加法常数
- 在修改后的运行次数函数中,只保留最高阶项
- 如果最高阶项存在且不是1,则去除与这个项相乘的常数。得到的结果就是大O阶
接下来我们具体看几个例子,就差不多能理解了。
O(1)
顺序结构的时间复杂度,为O(1),如:
1 | int sum = 0,n=100; /* 执行一次 */ |
同样,对于分支结构(如if-else)而言,无论是真还是假,执行的次数都是恒定的,不会随着n的变大二发生变化,所以单纯的分支结构(不包含循环结构),其时间复杂度也是O(1)。
O(logn)
例子:
1 | Scanner scanner = new Scanner(System.in); |
由于每次count*2
之后,就更接近n了。也就是说,有多少个2相乘后大于n,就会退出循环。由 得到 。所以这个循环的时间复杂度为O(logn)。
O(n)
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或特定语句集的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
例子:
1 | Scanner scanner = new Scanner(System.in); |
循环的时间复杂度为O(n),因为循环体中的代码需要执行n次。
线性对数其实非常容易理解,将时间复杂度为O(logn)的代码循环n遍的话,那么它的时间复杂度就是 n * O(logN),也就是了O(nlogN)。
例子:
1 | for(int i=1; i<n; i++) |
这个嵌套循环的时间复杂度为:
嵌套循环例子:其中它的内循环在我们上面的分析中已经得出,时间复杂度为O(n)
1 | Scanner scanner = new Scanner(System.in); |
对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为。
如果外循环的次数改为了m,时间复杂度就变为O(m*n):
1 | Scanner scanner = new Scanner(System.in); |
接下来我们看一下下面这个嵌套循环,看一下它的时间复杂度为多少:
1 | Scanner scanner = new Scanner(System.in); |
分析:当i = 0时,内循环执行了n次,当i = 1时,执行了n-1次,……当i = n - 1时,执行了1次。所以总的执行次数为:$$
n+(n-1)+(n-2)+\cdots+1=\frac{n(n+1)}{2}=\frac{n^{2}}{2}+\frac{n}{2}$$
根据我们上面给出的推导大O阶方法:第一条,没有加法常数不予考虑;第二条,只保留高阶项,因此保留; 第三条,去除这个项相乘的常数,也就是去除1/2,,最终这最段代码的时间复杂度为。
从这个例子中我们可以得到一些经验:其实理解大O推导不算难,难的是对数列的一些相关运算,这更多的是需要我们的数学知识和能力。
对于方法调用的时间复杂度
对于方法调用的时间复杂度如何分析,我们继续来看例子:
1 | Scanner scanner = new Scanner(System.in); |
function函数的时间复杂度为O(1),所以整体的时间复杂度为O(n)。
现在改变一下function函数,例如:
1 | public static void main(String[] args) { |
这个例子其实和上面一样的,时间复杂度为。
最后来看一段相对复杂的程序,应该就能理解时间复杂度怎么求了:
1 | public static void main(String[] args) { |
它的执行次数 , 根据推导大O阶的方法,最终这段代码的时间复杂度也是 。
常见的时间复杂度
常见的时间复杂度如下表:
常用的时间复杂度所耗费的时间从小到大依次是:
上面我们已经介绍了O(1),O(logn),O(n),,等。而像,,,这些,过大的n都将会是噩梦般的运行时间,所以这种不切实际的时间复杂度我们一般不讨论。
通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。一般在没有特殊说明的情况下,我们说的时间复杂度都是指最坏时间复杂度。
空间复杂度
既然时间复杂度不是用来计算程序具体耗时的,那么我也应该明白,空间复杂度也不是用来计算程序实际占用的空间的**。空间复杂度是对一个算法在运行过程中临时占用存储空间大小的一个量度,同样反映的是一个趋势,我们用 S(n) 来定义**(时间复杂度T(n),空间复杂度S(n))。空间复杂度比较常用的有:O(1),O(n),O(n²)。
O(1)
如果算法执行所需要的临时空间不随着某个变量n的大小而变化,即此算法空间复杂度为一个常量,可表示为 O(1)。
例子:
1 | int i = 1; |
代码中的 i,j,m 所分配的空间都不随着处理数据量变化,因此它的空间复杂度 S(n) = O(1)。
O(n)
例子:
1 | Scanner scanner = new Scanner(System.in); |
这段代码中,第3行new了一个数组出来,这个数据占用的大小为n,这段代码的5-8行,虽然有循环,但没有再分配新的空间,因此,这段代码的空间复杂度主要看第一行即可,即 S(n) = O(n)。
算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作: S(n)= O(f(n)), 其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。
一般情况下, 一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为0(1)。
通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。
抽象数据类型(ADT)
抽象数据类型( abstract data type, ADT)是带有一组操作的一些对象的集合。抽象数据类型是数学的抽象;在ADT的定义中没有地方提到关于这组操作是如何实现的任何解释。诸如表、集合、图以及与它们各自的操作一起形成的这些对象都可以被看做是抽象数据类型,这就像整数、实数、布尔数都是数据类型一样。整数、实数和布尔数各自都有与之相关的操作,而抽象数据类型也是如此。对于集合ADT,可以有像添加(add)、删除(remove)以及包含(contain)这样一些操作。当然,也可以只要两种操作并(union)和查找(find),这两种操作又在这个集合上定义了一种不同的ADT。
Java类也考虑到ADT的实现,不过适当地隐藏了实现的细节。这样,程序中需要对ADT实施操作的任何其他部分可以通过调用适当的方法来进行。如果由于某种原因需要改变实现的细节,那么通过仅仅改变执行这些ADT操作的例程应该是很容易做到的。这种改变对于程序的其余部分是完全透明的。
对于每种ADT并不存在什么法则来告诉我们必须要有哪些操作,这是一个设计决策。错误处理和结构调整(在适当的地方)一般也取决于程序的设计者。后面的笔记中我们将要讨论的表、栈和队列这三种数据结构是ADT的最基本的例子。我们将会看到它们中的每一种是如何以多种方法实现的,不过,当它们被正确地实现以后,使用它们的程序却没有必要知道它们是如何实现的。