python 下的数据结构与算法---3:python内建数据结构的方法及其时间复杂度
目录
一:python内部数据类型分类
二:各数据结构
一:python内部数据类型分类
这里有个很重要的东西要先提醒注意一下:原子性数据类型和非原子性数据类型的区别
Python内部数据从某种形式上可以分为两种:
其一是原子性数据类型:int,float,str
其余的是非原子性的(按有序性分):
有序的:list, tuple
无序的:set, dict
那么什么是原子性呢,在第一篇讲赋值语句时有个例子:
赋值语句:x = 6
其实这个过程是建立了一个指向(reference),左边的是指向,右边的是一个对象(object)或者一个有指向对象的指向,可以有多个指向指向同一个对象(object),[注意此地对象的意思,可以是值,实例,函数等等], 综上,此地时建立了一个叫x的变量(variable)让其拥有object 6的reference
注意:
>>> a=[1,2,3,4] >>> a=1
>>> b=a >>> b=a
>>> a[0]=None >>> a=2
>>> b >>> b
[None, 2, 3, 4] 1
这里就出现了一个很奇怪的现象了,左边的b跟着a变而右边的没有,其实这就是因为int为原子性数据结构带来的。可以认为原子性数据所在内存地址是固定的,这样改变了a变量的值就是改变了a变量指向的地址。而非原子性改变a就是改变了a所指内存地址所存储的东西而没有改变a指向的地址。这样就能够解释通了。
另一个有趣的例子:
my_list = [1,2,3]
A = [my_list]*3
--à[1,2,3,1,2,3,1,2,3]
变量A是三个my_list的reference的集合,my_list某个元素的改变都会折射到其上
二:各数据结构
下面会挨个说明这些内建数据结构各种方法的时间复杂度:
1:String
先回顾一下前面讲过string只有accessor method,故其所有方法都是不会改变其本身的,只是取出来做了些处理。
2:List
e.g:解析下面代码大O函数值:
def anagram_solution2(s1,s2):
a_list1 = list(s1) a_list2 = list(s2)
a_list1.sort() a_list2.sort()
pos = 0
matches = True
while pos < len(s1) and matches:
if a_list1[pos] == a_list2[pos]:
pos = pos + 1
else:
matches = False
return matches
print(anagram_solution2('abcde','edcba'))
如果不假思索的话我们会写出g(n)= n/2 + 7,则O(n) = n
其实再对照表2.2发现sort方法为O(nlogn),高阶于n,故O(n)=nlogn
说明一下:对于list,学过C语言的应该还记得其实就是利用了下标对应于起始元素的内存地址能够在O(1)计算时间找到下标为任意的元素,故list的任意元素的访问时间为O(1),若在访问了的基础上做的都是O(1)操作则自然就是O(1)啦,若做了其他的高阶操作则就是后者了。其中有个有趣的是pop()与pop(i)的不同,由于list是顺序结构,故在删除中间元素时其后所有元素要前移,故pop(i)最坏情况是pop(0),即是O(n)结合其他看起来,list是一个优于访问,败于增删的数据结构类型
3:Set
#注意啊,表1.5是set的计算符号,表1.6是set的方法
*创建set:a = { 12,’pd’,True,None }
#其时间复杂度的原理和dict一起在后面讲解
4:dict
从中可以看出痛过key获得元素的速度与list相同是O(1)的,其原理与set一起在后面说,本质上其key是通过hash函数转化作为list下标存在list中的,故与list一样是O(1),但是实际比list访问慢一些,且有可能不是O(1)
以上是 python 下的数据结构与算法---3:python内建数据结构的方法及其时间复杂度 的全部内容, 来源链接: utcz.com/z/387641.html