深度优先搜索-附python中yield的用法

时间:2022-07-07 23:31:30


清单5-4 递归版的深度优先搜索

def rec_dfs(G,s,S=None):
print("调用rec_dfs():s:",s)
if S is None:S=set()
S.add(s)
for u in G[s]:
print("s:",s,"u:",u)
if u in S:continue
print("S",S)
rec_dfs(G,u,S)

print("rec_dfs()返回值:",S,",此时s=",s)

运行:

if __name__=="__main__":
a, b, c, d, e, f, g, h, i= range(9)
N = [
{b, c, d}, # a
{a, d}, # b
{a,d}, # c
{a,b,c}, # d
{g,f}, # e
{e,g}, # f
{e,f}, # g
{i}, # h
{h} #i
]
## P=walk(N,b,S=set())

## comp=components(N)

rec_dfs(N,b)

调用rec_dfs():s: 1
s: 1 u: 0
S {1}
调用rec_dfs():s: 0
s: 0 u: 1
s: 0 u: 2
S {0, 1}
调用rec_dfs():s: 2
s: 2 u: 0
s: 2 u: 3
S {0, 1, 2}
调用rec_dfs():s: 3
s: 3 u: 0
s: 3 u: 1
s: 3 u: 2
rec_dfs()返回值: {0, 1, 2, 3} ,此时s= 3
rec_dfs()返回值: {0, 1, 2, 3} ,此时s= 2
s: 0 u: 3
rec_dfs()返回值: {0, 1, 2, 3} ,此时s= 0
s: 1 u: 3
rec_dfs()返回值: {0, 1, 2, 3} ,此时s= 1

这种深度优先搜索(DFS)策略从递归性结构中获得了一些最重要的属性。一旦我们在某个节点上启动了这一操作,我们就得确保自己能在相关操作继续下去之前遍历完其他所有我们所能到达的节点。

清单5-5 迭代版深度优先搜索

def iter_dfs(G,s):
S,Q=set(),[]
Q.append(s)
while Q:
u=Q.pop()
print("u:",u)
if u in S:continue
S.add(u)
Q.extend(G[u])
print("S:",S)
print("Q:",Q)
print()
yield u

运行结果:

if __name__=="__main__":
a, b, c, d, e, f, g, h, i= range(9)
N = [
{b, c, d}, # a
{a, d}, # b
{a,d}, # c
{a,b,c}, # d
{g,f}, # e
{e,g}, # f
{e,f}, # g
{i}, # h
{h} #i
]
G=[{b,c,d,e,f},#a
{c,e},#b
{d},#c
{e},#d
{f},#e
{c,g,h},#f
{f,h},#g
{f,g}#h
]
## P=walk(N,b,S=set())

## comp=components(N)

## rec_dfs(N,b)
p=list(iter_dfs(N,1))
g=list(iter_dfs(G,0))

u: 1
S: {1}
Q: [0, 3]

u: 3
S: {1, 3}
Q: [0, 0, 1, 2]

u: 2
S: {1, 2, 3}
Q: [0, 0, 1, 0, 3]

u: 3
u: 0
S: {0, 1, 2, 3}
Q: [0, 0, 1, 1, 2, 3]

u: 3
u: 2
u: 1
u: 1
u: 0
u: 0
>>> p[1, 3, 2, 0]

我们在其中添加了一句yield语句,它能使我们按照DFS的顺序来遍历目标图结构中的节点。


附注:yield用法

转自: http://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/

作者: 廖雪峰

说明: 本文作者将yield这个比较难理解的问题,深入浅出,讲的很浅显易懂。


+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

您可能听说过,带有yield的函数在Python中被称之为generator(生成器),何谓generator?

我们先抛开generator,以一个常见的编程题目来展示yield的概念。

如何生成斐波那契數列

斐波那契(Fibonacci)數列是一个非常简单的递归数列,除第一个和第二个数外,任意一个数都可由前两个数相加

得到。用计算机程序输出斐波那契數列的前N个数是一个非常简单的问题,许多初学者都可以轻易写出如下函数:


清单 1. 简单输出斐波那契數列前N个数
 def fab(max): 
n, a, b = 0, 0, 1
while n < max:
print b
a, b = b, a + b
n = n + 1

执行 fab(5),我们可以得到如下输出:

 >>> fab(5) 
1
1
2
3
5

结果没有问题,但有经验的开发者会指出,直接在fab函数中用print打印数字会导致该函数可复用性较差,因为fab

函数返回 None,其他函数无法获得该函数生成的数列。要提高fab函数的可复用性,最好不要直接打印出数列,而是

返回一个 List。以下是 fab 函数改写后的第二个版本:


清单 2. 输出斐波那契數列前 N 个数第二版
 def fab(max): 
n, a, b = 0, 0, 1
L = []
while n < max:
L.append(b)
a, b = b, a + b
n = n + 1
return L

可以使用如下方式打印出fab函数返回的List:

 >>> for n in fab(5): 
... print n
...
1
1
2
3
5

改写后的fab函数通过返回List能满足复用性的要求,但是更有经验的开发者会指出,该函数在运行中占用的内存会

随着参数max的增大而增大,如果要控制内存占用,最好不要用List来保存中间结果,而是通过iterable对象来迭

代。例如,在Python2.x中,代码:


清单 3. 通过iterable对象来迭代
 for i in range(1000): pass

会导致生成一个 1000 个元素的 List,而代码:

 for i in xrange(1000): pass

则不会生成一个1000个元素的List,而是在每次迭代中返回下一个数值,内存空间占用很小。因为xrange不返回

List,而是返回一个iterable 对象。利用iterable 我们可以把fab函数改写为一个支持iterable的class,以下是第

三个版本的 Fab:


清单 4. 第三个版本
 class Fab(object): 

def __init__(self, max):
self.max = max
self.n, self.a, self.b = 0, 0, 1

def __iter__(self):
return self

def next(self):
if self.n < self.max:
r = self.b
self.a, self.b = self.b, self.a + self.b
self.n = self.n + 1
return r
raise StopIteration()

Fab类通过next()不断返回数列的下一个数,内存占用始终为常数:

 >>> for n in Fab(5): 
... print n
...
1
1
2
3
5

然而,使用class改写的这个版本,代码远远没有第一版的fab函数来得简洁。如果我们想要保持第一版fab函数的简

洁性,同时又要获得iterable的效果,yield 就派上用场了:

清单 5. 使用yield的第四版
 def fab(max): 
n, a, b = 0, 0, 1
while n < max:
yield b
# print b
a, b = b, a + b
n = n + 1

'''

第四个版本的fab和第一版相比,仅仅把print b改为了yield b,就在保持简洁性的同时获得了iterable的效果。

调用第四版的fab和第二版的fab完全一致:

 >>> for n in fab(5): 
... print n
...
1
1
2
3
5

简单地讲,yield 的作用就是把一个函数变成一个 generator,带有yield的函数不再是一个普通函数,python

释器会将其视为一个generator,调用fab(5)不会执行fab函数,而是返回一个iterable对象!在for循环执行时,每

次循环都会执行fab函数内部的代码,执行到yield b时,fab函数就返回一个迭代值,下次迭代时,代码从yield b 

的下一条语句继续执行,而函数的本地变量看起来和上次中断执行前是完全一样的,于是函数继续执行,直到再次遇

到yield。也可以手动调用fab(5)的next()方法(因为 fab(5) 是一个generator对象,该对象具有next() 方法),

这样我们就可以更清楚地看到fab的执行流程:

清单 6. 执行流程
 >>> f = fab(5) 
>>> f.next()
1
>>> f.next()
1
>>> f.next()
2
>>> f.next()
3
>>> f.next()
5
>>> f.next()
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
StopIteration

当函数执行结束时,generator自动抛出 StopIteration 异常,表示迭代完成。在for循环里,无需处理 

StopIteration 异常,循环会正常结束。


我们可以得出以下结论:

一个带有yield的函数就是一个 generator,它和普通函数不同,生成一个 generator 看起来像函数调用,但不会执

行任何函数代码,直到对其调用next()(在for循环中会自动调用 next())才开始执行。虽然执行流程仍按函数的流

程执行,但每执行到一个 yield 语句就会中断,并返回一个迭代值,下次执行时从 yield 的下一个语句继续执行。

看起来就好像一个函数在正常执行的过程中被 yield 中断了数次,每次中断都会通过 yield 返回当前的迭代值。

yield的好处是显而易见的,把一个函数改写为一个generator 就获得了迭代能力,比起用类的实例保存状态来计算

下一个next()的值,不仅代码简洁,而且执行流程异常清晰。


如何判断一个函数是否是一个特殊的generator函数?可以利用isgeneratorfunction判断:

清单 7. 使用isgeneratorfunction判断
 >>> from inspect import isgeneratorfunction 
>>> isgeneratorfunction(fab)
True

要注意区分fab和fab(5),fab是一个generator function,而fab(5) 是调用fab返回的一个generator,好比类的

定义和类的实例的区别:

清单 8. 类的定义和类的实例
 >>> import types 
>>> isinstance(fab, types.GeneratorType)
False
>>> isinstance(fab(5), types.GeneratorType)
True

fab是无法迭代的,而fab(5)是可迭代的:

 >>> from collections import Iterable 
>>> isinstance(fab, Iterable)
False
>>> isinstance(fab(5), Iterable)
True

每次调用fab函数都会生成一个新的generator实例,各实例互不影响:

 >>> f1 = fab(3) 
>>> f2 = fab(5)
>>> print 'f1:', f1.next()
f1: 1
>>> print 'f2:', f2.next()
f2: 1
>>> print 'f1:', f1.next()
f1: 1
>>> print 'f2:', f2.next()
f2: 1
>>> print 'f1:', f1.next()
f1: 2
>>> print 'f2:', f2.next()
f2: 2
>>> print 'f2:', f2.next()
f2: 3
>>> print 'f2:', f2.next()
f2: 5

return 的作用

在一个 generator function 中,如果没有return,则默认执行至函数完毕,如果在执行过程中 return,则直接抛

出StopIteration终止迭代。

另一个例子

另一个yield的例子来源于文件读取。如果直接对文件对象调用read()方法,会导致不可预测的内存占用。好的方法

是利用固定长度的缓冲区来不断读取文件内容。通过 yield,我们不再需要编写读文件的迭代类,就可以轻松实现文

件读取:

清单 9. 另一个 yield 的例子
 def read_file(fpath): 
BLOCK_SIZE = 1024
with open(fpath, 'rb') as f:
while True:
block = f.read(BLOCK_SIZE)
if block:
yield block
else:
return

以上仅仅简单介绍了yield的基本概念和用法,yield在Python 3 中还有更强大的用法,我们会在后续文章中讨论。

注:本文的代码均在 Python 2.7 中调试通过