用Python实现最速下降法求极值的方法

时间:2022-11-22 12:03:46

对于一个多元函数用Python实现最速下降法求极值的方法,用最速下降法(又称梯度下降法)求其极小值的迭代格式为

用Python实现最速下降法求极值的方法

其中用Python实现最速下降法求极值的方法为负梯度方向,即最速下降方向,αkαk为搜索步长。

一般情况下,最优步长αkαk的确定要用到线性搜索技术,比如精确线性搜索,但是更常用的是不精确线性搜索,主要是Goldstein不精确线性搜索和Wolfe法线性搜索。

为了调用的方便,编写一个Python文件,里面存放线性搜索的子函数,命名为linesearch.py,这里先只编写了Goldstein线性搜索的函数,关于Goldstein原则,可以参看最优化课本。

线性搜索的代码如下(使用版本为Python3.3):

  1. '''
  2. 线性搜索子函数
  3. '''
  4.  
  5. import numpy as np
  6. import random
  7.  
  8. def goldsteinsearch(f,df,d,x,alpham,rho,t):
  9.  
  10. flag=0
  11.  
  12. a=0
  13. b=alpham
  14. fk=f(x)
  15. gk=df(x)
  16.  
  17. phi0=fk
  18. dphi0=np.dot(gk,d)
  19.  
  20. alpha=b*random.uniform(0,1)
  21.  
  22. while(flag==0):
  23. newfk=f(x+alpha*d)
  24. phi=newfk
  25. if(phi-phi0<=rho*alpha*dphi0):
  26. if(phi-phi0>=(1-rho)*alpha*dphi0):
  27. flag=1
  28. else:
  29. a=alpha
  30. b=b
  31. if(b<alpham):
  32. alpha=(a+b)/2
  33. else:
  34. alpha=t*alpha
  35. else:
  36. a=a
  37. b=alpha
  38. alpha=(a+b)/2
  39. return alpha

上述函数的输入参数主要包括一个多元函数f,其导数df,当前迭代点x和当前搜索方向d,返回值是根据Goldstein准则确定的搜索步长。

我们仍以Rosenbrock函数为例,即有

用Python实现最速下降法求极值的方法

于是可得函数的梯度为

用Python实现最速下降法求极值的方法

最速下降法的代码如下:

  1. """
  2. 最速下降法
  3. Rosenbrock函数
  4. 函数 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2
  5. 梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)
  6. """
  7.  
  8. import numpy as np
  9. import matplotlib.pyplot as plt
  10. import random
  11. import linesearch
  12. from linesearch import goldsteinsearch
  13.  
  14. def rosenbrock(x):
  15. return 100*(x[1]-x[0]**2)**2+(1-x[0])**2
  16.  
  17. def jacobian(x):
  18. return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])
  19.  
  20. X1=np.arange(-1.5,1.5+0.05,0.05)
  21. X2=np.arange(-3.5,2+0.05,0.05)
  22. [x1,x2]=np.meshgrid(X1,X2)
  23. f=100*(x2-x1**2)**2+(1-x1)**2; # 给定的函数
  24. plt.contour(x1,x2,f,20) # 画出函数的20条轮廓线
  25.  
  26. def steepest(x0):
  27.  
  28. print('初始点为:')
  29. print(x0,'\n')
  30. imax = 20000
  31. W=np.zeros((2,imax))
  32. W[:,0] = x0
  33. i = 1
  34. x = x0
  35. grad = jacobian(x)
  36. delta = sum(grad**2) # 初始误差
  37.  
  38. while i<imax and delta>10**(-5):
  39. p = -jacobian(x)
  40. x0=x
  41. alpha = goldsteinsearch(rosenbrock,jacobian,p,x,1,0.1,2)
  42. x = x + alpha*p
  43. W[:,i] = x
  44. grad = jacobian(x)
  45. delta = sum(grad**2)
  46. i=i+1
  47.  
  48. print("迭代次数为:",i)
  49. print("近似最优解为:")
  50. print(x,'\n')
  51. W=W[:,0:i] # 记录迭代点
  52. return W
  53.  
  54. x0 = np.array([-1.2,1])
  55. W=steepest(x0)
  56.  
  57. plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 画出迭代点收敛的轨迹
  58. plt.show()

为了实现不同文件中函数的调用,我们先用import函数导入了线性搜索的子函数,也就是下面的2行代码

  1. import linesearch
  2. from linesearch import goldsteinsearch

当然,如果把定义goldsteinsearch函数的代码直接放到程序里面,就不需要这么麻烦了,但是那样的话,不仅会使程序显得很长,而且不便于goldsteinsearch函数的重用。

此外,Python对函数式编程也支持的很好,在定义goldsteinsearch函数时,可以允许抽象的函数f,df作为其输入参数,只要在调用时实例化就可以了。与Matlab不同的是,传递函数作为参数时,Python是不需要使用@将其变为函数句柄的。

运行结果为

  1. 初始点为:
  2.  
  3. [-1.2 1. ]
  4.  
  5. 迭代次数为: 1504
  6.  
  7. 近似最优解为:
  8.  
  9. [ 1.00318532 1.00639618]
  10.  
  11. 迭代点的轨迹为

用Python实现最速下降法求极值的方法

由于在线性搜索子程序中使用了随机函数,初始搜索点是随机产生的,因此每次运行的结果不太相同,比如再运行一次程序,得到

  1. 初始点为:
  2. [-1.2 1. ]
  3.  
  4. 迭代次数为: 1994
  5.  
  6. 近似最优解为:
  7. [ 0.99735222 0.99469882]

所得图像为

用Python实现最速下降法求极值的方法

以上这篇用Python实现最速下降法求极值的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。

原文链接:https://blog.csdn.net/u012705410/article/details/47254437