无约束优化方法

一、最速下降法(梯度下降法)

基本思想:

  1. 初始点 $x^{0} \in \mathbb{R}^{n}$,$0 \leq \epsilon \ll 1$,$k=0$;
  2. 计算 $\nabla f\left(\boldsymbol{x}^{k}\right)$ ,如果 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|_{2} \leq \epsilon$ ,停止迭代:否则,令 $\boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)$ ;
  3. 沿 $d^{k}$ 方向确定步长 $\alpha_{k}$ ;
  4. 令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha_{k} \boldsymbol{d}^{k}$,$k=k+1$,转 Step 2。

精确一维搜索最速下降法:
若最速下降法 Step 3 中确定的步长 $\alpha{k}$ 满足:$\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$,即 $f\left(\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}\right)=\min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$ 。也即,若 $\alpha{k}$ 经精确一维搜索得到,则相应的最速下降算法称为精确一维(线)搜索最速下降法,且称 $\alpha_{k}$ 为精确步长因子。

最速下降法特点:
$\boldsymbol{d}^{k}$ 与 $\boldsymbol{d}^{k+1}$ 正交,即相邻两次迭代中搜索方向是正交的。最速下降法向极小点逼近是曲折前进的,这种现象称为锯齿现象。该现象会使得迭代点逼近极小点的过程是"之"字形。而在实际优化过程中,对于任意初始点,最速下降法都可以很快到达极小点附近,但是越靠近极小点步长越小,导致最速下降法的收敛速度很慢。

证明:由于 $\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$ ,则 $\left.\frac{d f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)}{d \alpha}\right|{\alpha=\alpha{k}}=0$ 。即 $\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \nabla f\left(\boldsymbol{x}^{k}+\alpha_{k} \boldsymbol{d}^{k}\right)=\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \nabla f\left(\boldsymbol{x}^{k+1}\right)=0$ 。
又 $\boldsymbol{d}^{k+1}=-\nabla f\left(\boldsymbol{x}^{k+1}\right)$ ,故 $\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \boldsymbol{d}^{k+1}=0$ ,即正交。

最速下降法向极小点逼近是曲折前进的,这种现象称为锯齿现象。该现象会使得迭代点逼近极小点的过程是"之"字形。而在实际优化过程中,对于任意初始点,最速下降法都可以很快到达极小点附近,但是越靠近极小点步长越小,导致最速下降法的收敛速度很慢。

收敛性定理:
设 $f(\boldsymbol{x})$ 连续可微,且水平集有界$L=\left{\boldsymbol{x} \in \mathbb{R}^{n} \mid f(\boldsymbol{x}) \leq f\left(\boldsymbol{x}^{0}\right)\right}$,则对于某个 $k$ ,由精确一维搜索最速下降法产生的序列满足:$\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2}=0$,或$\lim {k \rightarrow+\infty}\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|_{2}=0$。

优点:

  • 计算复杂度低,存储量小;
  • 具有全局收敛性,对初始点要求不严格。

缺点:
-收敛速度慢,尤其在极小点附近,该方法产生的点列逼近函数的极小点越来越慢。

导致缺点的原因:

  • $\boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)$ 仅反映 $f(\boldsymbol{x})$ 在 $\boldsymbol{x}^{k}$ 处的局部性质;
  • $\boldsymbol{d}^{k}$ 与 $\boldsymbol{d}^{k+1}$ 正交,即相邻两次迭代的搜索方向正交,致使优化"远快近慢"。

为了解决最速下降法中相邻两步搜索方向正交的所导致的收敛速度慢的问题,可使用以下改进方法:

  1. 选择不同初始点:有利于避免迭代过程中出现锯齿现象。例如对于 $f(\boldsymbol{x})=x{1}^{2}+25 x{2}^{2}$ ,分别取 $\boldsymbol{x}^{0}=(2,2)^{\mathrm{T}}$ 和 $\boldsymbol{x}^{0}=(100,0)^{\mathrm{T}}$ 。虽然后一初始点较前一初始点离 $x^{*}$ 更远,但迭代中不出现锯齿现象。
  2. 采用不精确的一维搜索:可使相邻两个迭代点处的梯度不正交,从而改变收敛性。对于最速下降法,有时为了减少计算工作量,采用固定步长,称为固定步长最速下降法。
  3. 采用加速梯度法:负梯度方向和 $\boldsymbol{p}^{k}=\boldsymbol{x}^{k}-\boldsymbol{x}^{k-2}$ 相结合。即,由于最速下降法在极小点附近呈"锯齿"状,因此第 $k$ 步的搜索方向取为 $\boldsymbol{p}^{k}$ ,而第 $k+1$ 和第 $k+2$ 步继续使用负梯度方向。

    二、共轭梯度法

1.问题背景和基本思想:

最速下降法计算复杂度低,但锯齿现象致使其收敛速度慢。因此,为避免锯齿现象出现,可利用当前迭代点 $\boldsymbol{x}^{k}$ 处的负梯度方向 $-\nabla f\left(\boldsymbol{x}^{k}\right)$ 与上一步的搜索方向 $\boldsymbol{d}^{k-1}$ ,通过寻找 $-\nabla f\left(\boldsymbol{x}^{k}\right)$ 和 $\boldsymbol{d}^{k-1}$ 两者的适当线性组合,从而构造出搜索方向 $\boldsymbol{d}^{k}$ ,而非每次迭代的搜索方向都为负梯度方向。

由 Taylor 公式知,函数在某点附近的性质与二次函数十分接近。因此,先针对正定二次函数建立简单、高效、收敛速度快的求解算法,然后再推广到一般函数上去。

2.共轭及其性质

设 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}_{n}$ 是 $\mathbb{R}^{n}$ 中任意一组非零向量, $\boldsymbol{Q} \in \mathbb{R}^{n \times n}$ 是 n 阶对称正定矩阵。若

则称 $\boldsymbol{d}{i}$ 和 $\boldsymbol{d}{j}$ 是 $\boldsymbol{Q}$ 共轭的,向量组 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}{n}$ 是 $\boldsymbol{Q}$ 共轭向量组。
若 $\boldsymbol{Q}=\boldsymbol{I}$,$\boldsymbol{d}
{i}^{\mathrm{T}} \boldsymbol{I} \boldsymbol{d}{j}=0(i \neq j)$ ,则 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}{n}$ 是正交的,因此共轭是正交的推广,共轭向量组是正交向量组的推广。

设 $\boldsymbol{Q}$ 为 $n$ 阶对称正定矩阵,非零向量组 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}_{n}$ 关于 $\boldsymbol{Q}$ 共轭,则该向量组必线性无关。

设 $\boldsymbol{Q}$ 为 $n$ 阶对称正定矩阵,非零向量组 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}_{n}$ 关于 $\boldsymbol{Q}$ 共轭,则它们构成 $\mathbb{R}^{n}$ 的一组基。

设 $\boldsymbol{Q}$ 为 $n$ 阶对称正定矩阵,非零向量组 $\boldsymbol{d}{1}, \boldsymbol{d}{2}, \cdots, \boldsymbol{d}{n}$ 关于 $\boldsymbol{Q}$ 共轭。若向量 $\boldsymbol{v}$ 与 $\boldsymbol{d}{1}$, $\boldsymbol{d}{2}$, $\cdots$, $\boldsymbol{d}{n}$ 均正交,则 $\boldsymbol{v}=\mathbf{0}$ 。

3.为什么用共轭方向?

对于下列正定二次函数求极小问题:

对于上述方式产生的下降方向 $\boldsymbol{d}^{k}$ ,可以证明:$\left(\boldsymbol{d}^{i}\right)^{\mathrm{T}} \boldsymbol{Q} \boldsymbol{d}^{k+1}=0, i=1,2, \cdots, k$。

也即,按上述方法得到的 $n$ 个方向 $\boldsymbol{d}^{1}, \boldsymbol{d}^{2}, \cdots, \boldsymbol{d}^{n}$ 关于 $\boldsymbol{Q}$ 是两两共轭的。
此外,上述共轭梯度法迭代过程中,序列 $\left{x^{k}\right}$ 所对应的梯度向量组 $\nabla f\left(\boldsymbol{x}^{k}\right), k=1,2, \cdots, n$ 是正交向量组。

(2)适用于求解正定二次函数的共轭梯度法算法

  1. 初始化 $x^{1} \in \mathbb{R}^{n}$, $\boldsymbol{d}^{1}=-\nabla f\left(\boldsymbol{x}^{1}\right)$,$0 \leq \epsilon<1$,$k=1$ ;
  2. 如果 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2} \leq \epsilon$ ,停止迭代;否则沿 $d^{k}$ 精确线搜索求步长:$$\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)=-\frac{\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \nabla f\left(\boldsymbol{x}^{k}\right)}{\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \boldsymbol{Q} \boldsymbol{d}^{k}}
    $$令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha
    {k} \boldsymbol{d}^{k}$ ,并计算: $\boldsymbol{d}^{k+1}=-\nabla f\left(\boldsymbol{x}^{k+1}\right)+\lambda{k} \boldsymbol{d}^{k}$ ,其中 $\lambda{k}=\frac{\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \boldsymbol{Q} \nabla f\left(\boldsymbol{x}^{k+1}\right)}{\left(\boldsymbol{d}^{k}\right)^{\mathrm{T}} \boldsymbol{Q} \boldsymbol{d}^{k}}$ 。
  3. 令 $k=k+1$ ,转 Step 2。

注意:$\alpha{k}$是步长,$\lambda{k}$是组合系数,二者不同。

针对正定二次函数迭代过程中最优步长 $\alpha{k}$ 的推导过程:
不失一般性,设 $f(\boldsymbol{x})=\frac{1}{2} \boldsymbol{x}^{\mathrm{T}} \boldsymbol{Q} \boldsymbol{x}+\boldsymbol{b}^{\mathrm{T}} \boldsymbol{x}+c$ ,其中 $\boldsymbol{Q}$ 为对称正定矩阵,且 $\nabla f(\boldsymbol{x})=\boldsymbol{Q} \boldsymbol{x}+\boldsymbol{b}$ 。给定任意迭代点 $\boldsymbol{x}^{k}$ ,则最佳步长 $\alpha
{k}$ 满足$\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$,即

解得:

(3)收敛性
综上所述,若中途不停机的话,这样得到的 $n$ 个方向 $\boldsymbol{d}^{1}, \boldsymbol{d}^{2}, \cdots, \boldsymbol{d}^{n}$ 关于 $\boldsymbol{Q}$ 是两两共轭的。再结合基本定理,那么 $x^{n+1}$ 一定是所求的最优解。

5.组合系数的选取

上面的算法中,组合系数的选取为如下 Hestenes-Stiefel 公式(HS):

注意到该公式中含有 Hessian 矩阵 Q ,计算复杂度高且所需存储空间较大,故不能直接应用于一般非线性函数求极值的问题。

组合系数的其他形式一正定二次函数:

  1. Fletcher-Reeve 公式(FR)
  2. Dixon-Myers 公式(DM)
  3. Polak-Ribiere-Polyak 公式(PRP)对于正定二次函数,HS、FR、DM、PRP 等四个公式是等价的;对应的四种共轭梯度法也是等价的。对于非二次函数,产生的搜索方向不再相同,常利用 FR、DM、PRP 等三个公式,通常不用 HS 公式 (其中含有 Hessian 矩阵)。经验上 PRP 效果较好。
6.求解一般函数极值的 FR 共轭梯度法
  1. 给定 $\boldsymbol{x}^{1} \in \mathbb{R}^{n}$, $\boldsymbol{d}^{1}=-\nabla f\left(\boldsymbol{x}^{1}\right)$, $0 \leq \epsilon<1$, $k=1$ ;
  2. 如果 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2} \leq \epsilon$ ,停止迭代,取 $\boldsymbol{x}^{*}=\boldsymbol{x}^{k}$ ;否则,由精确线搜索求步长:$\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$,则 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}$,$\boldsymbol{d}^{k+1}=-\nabla f\left(\boldsymbol{x}^{k+1}\right)+\lambda{k} \boldsymbol{d}^{k}$ ,其中 $\lambda{k}=\frac{\left|\nabla f\left(\boldsymbol{x}^{k+1}\right)\right|{2}^{2}}{\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2}^{2}}$ ;
  3. 令 $k=k+1$ ,返回 Step 2。

收敛性定理:
设凸函数 $f(\boldsymbol{x})$ 存在一阶连续偏导数,且水平集有界$L=\left{\boldsymbol{x} \in \mathbb{R}^{n} \mid f(\boldsymbol{x}) \leq f\left(\boldsymbol{x}^{1}\right)\right}$,则由共轭梯度法得到的点列 $\left{\boldsymbol{x}^{k}\right}$ 有如下性质:

  1. $f\left(\boldsymbol{x}^{k}\right)$ 严格单调下降,且 $\lim _{k \rightarrow+\infty} f\left(\boldsymbol{x}^{k}\right)$ 存在;
  2. $\left{\boldsymbol{x}^{k}\right}$ 的任意驻点 $\boldsymbol{x}^{*}$ 都是 $f(\boldsymbol{x})$ 的极小点。

优点:

  • 克服了最速下降法收敛速度慢的缺点,共轭梯度法的收敛速率不坏于最速下降法;
  • 建立在二次模型之上,具有二次终止性,即求解 n 元正定二次函数(严格凸二次函数)极值,最多 n 步迭代便可求出最优解;
  • 不用求 Hessian 矩阵或者逆矩阵,算法所需存储空间小,是求解大规模问题的重要方法;
  • 对凸函数全局收敛。

缺点:

  • 误差可能会使 n 步迭代得不到正定二次函数的极小点;
  • n 维空间中共轭方向最多有 n 个, n 步后构造的搜索方向不再是共轭的,会降低收敛速度;
  • 对于非二次函数,由于目标函数的 Hessian 矩阵不再是常数矩阵,因而产生的方向不再是共轭方向。
7.周期性的共轭梯度法

对于 FR 算法和 PRP 算法,如果初始方向不取负梯度方向或不使用精确线搜索求最优步长,即使对于二次函数也很难产生 $n$ 个共轭方向。

重开始技术:
用这两个方法迭代 $n$ 步后,将 $x^{n+1}$ 作为初始点 $x^{1}$ 重新开始迭代。具体而言,当迭代 $n$ 步后,将 $x^{n+1}$ 的负梯度方向设定为搜索方向,然后用共轭梯度法继续求解以产生 $n$ 个新点列。不断重复上述迭代过程,直至收敛或满足给定的终止条件。

周期性 FR 共轭梯度法算法:

  1. 初始化 $x^{0} \in \mathbb{R}^{n}$,$0 \leq \epsilon \ll 1$,$k=0$ ;
  2. 计算 $\nabla f\left(\boldsymbol{x}^{k}\right)$ ,如果 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|_{2} \leq \epsilon$ ,停止迭代;否则转 Step 3;
  3. 若 $k$ 是 $n$ 的倍数,则令 $\boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)$ (重开始);否则令 $\boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)+\frac{\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2}^{2}}{\left|\nabla f\left(\boldsymbol{x}^{k-1}\right)\right|{2}^{2}} \boldsymbol{d}^{k-1}$ ;
  4. 由精确线搜索求 $\alpha{k}$ ,令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}$,$k=k+1$ ,返回 Step 2。

三、牛顿法(牛顿法和阻尼牛顿法)

1.牛顿法

基本思想:
设 $f(\boldsymbol{x})$ 是二阶连续可微的,由略去高阶项的 Taylor 公式$f(\boldsymbol{x}) \approx f\left(\boldsymbol{x}^{k}\right)+\nabla f\left(\boldsymbol{x}^{k}\right)^{\mathrm{T}}\left(\boldsymbol{x}-\boldsymbol{x}^{k}\right)+\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{x}^{k}\right)^{\mathrm{T}} \nabla^{2} f\left(\boldsymbol{x}^{k}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{k}\right)$
两边对 $x$ 求导,且令其等于 0 :$\nabla f\left(\boldsymbol{x}^{k}\right)+\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\left(\boldsymbol{x}-\boldsymbol{x}^{k}\right)=\mathbf{0}$,若 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 可逆,则有$\boldsymbol{x}=\boldsymbol{x}^{k}-\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$。若它不是 $f(x)$ 的极值点,则令它作为新的迭代点 $x^{k+1}$ ,即$\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}-\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$。

二次终止性
对于 Hessian 矩阵正定的二次函数,给定任意初始点,牛顿法只需迭代一次就可以得到其极小点。

证明
不失一般性,设 $f(\boldsymbol{x})=\frac{1}{2} \boldsymbol{x}^{\mathrm{T}} \boldsymbol{Q x}+\boldsymbol{b}^{\mathrm{T}} \boldsymbol{x}+c$ ,其中 $\boldsymbol{Q}$ 为对称正定矩阵,则 $f(x)$ 的极小值点为 $x^{*}=-\boldsymbol{Q}^{-1} \boldsymbol{b}$ 。
给定初始点 $x^{0}$ ,则:$\nabla f\left(\boldsymbol{x}^{0}\right)=\boldsymbol{Q} \boldsymbol{x}^{0}+\boldsymbol{b}$ 且 $\nabla^{2} f\left(\boldsymbol{x}^{0}\right)=\boldsymbol{Q}$ ,故

牛顿法算法:

  1. 初始化 $x^{0} \in \mathbb{R}^{n}$,$0 \leq \epsilon \ll 1$,$k=0$;
  2. 计算 $\nabla f\left(\boldsymbol{x}^{k}\right)$ ,如果 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|_{2} \leq \epsilon$ ,停止迭代;否则计算 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ ,并令
  3. 令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\boldsymbol{d}^{k}, k=k+1$ ,返回 Step 2。

如何计算可逆矩阵 A 的逆矩阵?
对 $(A \mid I)$ 进行初等行变换。当 $(\boldsymbol{A} \mid \boldsymbol{I})$中 $\boldsymbol{A}$ 变换为 $\boldsymbol{I}$ 时,则原 $\boldsymbol{I}$ 变换为 $\boldsymbol{A}^{-1}$ ,即 $\left(I \mid A^{-1}\right)$ 。

优点:

  • 对于正定二次函数,牛顿法从任意初始点迭代一次即可得到极小点;
  • 若最优解 $\boldsymbol{x}^{}$ 处 $\nabla^{2} f\left(\boldsymbol{x}^{}\right)$ 正定,且初始点选取合适,算法很快收敛。

缺点:

  • 要求函数至少二阶连续可微;
    -收敛性对初始点的依赖性很强,即不具备全局收敛性,有可能收敛到鞍点或极大值点;
  • 每次迭代需要计算 Hessian 矩阵 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ ,计算复杂度高;
  • 每次迭代需要求解方程组 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right) \boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)$ ,当方程组为奇异(矩阵对应的行列式值为零,无法求逆矩阵)或病态(指系数矩阵或常数项的微小扰动会引起解剧烈变化的线性方程组)时,无法求得 $\boldsymbol{d}^{k}$ 或 $\boldsymbol{d}^{k}$ 不是下降方向。
    2.阻尼牛顿法

基本思想:
针对牛顿法的第一个缺点,在求新迭代点时,以 $\boldsymbol{d}^{k}$ 作为搜索方向进行一维搜索求步长 $\alpha{k}$ ,而不是将步长固定为 $\alpha{k}=1$ :$\alpha{k}=\arg \min {\alpha>0} f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$,即利用精确一维搜索为牛顿法搜索得最优步长 $\alpha{k}$ ,然后令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}=\boldsymbol{x}^{k}-\alpha_{k}\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$。

二次终止性:
对于 Hessian 矩阵正定的二次函数,给定任意初始点,阻尼牛顿法只需迭代一次就可以得到其极小点。

阻尼牛顿法算法

  1. 初始化 $x^{0} \in \mathbb{R}^{n}$, $0 \leq \epsilon \ll 1$,$k=0$ ;
  2. 计算 $\nabla f\left(\boldsymbol{x}^{k}\right)$ ,若 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|_{2} \leq \epsilon$ ,停止迭代;否则计算 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ ,并令$\boldsymbol{d}^{k}=-\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$;
  3. 沿 $\boldsymbol{d}^{k}$ 进行精确线搜索,获得最优步长 $\alpha_{k}$ ;
  4. 令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha_{k} \boldsymbol{d}^{k}$,$k=k+1$ ,转 Step 2。

收敛性定理:
设 $f(\boldsymbol{x})$ 二阶连续可微, $\nabla^{2} f(\boldsymbol{x})$ 正定。记 $\left{\boldsymbol{x}^{k}\right}$ 是由阻尼牛顿法所得迭代点列,若水平集 $L=\left{\boldsymbol{x} \in \mathbb{R}^{n} \mid f(\boldsymbol{x}) \leq f\left(\boldsymbol{x}^{0}\right)\right}$ 有界,则:

  1. $\left{f\left(\boldsymbol{x}^{k}\right)\right}$ 为严格单调下降数列;
  2. $\left{\boldsymbol{x}^{k}\right}$ 必有聚点,且任意聚点 $\boldsymbol{x}^{}$ 满足 $\nabla f\left(\boldsymbol{x}^{}\right)=\mathbf{0}$ 。

针对每次迭代都要计算 Hessian 矩阵、计算量大的改进方法:

  • 为减小工作量,可令每 $m$ (正整数)次迭代使用同一个 Hessian 矩阵。但收敛速度随 $m$ 的增大而下降。具体而言,随 $m \rightarrow+\infty$ ,算法收敛速度逐渐降低为线性收敛;
  • 采用拟牛顿法,随着迭代的进程逐渐近似 Hessian 矩阵 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 。

针对 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 非正定和奇异的改进方法:

  • 当 $\boldsymbol{d}^{k}$ 为函数上升方向时,可沿其负方向搜索。但可能出现在 $\pm \boldsymbol{d}^{k}$ 方向上函数值都不变化的情况;
  • 令 $\mu>0$ 足够小,且使得 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)+\mu \boldsymbol{I}$ 正定,而后用 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)+\mu \boldsymbol{I}$ 取代 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$进行迭代,且该策略为全局二阶收敛;
  • 若 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 正定,则 $\boldsymbol{d}^{k}=-\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$ ;否则 $\boldsymbol{d}^{k}=-\nabla f\left(\boldsymbol{x}^{k}\right)$ 。同时,采用非精确一维搜索搜索步长 $\alpha_{k}$ 。在一定条件下,该方法全局收敛,但当迭代过程中 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 非正定情况较多时,收敛速度降为接近线性;
  • 采用拟牛顿法,随着迭代不断近似 Hessian 矩阵的逆 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1}$ 。

    四、拟牛顿法(变尺度法)

1.拟牛顿法基本思想

牛顿方向:$\boldsymbol{d}^{k}=-\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \nabla f\left(\boldsymbol{x}^{k}\right)$,可以看到,牛顿法在每次迭代时都需要计算 Hessian 矩阵 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 及其逆矩阵,计算量和存储量都较大。1959 年,Davidon 提出用迭代过程中得到的梯度信息来近似 Hessian 矩阵或其逆矩阵,由此产生了一类非常成功的算法——拟牛顿法。

目前最常用的两个拟牛顿法:

  • Davidon-Fletcher-Powell(DFP)算法
  • Broyden-Fletcher-Goldfarb-Shanno(BFGS)算法
2.DFP 算法

记 $\boldsymbol{H}{k}$ 为 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1}$ 的近似矩阵,则新算法中每次的搜索方向为$\boldsymbol{d}^{k}=-\boldsymbol{H}{k} \nabla f\left(\boldsymbol{x}^{k}\right)$。由此产生的方法称为变尺度法, $\boldsymbol{H}{k}$ 称为尺度矩阵。
要使新算法比牛顿法计算和存储量小且同时整体收敛性好,关键在于:如何构造近似矩阵阵列 $\left{\boldsymbol{H}
{k}\right}$ 。

要求: $\left{\boldsymbol{H}_{k}\right}$ 既能逐步逼近 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1}$ ,又无需计算二阶导数。同时保证算法的二次收敛性和稳定性。

$\left{\boldsymbol{H}{k}\right}$ 需满足以下条件:
C1:$\boldsymbol{H}
{k}$ 是对称正定矩阵;
C2:$\boldsymbol{H}{k}$ 由 $\boldsymbol{H}{k-1}$ 简单修正而得:$\boldsymbol{H}{k}=\boldsymbol{H}{k-1}+\boldsymbol{E}{k}$;
C3:$\boldsymbol{H}
{k}$ 满足拟牛顿方程(与牛顿法类似)$\boldsymbol{H}{k} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}$,其中 $\boldsymbol{\delta}{k}=\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}$,$\boldsymbol{\gamma}_{k}=\nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$ 。

以下给出 $\left{\boldsymbol{H}_{k}\right}$ 需满足 C3 的原因:

设 $f(\boldsymbol{x})$ 是二阶连续可微的,由 Taylor 公式

令 $\boldsymbol{x}=\boldsymbol{x}^{k-1}$ ,则:$\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\left(\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}\right) \approx \nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$;
令 $\boldsymbol{\delta}{k}=\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}$, $\boldsymbol{\gamma}{k}=\nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$ ,因此 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right) \boldsymbol{\delta}{k} \approx \gamma{k}$ (对二次函数为等号)。
若 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 可逆,则有 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1} \gamma{k} \approx \boldsymbol{\delta}{k}$ 。
用 $\boldsymbol{H}_{k}$ 代替 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1}$ 并强制上式取等号,得到拟牛顿方程。

对称秩 1 校正:

设校正矩阵的形式为:$\boldsymbol{H}{k}=\boldsymbol{H}{k-1}+\beta{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}}$,其中 $\beta{k} \neq 0$,$\boldsymbol{u}{k}=\left(u{k 1}, u{k 2}, \cdots, u{k n}\right)^{\mathrm{T}} \neq \mathbf{0}$ 。
代入拟牛顿方程 $\boldsymbol{H}{k} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}$ 得:
$\boldsymbol{H}
{k-1} \boldsymbol{\gamma}{k}+\beta{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}$,即: $\beta{k} \boldsymbol{u}{k}\left(\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}\right)=\boldsymbol{\delta}{k}-\boldsymbol{H}{k-1} \boldsymbol{\gamma}{k}$ 。
注意到 $\beta
{k}$,$\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}$ 都是标量,所以向量 $\boldsymbol{u}{k}$ 与 $\boldsymbol{\delta}{k}-\boldsymbol{H}{k-1} \boldsymbol{\gamma}{k}$ 成比例。因此不失一般性,不妨取 $\beta{k}\left(\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}\right)=1$ ,则有 $\boldsymbol{u}{k}=\boldsymbol{\delta}{k}-\boldsymbol{H}{k-1} \boldsymbol{\gamma}_{k}$ 。

此时$\beta{k}=\frac{1}{\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}}=\frac{1}{\boldsymbol{\gamma}{k}^{\mathrm{T}} \boldsymbol{u}{k}}=\frac{1}{\boldsymbol{\gamma}{k}^{\mathrm{T}}\left(\boldsymbol{\delta}{k}-\boldsymbol{H}{k-1} \boldsymbol{\gamma}_{k}\right)}$

代入到$\boldsymbol{H}{k}=\boldsymbol{H}{k-1}+\beta{k} \boldsymbol{u}{k} \boldsymbol{u}_{k}^{\mathrm{T}}$式,得秩1校正公式

基于秩 1 校正的拟牛顿算法:

  1. 初始化 $x^{0} \in \mathbb{R}^{n}$,$\boldsymbol{H}_{0}=\boldsymbol{I}$,$0 \leq \epsilon \ll 1$,$k=0$ ,取 $\boldsymbol{d}^{0}=-\nabla f\left(\boldsymbol{x}^{0}\right)$;
  2. 若 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2} \leq \epsilon$ ,停止运算,取 $\boldsymbol{x}^{*}=\boldsymbol{x}^{k}$ ;否则,利用精确线搜索求步长 $\alpha{k}$ ,即 $\alpha{k}=\arg \min f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$ ,并令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}$ ;
  3. 计算
  4. 令 k=k+1 ,返回 Step 2。

优点:

  • 算法简洁,具有二次终止性。
    缺点:
  • 当 $\boldsymbol{H}{k-1}$ 正定时,由秩 1 校正公式确定的 $\boldsymbol{H}{k}$ 不一定正定,因此不能保证搜索方向 $\boldsymbol{d}^{k}=-\boldsymbol{H}_{k} \nabla f\left(\boldsymbol{x}^{k}\right)$ 是下降方向;
  • 秩 1 校正公式中分母可能为零或者近似于零,导致算法不稳定。

对称秩 2 校正:

设校正矩阵的形式为:$\boldsymbol{H}{k}=\boldsymbol{H}{k-1}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}}$,且 $\beta{k} \neq 0$,$\lambda{k} \neq 0$,$\boldsymbol{u}{k}=\left(u{k 1}, u{k 2}, \cdots, u{k n}\right)^{\mathrm{T}} \neq \mathbf{0}$,$\boldsymbol{v}{k}=\left(v{k 1}, v{k 2}, \cdots, v{k n}\right)^{\mathrm{T}} \neq \mathbf{0}$ 。

代入拟牛顿方程 $\boldsymbol{H}{k} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}$ 得到$\boldsymbol{H}{k-1} \boldsymbol{\gamma}{k}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}$,即 $\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}=\boldsymbol{\delta}{k}-\boldsymbol{H}{k-1} \boldsymbol{\gamma}_{k}$ 。

令 $\lambda{k} \boldsymbol{u}{k}\left(\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}\right)=\boldsymbol{\delta}{k}$,$\beta{k} \boldsymbol{v}{k}\left(\boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}\right)=-\boldsymbol{H}{k-1} \boldsymbol{\gamma}{k}$ ,则上式成立。
注意到 $\lambda
{k}$,$\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}$,$\beta{k}$,$\boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}$ 都是标量,那么若令$\lambda{k}\left(\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\gamma}{k}\right)=1$,$\beta{k}\left(\boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\gamma}_{k}\right)=-1$,

则有 $\boldsymbol{u}{k}=\boldsymbol{\delta}{k}$, $\boldsymbol{v}{k}=\boldsymbol{H}{k-1} \boldsymbol{\gamma}{k}$ 。
将这些代入$\boldsymbol{H}
{k}=\boldsymbol{H}{k-1}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}_{k}^{\mathrm{T}}$,得DFP公式(秩 2 校正公式):

基于秩 2 校正的拟牛顿算法(DFP):

  1. 初始化 $\boldsymbol{x}^{0} \in \mathbb{R}^{n}$,$\boldsymbol{H}_{0}=\boldsymbol{I}$,$0 \leq \epsilon \ll 1$,$k=0$ ,取 $\boldsymbol{d}^{0}=-\nabla f\left(\boldsymbol{x}^{0}\right)$ ;
  2. 若 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2} \leq \epsilon$ ,停止迭代,取 $\boldsymbol{x}^{*}=\boldsymbol{x}^{k}$ ;否则,利用精确线搜索求步长 $\alpha{k}$ ,即 $\alpha{k}=\arg \min f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$ ,并令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}$ ;
  3. 计算
  4. 令 $k=k+1$ ,返回 Step 2。

收敛定理
设 $f(\boldsymbol{x})$ 一阶连续可微, $\boldsymbol{x}^{0} \in \mathbb{R}^{n}$ ,且水平集 $L=\left{\boldsymbol{x} \in \mathbb{R}^{n} \mid f(\boldsymbol{x}) \leq f\left(\boldsymbol{x}^{0}\right)\right}$ 有界,则由 DFP 算法产生的点列 $\left{\boldsymbol{x}^{k}\right}$ 满足:

  • 若 $\left{\boldsymbol{x}^{k}\right}$ 是有穷点列,则 $\boldsymbol{x}^{k}$ 是 $f(\boldsymbol{x})$ 的驻点。
  • 若 $\left{\boldsymbol{x}^{k}\right}$ 是无穷点列,它必有极限且任一极限是 $f(\boldsymbol{x})$ 的驻点。

优点:

  • 若函数 $f(\boldsymbol{x})$ 是二次严格凸函数,则 DFP 算法具有二次终止性;
  • 若函数 $f(\boldsymbol{x})$ 是至少一阶连续可微的严格凸函数,则 DFP 算法是全局收敛的;
  • 若 $\boldsymbol{H}{k}$ 正定, $\nabla f\left(\boldsymbol{x}^{k}\right) \neq \mathbf{0}$ ,则 $\boldsymbol{H}{k+1}$ 正定;
  • DFP 算法克服了秩 1 校正公式中分母为 0 或近似为 0 的缺点;
  • 对非二次函数,DFP 算法的效果也很好,它比最速下降法和共轭梯度法要有效的多,收敛速度也是超线性的。

缺点:

  • 需要的存储量较大,大约需要 $O\left(n^{2}\right)$ 个存储单元,因此对于大规模问题,与共轭梯度法相比,计算量、存储量较大;
  • 实际运算中,由于舍入误差的存在以及一维搜索的不精确,DFP算法的稳定性和计算效率都会受到很大的影响,数值计算的稳定性不如后面将介绍的 BFGS 算法;
  • 若求步长时不采用精确一维搜索,则计算效率不如 BFGS 算法。
3.BFGS 算法

在对牛顿方向修正时,若不考虑构造 $\left[\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\right]^{-1}$ 的近似矩阵,而是考虑 Hessian 矩阵 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 的近似矩阵 $\boldsymbol{B}{k}$ ,同样可构造出另一类拟牛顿算法,其中 BFGS 算法是其中之一。
记 $\boldsymbol{B}
{k}$ 为 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 的近似矩阵,则新算法中每次搜索方向满足$\boldsymbol{B}_{k} \boldsymbol{d}^{k}+\nabla f\left(\boldsymbol{x}^{k}\right)=\mathbf{0}$。

思考:要使新算法比牛顿法计算和存储量小,且整体收敛性好,关键在于:

如何构造近似矩阵阵列 $\left{\boldsymbol{B}{k}\right}$ 。
要求: $\left{\boldsymbol{B}
{k}\right}$ 的选取既能逐步逼近 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ ,又无需计算二阶导数。同时保证算法的二次收敛性和稳定性。

需具备以下条件:
C1:$\boldsymbol{B}{k}$ 是对称正定矩阵;
C2 :$\boldsymbol{B}
{k}$ 由 $\boldsymbol{B}{k-1}$ 简单修正而得:$\boldsymbol{B}{k}=\boldsymbol{B}{k-1}+\boldsymbol{C}{k}$;
C3:$\boldsymbol{B}{k}$ 满足拟牛顿方程:$\boldsymbol{B}{k} \boldsymbol{\delta}{k}=\gamma{k}$。

其中 $\boldsymbol{\delta}{k}=\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}$,$\boldsymbol{\gamma}{k}=\nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$。

以下给出需满足 C3 的原因:

设 $f(\boldsymbol{x})$ 是二阶连续可微的,由 Taylor 公式

令 $\boldsymbol{x}=\boldsymbol{x}^{k-1}$ ,则:$\nabla^{2} f\left(\boldsymbol{x}^{k}\right)\left(\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}\right) \approx \nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$。
令 $\boldsymbol{\delta}{k}=\boldsymbol{x}^{k}-\boldsymbol{x}^{k-1}$,$\boldsymbol{\gamma}{k}=\nabla f\left(\boldsymbol{x}^{k}\right)-\nabla f\left(\boldsymbol{x}^{k-1}\right)$,因此 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right) \boldsymbol{\delta}{k} \approx \gamma{k}$ (对二次函数为等式)。

用 $\boldsymbol{B}_{k}$ 代替上式中的 $\nabla^{2} f\left(\boldsymbol{x}^{k}\right)$ 并强制上式取等号,得到拟牛顿方程。

设校正矩阵的形式为:$\boldsymbol{B}{k}=\boldsymbol{B}{k-1}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}}$

且 $\lambda{k} \neq 0$,$\beta{k} \neq 0$,$\boldsymbol{u}{k}=\left(u{k 1}, u{k 2}, \cdots, u{k n}\right)^{\mathrm{T}} \neq \mathbf{0}$,$\boldsymbol{v}{k}=\left(v{k 1}, v{k 2}, \cdots, v{k n}\right)^{\mathrm{T}} \neq \mathbf{0}$ 。
代入拟牛顿方程 $\boldsymbol{B}{k} \boldsymbol{\delta}{k}=\boldsymbol{\gamma}{k}$ ,
得到 $\boldsymbol{B}
{k-1} \boldsymbol{\delta}{k}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}=\boldsymbol{\gamma}{k}$ ,
即 $\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}=\boldsymbol{\gamma}{k}-\boldsymbol{B}{k-1} \boldsymbol{\delta}_{k}$ 。

即 $\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}=\boldsymbol{\gamma}{k}-\boldsymbol{B}{k-1} \boldsymbol{\delta}{k}$ 。
可见若 $\lambda
{k} \boldsymbol{u}{k}\left(\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}\right)=\boldsymbol{\gamma}{k}$,$\beta{k} \boldsymbol{v}{k}\left(\boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}\right)=-\boldsymbol{B}{k-1} \boldsymbol{\delta}{k}$ 上式成立。
注意到 $\lambda{k}$,$\boldsymbol{u}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}$,$\beta{k}$,$\boldsymbol{v}{k}^{\mathrm{T}} \boldsymbol{\delta}{k}$ 都是标量,那么若令 $\lambda{k}\left(\boldsymbol{u}{k}{ }^{\mathrm{T}} \boldsymbol{\delta}{k}\right)=1$ , $\beta{k}\left(\boldsymbol{v}{k}{ }^{\mathrm{T}} \boldsymbol{\delta}{k}\right)=-1$ ,则有 $\boldsymbol{u}{k}=\boldsymbol{\gamma}{k}$, $\boldsymbol{v}{k}=\boldsymbol{B}{k-1} \boldsymbol{\delta}_{k}$ 。

将这些代入$\boldsymbol{B}{k}=\boldsymbol{B}{k-1}+\lambda{k} \boldsymbol{u}{k} \boldsymbol{u}{k}^{\mathrm{T}}+\beta{k} \boldsymbol{v}{k} \boldsymbol{v}{k}^{\mathrm{T}}$,得BFGS 校正公式:

BFGS 算法:

  1. 初始化 $\boldsymbol{x}^{0} \in \mathbb{R}^{n}$,$\boldsymbol{B}_{0}=\boldsymbol{I}$,$0 \leq \epsilon \ll 1$,$k=0$,取 $\boldsymbol{d}^{0}=-\nabla f\left(\boldsymbol{x}^{0}\right)$;
  2. 若 $\left|\nabla f\left(\boldsymbol{x}^{k}\right)\right|{2} \leq \epsilon$ ,停止运算,取 $\boldsymbol{x}^{*}=\boldsymbol{x}^{k}$ ;否则,利用精确线搜索求步长 $\alpha{k}$ ,即 $\alpha{k}=\arg \min f\left(\boldsymbol{x}^{k}+\alpha \boldsymbol{d}^{k}\right)$ ,并令 $\boldsymbol{x}^{k+1}=\boldsymbol{x}^{k}+\alpha{k} \boldsymbol{d}^{k}$ 。
  3. 计算解方程组 $\boldsymbol{B}_{k+1} \boldsymbol{d}^{k+1}+\nabla f\left(\boldsymbol{x}^{k+1}\right)=\mathbf{0}$ 得 $\boldsymbol{d}^{k+1}$ 。
  4. 令 $k=k+1$ ,返回 Step 2。

BFGS 算法与 DFP 算法的比较:
BFGS 算法与 DFP 算法都属于拟牛顿算法,二者性质有一定类似性。 BFGS 算法的数值稳定性比 DFP 算法好,而且求步长若不用精确一维搜索,仍然是超线性收敛的。

五、最小二乘法

1.最小二乘问题

在某些最优化问题中,比如曲线拟合问题,目标函数由若干个函数的平方和构成。一般可以形式化为:$\mathcal{F}(\boldsymbol{x})=\sum{i=1}^{m} f{i}^{2}(\boldsymbol{x})$,
其中 $\boldsymbol{x} \in \mathbb{R}^{n}$ 。一般假设 $m \geq n$ 。我们称如下无约束优化问题

为最小二乘问题。特别地,当 $f{i}(\boldsymbol{x})$ 全为 $\boldsymbol{x}$ 的线性函数时,称其为线性最小二乘问题。当 $f{i}(\boldsymbol{x})$ 不全为 $\boldsymbol{x}$ 的线性函数,即至少一个 $f_{i}(\boldsymbol{x})$ 为 $\boldsymbol{x}$ 的非线性函数时,称其为非线性最小二乘问题。

由于目标函数 $\mathcal{F}(\boldsymbol{x})$ 具有若干个函数平方和这种特殊形式,即目标函数具有光滑性质(Smoothness),因此给问题的求解带来便利。对于这类问题,除了能够运用前面介绍的迭代求解方法外,如最速下降法、共轭梯度法、牛顿法、拟牛顿法等,还可以利用解析法求解。

2.线性最小二乘问题

在带参数的回归模型中,最简单的模型是线性回归模型。设 $\left(\boldsymbol{w}{i}, b{i}\right)$ 为观测到的自变量和响应变量,且不同数据点相互独立,则对每个数据点有如下式子成立:

其中 $x{i}$ 是需要确定的参数, $\varepsilon{i}$ 是某种噪声且不同数据点之间满足独立同分布性质。令 $\boldsymbol{a}{i}=\left(\boldsymbol{w}{i}^{\mathrm{T}}, 1\right)^{\mathrm{T}}$,$\boldsymbol{x}=\left(x{1}, x{2}, \cdots, x{n}\right)^{\mathrm{T}} \in \mathbb{R}^{n}$ ,则线性回归模型可以简写为 $b{i}=\boldsymbol{a}{i}^{\mathrm{T}} \boldsymbol{x}+\varepsilon{i}$。

将训练集中的输入特征写成一个矩阵 A ,将标签 b{i} 和噪声 \varepsilon{i} 写成向量形式,即

则线性回归模型可整理为如下矩阵向量形式:$\boldsymbol{b}=\boldsymbol{A} \boldsymbol{x}+\varepsilon_{0}$。

假设 $\varepsilon{i}$ 是高斯白噪声,即 $\varepsilon{i} \sim \mathcal{N}\left(0, \sigma^{2}\right)$ 。那么我们有 $p\left(b{i} \mid \boldsymbol{a}{i} ; \boldsymbol{x}\right)=\frac{1}{\sqrt{2 \pi} \sigma^{2}} \exp \left(-\frac{\left(b{i}-\boldsymbol{a}{i}^{\mathrm{T}} \boldsymbol{x}\right)^{2}}{2 \sigma^{2}}\right)$。

则对数似然函数为$\ell(\boldsymbol{x})=\ln \left[\prod{i=1}^{m} p\left(b{i} \mid \boldsymbol{a}{i} ; \boldsymbol{x}\right)\right]=-\frac{m}{2} \ln (2 \pi)-m \ln \sigma-\frac{1}{2 \sigma^{2}} \sum{i=1}^{m}\left(b{i}-\boldsymbol{a}{i}^{\mathrm{T}} \boldsymbol{x}\right)^{2}$。

最大似然估计则是极大化对数似然函数,去除掉常数项之后我们得到了如下最小二乘问题

由上述,最小二乘问题中的目标函数 $\mathcal{F}(x)$ 可以表示为:

注意:

  • 令 $\boldsymbol{r}=\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}$ ,则 $\boldsymbol{r}$ 称为残差(Residual);
  • 当 $\varepsilon{i}$ 不是高斯白噪声时,需要借助似然函数来构造其他噪声所对应的目标函数。例如,在某些噪声下构造出的模型实际上为最小一乘问题:$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|_{1}$

易知, $\nabla \mathcal{F}(\boldsymbol{x})=2 \boldsymbol{A}^{\mathrm{T}} \boldsymbol{A} \boldsymbol{x}-2 \boldsymbol{A}^{\mathrm{T}} \boldsymbol{b}$ 以及 $\nabla^{2} \mathcal{F}(\boldsymbol{x})=2 \boldsymbol{A}^{\mathrm{T}} \boldsymbol{A}$ ,因而本章所学习的无约束优化方法可用来求解上述线性最小二乘问题。
另一方面,通过寻找最小二乘问题的驻点也可以获得其解析解。令$\nabla \mathcal{F}(\boldsymbol{x})=2 \boldsymbol{A}^{\mathrm{T}} \boldsymbol{A} \boldsymbol{x}-2 \boldsymbol{A}^{\mathrm{T}} \boldsymbol{b}=\mathbf{0}$。

也即,最小二乘问题的驻点满足法方程(normal equation)
设 $A$ 列满秩, $A^{\mathrm{T}} A$ 为对称正定矩阵,由此得到 $\mathcal{F}(x)$ 的驻点为最小二乘解由于 $\mathcal{F}(x)$ 是凸函数, $x^{*}$ 必是全局最优解。

3.正则化最小二乘法

Tikhonov 正则化
为了平衡模型的拟合性质和解的光滑性,Tikhonov 正则化或岭回归 (ridge regression)添加 $\ell{2}$ 范数平方为正则项。假设 $\varepsilon{i}$ 是高斯白噪声,则带 $\ell{2}$ 范数平方正则项的线性回归模型为如下问题:$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|{2}^{2}+\lambda|\boldsymbol{x}|{2}^{2}$。
由于正则项的存在,该问题的目标函数是强凸函数,解的性质得到改善。同时,该模型是对 $x$ 较大的分量产生惩罚,故另一种形式为:$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|{2}^{2} \text { s.t. }|\boldsymbol{x}|_{2} \leq \mu$。

由于上述两个模型最优性条件类似,当参数 $\lambda$ 和 $\mu$ 满足一定关系时,它们的解是相同的。

LASSO 正则化
如果希望得到的解 $x$ 是稀疏的,则可考虑添加 $\ell{1}$ 范数平方为正则项,也即转化为如下 LASSO 问题:$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|{2}^{2}+\lambda|\boldsymbol{x}|{1 \bullet}$
LASSO 问题通过惩罚参数 $\lambda$ 来控制解的稀疏性。如果 $x$ 是稀疏的,那么预测值 $b{i}$ 只和 $\boldsymbol{a}{i}$ 的部分元素相关。同时,也可以考虑:$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|{2}^{2} \text { s.t. }|\boldsymbol{x}|{1} \leq \tau$。或者考虑到噪声 $\varepsilon{i}$ 的存在,转化为如下形式$\min {\boldsymbol{x} \in \mathbb{R}^{n}}|\boldsymbol{x}|{1} \text { s.t. }|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}|_{2}^{2} \leq \delta$。

Author

秦宇春

Posted on

2025-11-15

Updated on

2025-11-15

Licensed under