RMVL  2.1.0-dev
Robotic Manipulation and Vision Library
载入中...
搜索中...
未找到
多维无约束最优化方法

包含最速下降、共轭梯度的介绍

作者
赵曦
日期
2024/05/06
版本
1.0

上一篇教程:一维最优化方法
下一篇教程:基于 TOPSIS 模型的熵权法


\[ \def\red#1{\color{red}{#1}} \def\teal#1{\color{teal}{#1}} \def\green#1{\color{green}{#1}} \def\transparent#1{\color{transparent}{#1}} \def\orange#1{\color{orange}{#1}} \def\fml#1{\text{(#1)}} \]

1. 最速下降法

沿函数的负梯度方向,函数值下降最多,因此,对于存在导数的连续目标函数,最速下降法是一种简单而有效的优化方法。可以将目标函数的负梯度方向作为寻优方向,即

\[\pmb s_k=-\frac{\nabla f(\pmb x_k)}{\|\nabla f(\pmb x_k)\|}\tag{1-1}\]

因此当前点为 \(\pmb x_k\) 时,下一个点的表达式为

\[\pmb x_{k+1}=\pmb x_k+\alpha_k\pmb s_k=\pmb x_k-\alpha_k\frac{\nabla f(\pmb x_k)}{\|\nabla f(\pmb x_k)\|}\tag{1-2}\]

对于每轮得到的一个新的负梯度方向,再利用 一维最优化方法 求解 \(\alpha_k\)。最速下降法的迭代步骤如下:

  1. 选取初始点 \(\pmb x_0\),设置判断收敛的正数 \(\epsilon\);
  2. 令 \(k=0\);
  3. 计算 \(-\nabla f(\pmb x_k)\);
  4. 按 \(\fml{1-2}\) 计算 \(\pmb s_k\),若 \(\|\pmb s_k\|<\epsilon\),则停止迭代, \(\pmb x_k\) 为最优解,否则进行下一步;
  5. 进行一维搜索,求解 \(\alpha_k\),使

    \[f(\pmb x_k+\alpha_k\pmb s_k)=\min_{\alpha>0}f(\pmb x_k+\alpha\pmb s_k)\tag{1-3}\]

  6. 计算 \(\pmb x_{k+1}=\pmb x_k+\alpha_k\pmb s_k\),令 \(k=k+1\),返回第 3 步。

最速下降法对于一般的函数而言,在远离极值点时函数值下降得很快,最速下降法队椭圆类函数十分有效,可以很快搜索到接近极值点。但是当距离极值点较近时,特别是存在脊线的目标函数,收敛过程可能会十分缓慢,如图 1-1 所示。

图 1-1 存在脊线的目标函数

2. 共轭梯度法

2.1 共轭方向

同心椭圆族曲线的两平行切线有这样的特性:通过两平行线与椭圆的切点作连线,该直线通过该椭圆族的中心,如图 2-1 所示。因为该连线的方向与两平行线是共轭方向,所以利用这一特性寻优称为共轭方向法。

图 2-1 平行的同心椭圆族的切点连线过其中心

如果有一组 \(n\) 个非零向量组 \(\pmb s_1,\pmb s_2,\dots,\pmb s_n\in\pmb E^n\),且这个向量组中的任意两个向量关于 \(n\) 阶实对称正定矩阵 \(\pmb A\) 满足式

\[\pmb s_i^T\pmb A\pmb s_j=0,\quad i,j=1,2,\dots,n\ 且\ i\ne j\tag{2-1}\]

则称

  • 向量组 \(\pmb s_1,\pmb s_2,\dots,\pmb s_n\) 是关于矩阵 \(\pmb A\) 共轭的;
  • \(\pmb s_i\) 和 \(\pmb s_j\) 是实对称正定矩阵 \(\pmb A\) 的共轭方向。

有这一个特殊情况,当矩阵 \(\pmb A\) 是单位矩阵时,向量的共轭就相当于向量的正交。共轭方向相当于将原来的非正椭圆函数通过矩阵 \(\pmb A\) 变换为正圆函数,而共轭方向 \(\pmb s_1\) 和 \(\pmb s_2\) 则是变换后的垂直方向 \(\pmb p_1\) 和 \(\pmb p_2\),如图 2-2 所示。

图 2-2 共轭与正交对比

2.2 共轭梯度方向的构造

在极值点 \(x^*\) 附近,目标函数可以近似为二次型函数,即

\[f(\pmb x)\approx c+\pmb b^T\pmb x+\frac12\pmb x^T\pmb A\pmb x\tag{2-2}\]

  1. 从 \(\pmb x_k\) 点出发,沿负梯度 \(\pmb s_k=-\nabla f(\pmb x_k)\) 方向寻优,得到新优化点 \(\pmb x_{k+1}\)。再按下式构造与 \(\pmb s_k\) 共轭的方向 \(\pmb s_{k+1}\):

    \[\pmb s_{k+1}=-\nabla f(\pmb x_{k+1})+\beta_k\pmb s_k\tag{2-3}\]

    在公式 \(\fml{2-3}\) 中, \(\beta_k\) 按下式计算时,可满足共轭条件 \(\pmb s_{k+1}^T\pmb A\pmb s_k=0\):

    \[\beta_k=\frac{\|\nabla f(\pmb x_{k+1})\|^2}{\|\nabla f(\pmb x_k)\|^2}\tag{2-4}\]

  2. 沿着 \(\pmb s_{k+1}\) 方向寻优,直至求出极值 \(\pmb x^*\)。

上面只是对目标函数为二次型函数的情况求得了构成共轭方向的系数 \(\beta_k\),对于一般的目标函数,有

\[\beta_k=\frac{\|\nabla f(\pmb x_{k+1})\|^2-[\nabla f(\pmb x_{k+1})]^T\nabla f(\pmb x_k)}{\|\nabla f(\pmb x_k)\|^2}\tag{2-5}\]

从而类似式 \(\fml{2-3}\) 有

\[\pmb s_{k+1}=-\nabla f(\pmb x_{k+1})+\beta_k\pmb s_k\]

2.3 迭代步骤

  1. 选取初始点 \(\pmb x_0\),设置判断收敛的正数 \(\epsilon\);
  2. 令 \(k=0\), \(\pmb s_0=-\nabla f(\pmb x_0)\);
  3. 进行一维搜索,求解 \(\alpha_k\),使 \(f(\pmb x_k+\alpha_k\pmb s_k)=\min_{\alpha>0}f(\pmb x_k+\alpha\pmb s_k)\)
  4. 计算 \(\nabla f(\pmb x_{k+1})\),并令 \(\pmb x_{k+1}=\pmb x_k+\alpha_k\pmb s_k\);
  5. 若 \(\|\nabla f(\pmb x_{k+1})\|<\epsilon\),则停止迭代, \(\pmb x_{k+1}\) 为最优解,否则按 \(\fml{2-5}\) 计算 \(\beta_k\),令

    \[\pmb s_{k+1}=-\nabla f(\pmb x_{k+1})+\beta_k\pmb s_k\]

  6. 令 \(k=k+1\),返回第 3 步。

2.4 如何使用

首先定义一个目标函数,例如:

static inline double quadratic(const std::vector<double> &x)
{
const auto &x1 = x[0], &x2 = x[1];
return 60 - 10 * x1 - 4 * x2 + x1 * x1 + x2 * x2 - x1 * x2;
}

然后调用 rm::fminunc 函数:

auto [x, fval] = rm::fminunc(quadratic, {0, 0});
std::pair< std::vector< double >, double > fminunc(FuncNd func, const std::vector< double > &x0, const OptimalOptions &options={})
无约束多维函数的最小值搜索 conjgrad neldermead ,可参考 多维无约束最优化方法

汇总起来,共轭梯度法的使用实例如下:

#include <cstdio>
#include <rmvl/numcal.hpp>
int main()
{
// 定义二次函数
auto quadratic = [](const std::vector<double> &x) {
const auto &x1 = x[0], &x2 = x[1];
return 60 - 10 * x1 - 4 * x2 + x1 * x1 + x2 * x2 - x1 * x2;
};
// 求解无约束多维最优化问题,默认使用共轭梯度法
auto [x, fval] = rm::fminunc(quadratic, {0, 0});
printf("min[f(x,y)] = f(%f, %f) = %f\n", x[0], x[1], fval);
}

运行结果如下:

min[f(x,y)] = f(8.0000, 6.0000) = 8.0000