非线性规划中的隐式松弛-序列凸规划(Implicit Relaxation - Sequential Convex Programming, IR-SCP)基础题
字数 6648 2025-12-23 06:11:53

非线性规划中的隐式松弛-序列凸规划(Implicit Relaxation - Sequential Convex Programming, IR-SCP)基础题

好的,我将为您讲解一个在您提供的列表中尚未出现过的非线性规划算法题目。这个题目结合了隐式松弛(Implicit Relaxation)序列凸规划(Sequential Convex Programming, SCP) 的思想,适用于处理一类具有非凸目标和非凸约束,但约束结构可通过“松弛”隐式处理的问题。


题目描述

考虑以下具有非凸目标和非凸约束的非线性规划问题:

原始问题(P):

\[\begin{aligned} \min_{x \in \mathbb{R}^n} \quad & f(x) \\ \text{s.t.} \quad & g_j(x) \le 0, \quad j = 1, \dots, m, \\ & h_k(x) = 0, \quad k = 1, \dots, p, \end{aligned} \]

其中:

  • \(f(x)\)非凸的可微函数。
  • \(g_j(x)\)非凸的可微不等式约束函数。
  • \(h_k(x)\)线性等式约束函数(为简化,我们假设等式约束是线性的,这是SCP中常见的处理方式)。

问题的难点:目标函数和不等式约束都是非凸的,直接应用凸优化技术(如SCP)需要每一步都对非凸函数进行凸近似,但近似后的子问题可能因为约束的非凸性而难以保证可行性或收敛性。

引入隐式松弛(IR)的思想:我们不对非凸约束 \(g_j(x) \le 0\) 进行直接的凸近似,而是引入一个松弛变量 \(s \in \mathbb{R}^m\),并将原问题转化为一个部分松弛的等价形式。然后,在序列凸规划(SCP)的框架内,交替优化原变量 \(x\) 和松弛变量 \(s\),并逐步收紧松弛,迫使最终解满足原始约束。

这个结合了隐式松弛策略的序列凸规划方法,我们称之为隐式松弛-序列凸规划(IR-SCP)算法


解题过程详解

我们将解题过程分解为几个核心步骤,并循序渐进地解释。

步骤1:问题重构与隐式松弛

我们引入非负松弛变量 \(s = [s_1, \dots, s_m]^T\),将原始不等式约束 \(g_j(x) \le 0\) 重写为:

\[g_j(x) \le s_j, \quad s_j \ge 0, \quad j=1,\dots,m. \]

显然,如果 \(s_j = 0\),则原始约束成立。为了迫使算法最终使 \(s\) 趋向于零,我们在目标函数中加入一个惩罚项。

重构的松弛问题(RP)

\[\begin{aligned} \min_{x, s} \quad & f(x) + \rho \sum_{j=1}^{m} \psi(s_j) \\ \text{s.t.} \quad & g_j(x) \le s_j, \quad j = 1, \dots, m, \\ & s_j \ge 0, \quad j = 1, \dots, m, \\ & h_k(x) = 0, \quad k = 1, \dots, p. \end{aligned} \]

这里:

  • \(\rho > 0\) 是一个惩罚参数。
  • \(\psi(s_j)\) 是一个惩罚函数,通常选择 \(\psi(s_j) = s_j\)(线性惩罚)或 \(\psi(s_j) = s_j^2\)(二次惩罚)。二次惩罚在优化中更平滑,有助于收敛。

为什么称为“隐式”松弛? 因为松弛变量 \(s\) 并不直接出现在原始问题的描述中,它是我们为了算法设计而“隐式”引入的辅助变量。我们并不直接求解原始非凸约束,而是通过控制 \(s\) 来间接地、逐步地逼近一个可行解。

步骤2:序列凸规划(SCP)框架的应用

现在,问题(RP)仍然是非凸的,因为 \(f(x)\)\(g_j(x)\) 是非凸的。SCP的核心思想是:在每次迭代中,在当前迭代点 \(x^{(i)}\) 处,用它们的凸近似函数 \(\tilde{f}(x; x^{(i)})\)\(\tilde{g}_j(x; x^{(i)})\) 来替代原非凸函数,从而得到一个凸子问题

对于函数 \(f(x)\)\(g_j(x)\),我们采用一阶泰勒展开作为凸近似(因为线性函数既是凸的也是凹的,但作为上界或下界近似需要谨慎,这里我们用线性化,并配合信赖域或移动限界来保证近似精度):

\[\tilde{f}(x; x^{(i)}) = f(x^{(i)}) + \nabla f(x^{(i)})^T (x - x^{(i)}), \]

\[ \tilde{g}_j(x; x^{(i)}) = g_j(x^{(i)}) + \nabla g_j(x^{(i)})^T (x - x^{(i)}). \]

线性函数是凸的,因此子问题是凸的。

关键点:为了保证线性近似在 \(x^{(i)}\) 附近有效,防止迭代点跑得太远导致近似失真,我们需要添加一个信赖域约束移动限界

\[\|x - x^{(i)}\|_\infty \le \Delta^{(i)}, \]

其中 \(\Delta^{(i)} > 0\) 是第 \(i\) 次迭代的信赖域半径。这确保了我们在一个局部范围内求解凸近似问题。

步骤3:构建第 \(i\) 次迭代的凸子问题

在第 \(i\) 次迭代,我们有当前点 \(x^{(i)}\) 和松弛变量 \(s^{(i)}\)。我们固定 \(s^{(i)}\)(稍后会解释如何更新 \(s\)),先优化 \(x\)

\(i\) 次迭代凸子问题(CP_i)

\[\begin{aligned} \min_{x} \quad & \tilde{f}(x; x^{(i)}) + \rho \sum_{j=1}^{m} \psi(s_j^{(i)}) \quad \text{(注意惩罚项是关于固定的$s^{(i)}$的常数,可忽略)} \\ \text{等价于:} \quad & \nabla f(x^{(i)})^T (x - x^{(i)}) \\ \text{s.t.} \quad & \tilde{g}_j(x; x^{(i)}) \le s_j^{(i)}, \quad j = 1, \dots, m, \\ & h_k(x) = 0, \quad k = 1, \dots, p, \\ & \|x - x^{(i)}\|_\infty \le \Delta^{(i)}. \end{aligned} \]

注意:

  1. 目标函数中我们省略了常数项 \(f(x^{(i)})\)\(\rho \sum \psi(s^{(i)})\),因为它们不影响 \(x\) 的优化。
  2. 约束 \(\tilde{g}_j(x) \le s_j^{(i)}\) 现在是线性不等式约束
  3. 等式约束 \(h_k(x)=0\) 是线性的(由题目假设)。
  4. 信赖域约束是线性不等式约束(\(\| \cdot \|_\infty\) 约束可以写成两组线性不等式)。

因此,(CP_i)是一个线性规划(LP)问题(如果目标也是线性的话)或者更一般地,是一个凸二次规划(QP)(如果我们使用二次惩罚 \(\psi(s_j) = s_j^2\),则惩罚项与 \(x\) 无关,目标仍是线性;如果考虑更复杂的信赖域范数,可能是二阶锥规划,但LP/QP更常见且易解)。

步骤4:求解子问题与接受准则

  1. 求解:使用线性规划或二次规划求解器求解(CP_i),得到试探步 \(d^{(i)} = x^{\text{new}} - x^{(i)}\) 和试探点 \(x^{\text{new}}\)
  2. 计算实际函数值变化与预测变化
    • 实际目标变化(在重构问题RP中):\(\text{Areduce} = [f(x^{(i)}) + \rho \sum \psi(s^{(i)})] - [f(x^{\text{new}}) + \rho \sum \psi(s^{(i)})] = f(x^{(i)}) - f(x^{\text{new}})\)
    • 预测目标变化(基于线性模型):\(\text{Predreduce} = \tilde{f}(x^{(i)}; x^{(i)}) - \tilde{f}(x^{\text{new}}; x^{(i)}) = -\nabla f(x^{(i)})^T d^{(i)}\)
  3. 接受准则(类似信赖域方法):
    • 计算比值 \(r^{(i)} = \frac{\text{Areduce}}{\text{Predreduce}}\)
    • 如果 \(r^{(i)}\) 大于一个正阈值(如 0.1),则接受该步:\(x^{(i+1)} = x^{\text{new}}\)
    • 否则,拒绝该步,缩小信赖域半径 \(\Delta^{(i)}\),重新求解(CP_i)。
  4. 更新信赖域半径:根据比值 \(r^{(i)}\) 调整 \(\Delta^{(i+1)}\)
    • \(r^{(i)}\) 很大(如 >0.75),说明近似很好,下次可以尝试更大步长,增加 \(\Delta\)
    • \(r^{(i)}\) 很小(如 <0.25),说明近似较差,需要减小 \(\Delta\)
    • 否则,保持 \(\Delta\) 不变。

步骤5:隐式松弛变量的更新策略

这是IR-SCP算法的核心之一。松弛变量 \(s\) 不是固定的,我们需要在迭代中更新它,以逐步逼近原始约束(即迫使 \(s \to 0\))。

一个简单有效的更新策略是:在每次成功接受新的 \(x^{(i+1)}\) 后,根据当前约束违反量来收紧 \(s\)

\[s_j^{(i+1)} = \max(0, \,\, \beta \cdot s_j^{(i)} + (1-\beta) \cdot \max(0, g_j(x^{(i+1)})) ), \]

或者更简洁的形式:

\[s_j^{(i+1)} = \beta \cdot s_j^{(i)} + (1-\beta) \cdot \max(0, g_j(x^{(i+1)})). \]

其中 \(\beta \in (0, 1)\) 是一个遗忘因子(例如 \(\beta = 0.8\))。

这个更新的直观解释

  • \(\max(0, g_j(x^{(i+1)}))\) 度量了在第 \(i+1\) 个点处,原始约束 \(g_j \le 0\) 的违反程度。如果满足,此项为0。
  • 新的松弛变量 \(s^{(i+1)}\) 是旧松弛变量和当前违反程度的加权平均。
  • 如果算法不断改进,约束违反会逐渐减小,从而 \(s\) 也会逐渐减小。
  • 参数 \(\beta\) 控制了收紧的速度:\(\beta\) 越接近1,收紧得越慢,算法更稳健;\(\beta\) 越小,收紧得越快,但可能因为过度收紧(s太小)而导致子问题(CP_i)不可行。

步骤6:惩罚参数 \(\rho\) 的调整(可选但推荐)

为了使算法更有效,我们可以让惩罚参数 \(\rho\) 随着迭代增加。开始时,\(\rho\) 可以设得较小,允许较大的约束违反(即较大的 \(s\)),优先降低目标函数 \(f(x)\)。随着迭代进行,逐渐增大 \(\rho\),迫使 \(s\) 减小,以满足约束。

一个简单的更新规则:每隔一定迭代次数,如果约束违反(即 \(\sum \max(0, g_j(x))\))没有显著下降,则倍增 \(\rho\)

\[\rho^{(i+1)} = \gamma \cdot \rho^{(i)}, \quad \gamma > 1. \]

步骤7:收敛性判断

当同时满足以下条件时,算法终止:

  1. 原始可行性:约束违反足够小,即 \(\max_j \max(0, g_j(x^{(i)})) < \epsilon_{\text{feas}}\)
  2. 松弛可行性:松弛变量足够小,即 \(\| s^{(i)} \| < \epsilon_{\text{relax}}\)
  3. 驻点条件:试探步长足够小,即 \(\| d^{(i)} \| < \epsilon_{\text{step}}\)

或者达到最大迭代次数。


算法流程总结

  1. 初始化:给定初始点 \(x^{(0)}\),初始松弛变量 \(s^{(0)}\)(例如,令 \(s_j^{(0)} = \max(0, g_j(x^{(0)}))\)),初始信赖域半径 \(\Delta^{(0)}\),初始惩罚参数 \(\rho^{(0)}\),设定参数 \(\beta, \gamma, \epsilon_{\text{feas}}, \epsilon_{\text{relax}}, \epsilon_{\text{step}}\)
  2. For 迭代次数 \(i = 0, 1, 2, \dots\)
    a. 线性化:在当前点 \(x^{(i)}\) 计算 \(f\)\(g_j\) 的梯度。
    b. 构建并求解凸子问题(CP_i):求解以 \(\tilde{f}, \tilde{g}_j\) 近似的,带有信赖域约束 \(\|x - x^{(i)}\|_\infty \le \Delta^{(i)}\) 和松弛约束 \(\tilde{g}_j(x) \le s_j^{(i)}\) 的线性/二次规划,得到试探点 \(x^{\text{new}}\)
    c. 接受性检验:计算实际减少与预测减少的比值 \(r^{(i)}\)。若 \(r^{(i)}\) 足够大,则接受 \(x^{(i+1)} = x^{\text{new}}\);否则,缩小 \(\Delta^{(i)}\),返回步骤b。
    d. 更新松弛变量:若步被接受,则按规则 \(s_j^{(i+1)} = \beta \cdot s_j^{(i)} + (1-\beta) \cdot \max(0, g_j(x^{(i+1)}))\) 更新松弛变量。
    e. 更新惩罚参数(可选):根据约束违反情况,按规则更新 \(\rho\)
    f. 更新信赖域半径:根据比值 \(r^{(i)}\) 更新 \(\Delta^{(i+1)}\)
    g. 收敛性检查:检查上述三个收敛条件。若满足,则终止并输出 \(x^{(i+1)}\) 作为近似解。
  3. 输出:最终迭代点 \(x^*\)

核心思想与优势

  • 隐式松弛:通过引入并动态管理松弛变量 \(s\),将难以处理的非凸约束可行性问题,转化为一系列通过调整 \(s\) 来控制的、更容易求解的凸子问题。
  • 序列凸规划:通过局部线性化和信赖域控制,确保每一步求解的都是一个凸优化问题(通常是LP或QP),计算高效且可靠。
  • 双重迭代:算法交替进行“在固定松弛下优化原始变量”和“根据当前解的质量更新松弛变量”,实现了目标函数下降与约束满足之间的平衡。

这种方法特别适用于那些非凸性主要来自约束,且约束函数可微的工程优化问题。它避免了直接处理非凸约束的困难,通过一种隐式的、逐步逼近的方式找到高质量的可行解。

非线性规划中的隐式松弛-序列凸规划(Implicit Relaxation - Sequential Convex Programming, IR-SCP)基础题 好的,我将为您讲解一个在您提供的列表中尚未出现过的非线性规划算法题目。这个题目结合了 隐式松弛(Implicit Relaxation) 与 序列凸规划(Sequential Convex Programming, SCP) 的思想,适用于处理一类具有非凸目标和非凸约束,但约束结构可通过“松弛”隐式处理的问题。 题目描述 考虑以下具有非凸目标和非凸约束的非线性规划问题: 原始问题(P): \[ \begin{aligned} \min_ {x \in \mathbb{R}^n} \quad & f(x) \\ \text{s.t.} \quad & g_ j(x) \le 0, \quad j = 1, \dots, m, \\ & h_ k(x) = 0, \quad k = 1, \dots, p, \end{aligned} \] 其中: \( f(x) \) 是 非凸 的可微函数。 \( g_ j(x) \) 是 非凸 的可微不等式约束函数。 \( h_ k(x) \) 是 线性 等式约束函数(为简化,我们假设等式约束是线性的,这是SCP中常见的处理方式)。 问题的难点 :目标函数和不等式约束都是非凸的,直接应用凸优化技术(如SCP)需要每一步都对非凸函数进行凸近似,但近似后的子问题可能因为约束的非凸性而难以保证可行性或收敛性。 引入隐式松弛(IR)的思想 :我们不对非凸约束 \( g_ j(x) \le 0 \) 进行直接的凸近似,而是引入一个 松弛变量 \( s \in \mathbb{R}^m \),并将原问题转化为一个 部分松弛的等价形式 。然后,在序列凸规划(SCP)的框架内,交替优化原变量 \( x \) 和松弛变量 \( s \),并逐步收紧松弛,迫使最终解满足原始约束。 这个结合了隐式松弛策略的序列凸规划方法,我们称之为 隐式松弛-序列凸规划(IR-SCP)算法 。 解题过程详解 我们将解题过程分解为几个核心步骤,并循序渐进地解释。 步骤1:问题重构与隐式松弛 我们引入非负松弛变量 \( s = [ s_ 1, \dots, s_ m]^T \),将原始不等式约束 \( g_ j(x) \le 0 \) 重写为: \[ g_ j(x) \le s_ j, \quad s_ j \ge 0, \quad j=1,\dots,m. \] 显然,如果 \( s_ j = 0 \),则原始约束成立。为了迫使算法最终使 \( s \) 趋向于零,我们在目标函数中加入一个惩罚项。 重构的松弛问题(RP) : \[ \begin{aligned} \min_ {x, s} \quad & f(x) + \rho \sum_ {j=1}^{m} \psi(s_ j) \\ \text{s.t.} \quad & g_ j(x) \le s_ j, \quad j = 1, \dots, m, \\ & s_ j \ge 0, \quad j = 1, \dots, m, \\ & h_ k(x) = 0, \quad k = 1, \dots, p. \end{aligned} \] 这里: \( \rho > 0 \) 是一个惩罚参数。 \( \psi(s_ j) \) 是一个惩罚函数,通常选择 \( \psi(s_ j) = s_ j \)(线性惩罚)或 \( \psi(s_ j) = s_ j^2 \)(二次惩罚)。二次惩罚在优化中更平滑,有助于收敛。 为什么称为“隐式”松弛? 因为松弛变量 \( s \) 并不直接出现在原始问题的描述中,它是我们为了算法设计而“隐式”引入的辅助变量。我们并不直接求解原始非凸约束,而是通过控制 \( s \) 来间接地、逐步地逼近一个可行解。 步骤2:序列凸规划(SCP)框架的应用 现在,问题(RP)仍然是非凸的,因为 \( f(x) \) 和 \( g_ j(x) \) 是非凸的。SCP的核心思想是:在每次迭代中,在当前迭代点 \( x^{(i)} \) 处,用它们的 凸近似 函数 \( \tilde{f}(x; x^{(i)}) \) 和 \( \tilde{g}_ j(x; x^{(i)}) \) 来替代原非凸函数,从而得到一个 凸子问题 。 对于函数 \( f(x) \) 和 \( g_ j(x) \),我们采用 一阶泰勒展开 作为凸近似(因为线性函数既是凸的也是凹的,但作为上界或下界近似需要谨慎,这里我们用线性化,并配合信赖域或移动限界来保证近似精度): \[ \tilde{f}(x; x^{(i)}) = f(x^{(i)}) + \nabla f(x^{(i)})^T (x - x^{(i)}), \] \[ \tilde{g}_ j(x; x^{(i)}) = g_ j(x^{(i)}) + \nabla g_ j(x^{(i)})^T (x - x^{(i)}). \] 线性函数是凸的,因此子问题是凸的。 关键点 :为了保证线性近似在 \( x^{(i)} \) 附近有效,防止迭代点跑得太远导致近似失真,我们需要添加一个 信赖域约束 或 移动限界 : \[ \|x - x^{(i)}\|_ \infty \le \Delta^{(i)}, \] 其中 \( \Delta^{(i)} > 0 \) 是第 \( i \) 次迭代的信赖域半径。这确保了我们在一个局部范围内求解凸近似问题。 步骤3:构建第 \( i \) 次迭代的凸子问题 在第 \( i \) 次迭代,我们有当前点 \( x^{(i)} \) 和松弛变量 \( s^{(i)} \)。我们固定 \( s^{(i)} \)(稍后会解释如何更新 \( s \)),先优化 \( x \)。 第 \( i \) 次迭代凸子问题(CP_ i) : \[ \begin{aligned} \min_ {x} \quad & \tilde{f}(x; x^{(i)}) + \rho \sum_ {j=1}^{m} \psi(s_ j^{(i)}) \quad \text{(注意惩罚项是关于固定的\(s^{(i)}\)的常数,可忽略)} \\ \text{等价于:} \quad & \nabla f(x^{(i)})^T (x - x^{(i)}) \\ \text{s.t.} \quad & \tilde{g} j(x; x^{(i)}) \le s_ j^{(i)}, \quad j = 1, \dots, m, \\ & h_ k(x) = 0, \quad k = 1, \dots, p, \\ & \|x - x^{(i)}\| \infty \le \Delta^{(i)}. \end{aligned} \] 注意: 目标函数中我们省略了常数项 \( f(x^{(i)}) \) 和 \( \rho \sum \psi(s^{(i)}) \),因为它们不影响 \( x \) 的优化。 约束 \( \tilde{g}_ j(x) \le s_ j^{(i)} \) 现在是 线性不等式约束 。 等式约束 \( h_ k(x)=0 \) 是线性的(由题目假设)。 信赖域约束是线性不等式约束(\( \| \cdot \|_ \infty \) 约束可以写成两组线性不等式)。 因此,(CP_ i)是一个 线性规划(LP)问题 (如果目标也是线性的话)或者更一般地,是一个 凸二次规划(QP) (如果我们使用二次惩罚 \( \psi(s_ j) = s_ j^2 \),则惩罚项与 \( x \) 无关,目标仍是线性;如果考虑更复杂的信赖域范数,可能是二阶锥规划,但LP/QP更常见且易解)。 步骤4:求解子问题与接受准则 求解 :使用线性规划或二次规划求解器求解(CP_ i),得到试探步 \( d^{(i)} = x^{\text{new}} - x^{(i)} \) 和试探点 \( x^{\text{new}} \)。 计算实际函数值变化与预测变化 : 实际目标变化(在重构问题RP中):\( \text{Areduce} = [ f(x^{(i)}) + \rho \sum \psi(s^{(i)})] - [ f(x^{\text{new}}) + \rho \sum \psi(s^{(i)}) ] = f(x^{(i)}) - f(x^{\text{new}}) \)。 预测目标变化(基于线性模型):\( \text{Predreduce} = \tilde{f}(x^{(i)}; x^{(i)}) - \tilde{f}(x^{\text{new}}; x^{(i)}) = -\nabla f(x^{(i)})^T d^{(i)} \)。 接受准则 (类似信赖域方法): 计算比值 \( r^{(i)} = \frac{\text{Areduce}}{\text{Predreduce}} \)。 如果 \( r^{(i)} \) 大于一个正阈值(如 0.1),则接受该步:\( x^{(i+1)} = x^{\text{new}} \)。 否则,拒绝该步,缩小信赖域半径 \( \Delta^{(i)} \),重新求解(CP_ i)。 更新信赖域半径 :根据比值 \( r^{(i)} \) 调整 \( \Delta^{(i+1)} \): 若 \( r^{(i)} \) 很大(如 >0.75),说明近似很好,下次可以尝试更大步长,增加 \( \Delta \)。 若 \( r^{(i)} \) 很小(如 <0.25),说明近似较差,需要减小 \( \Delta \)。 否则,保持 \( \Delta \) 不变。 步骤5:隐式松弛变量的更新策略 这是IR-SCP算法的核心之一。松弛变量 \( s \) 不是固定的,我们需要在迭代中更新它,以逐步逼近原始约束(即迫使 \( s \to 0 \))。 一个简单有效的更新策略是:在每次成功接受新的 \( x^{(i+1)} \) 后,根据当前约束违反量来收紧 \( s \)。 \[ s_ j^{(i+1)} = \max(0, \,\, \beta \cdot s_ j^{(i)} + (1-\beta) \cdot \max(0, g_ j(x^{(i+1)})) ), \] 或者更简洁的形式: \[ s_ j^{(i+1)} = \beta \cdot s_ j^{(i)} + (1-\beta) \cdot \max(0, g_ j(x^{(i+1)})). \] 其中 \( \beta \in (0, 1) \) 是一个遗忘因子(例如 \( \beta = 0.8 \))。 这个更新的直观解释 : \( \max(0, g_ j(x^{(i+1)})) \) 度量了在第 \( i+1 \) 个点处,原始约束 \( g_ j \le 0 \) 的违反程度。如果满足,此项为0。 新的松弛变量 \( s^{(i+1)} \) 是旧松弛变量和当前违反程度的加权平均。 如果算法不断改进,约束违反会逐渐减小,从而 \( s \) 也会逐渐减小。 参数 \( \beta \) 控制了收紧的速度:\( \beta \) 越接近1,收紧得越慢,算法更稳健;\( \beta \) 越小,收紧得越快,但可能因为过度收紧(s太小)而导致子问题(CP_ i)不可行。 步骤6:惩罚参数 \( \rho \) 的调整(可选但推荐) 为了使算法更有效,我们可以让惩罚参数 \( \rho \) 随着迭代增加。开始时,\( \rho \) 可以设得较小,允许较大的约束违反(即较大的 \( s \)),优先降低目标函数 \( f(x) \)。随着迭代进行,逐渐增大 \( \rho \),迫使 \( s \) 减小,以满足约束。 一个简单的更新规则:每隔一定迭代次数,如果约束违反(即 \( \sum \max(0, g_ j(x)) \))没有显著下降,则倍增 \( \rho \): \[ \rho^{(i+1)} = \gamma \cdot \rho^{(i)}, \quad \gamma > 1. \] 步骤7:收敛性判断 当同时满足以下条件时,算法终止: 原始可行性 :约束违反足够小,即 \( \max_ j \max(0, g_ j(x^{(i)})) < \epsilon_ {\text{feas}} \)。 松弛可行性 :松弛变量足够小,即 \( \| s^{(i)} \| < \epsilon_ {\text{relax}} \)。 驻点条件 :试探步长足够小,即 \( \| d^{(i)} \| < \epsilon_ {\text{step}} \)。 或者达到最大迭代次数。 算法流程总结 初始化 :给定初始点 \( x^{(0)} \),初始松弛变量 \( s^{(0)} \)(例如,令 \( s_ j^{(0)} = \max(0, g_ j(x^{(0)})) \)),初始信赖域半径 \( \Delta^{(0)} \),初始惩罚参数 \( \rho^{(0)} \),设定参数 \( \beta, \gamma, \epsilon_ {\text{feas}}, \epsilon_ {\text{relax}}, \epsilon_ {\text{step}} \)。 For 迭代次数 \( i = 0, 1, 2, \dots \) : a. 线性化 :在当前点 \( x^{(i)} \) 计算 \( f \) 和 \( g_ j \) 的梯度。 b. 构建并求解凸子问题(CP_ i) :求解以 \( \tilde{f}, \tilde{g} j \) 近似的,带有信赖域约束 \( \|x - x^{(i)}\| \infty \le \Delta^{(i)} \) 和松弛约束 \( \tilde{g}_ j(x) \le s_ j^{(i)} \) 的线性/二次规划,得到试探点 \( x^{\text{new}} \)。 c. 接受性检验 :计算实际减少与预测减少的比值 \( r^{(i)} \)。若 \( r^{(i)} \) 足够大,则接受 \( x^{(i+1)} = x^{\text{new}} \);否则,缩小 \( \Delta^{(i)} \),返回步骤b。 d. 更新松弛变量 :若步被接受,则按规则 \( s_ j^{(i+1)} = \beta \cdot s_ j^{(i)} + (1-\beta) \cdot \max(0, g_ j(x^{(i+1)})) \) 更新松弛变量。 e. 更新惩罚参数 (可选):根据约束违反情况,按规则更新 \( \rho \)。 f. 更新信赖域半径 :根据比值 \( r^{(i)} \) 更新 \( \Delta^{(i+1)} \)。 g. 收敛性检查 :检查上述三个收敛条件。若满足,则终止并输出 \( x^{(i+1)} \) 作为近似解。 输出 :最终迭代点 \( x^* \)。 核心思想与优势 隐式松弛 :通过引入并动态管理松弛变量 \( s \),将难以处理的非凸约束可行性问题,转化为一系列通过调整 \( s \) 来控制的、更容易求解的凸子问题。 序列凸规划 :通过局部线性化和信赖域控制,确保每一步求解的都是一个凸优化问题(通常是LP或QP),计算高效且可靠。 双重迭代 :算法交替进行“在固定松弛下优化原始变量”和“根据当前解的质量更新松弛变量”,实现了目标函数下降与约束满足之间的平衡。 这种方法特别适用于那些非凸性主要来自约束,且约束函数可微的工程优化问题。它避免了直接处理非凸约束的困难,通过一种隐式的、逐步逼近的方式找到高质量的可行解。