非线性规划中的序列二次规划-积极集-信赖域反射-自适应屏障-代理模型混合算法进阶题:带高维非凸不等式约束的鲁棒优化问题
字数 5611 2025-12-13 20:58:42

非线性规划中的序列二次规划-积极集-信赖域反射-自适应屏障-代理模型混合算法进阶题:带高维非凸不等式约束的鲁棒优化问题

题目描述

考虑如下高维、非凸、带有不等式约束的非线性规划问题:

最小化目标函数:

\[f(x) = \sum_{i=1}^{n} \left( x_i^2 - \cos(2\pi x_i) \right) + 0.1 \sum_{i=1}^{n-1} (x_i - x_{i+1})^4 \]

其中 \(x = (x_1, x_2, \ldots, x_n) \in \mathbb{R}^n\)\(n = 100\)

约束条件为:

\[g_j(x) = \sum_{i=1}^{n} a_{ij} \sin(x_i + 0.5j) + b_j \leq 0, \quad j = 1, 2, \ldots, m \]

其中 \(m = 50\),系数 \(a_{ij} \sim \mathcal{N}(0, 1)\)\(b_j \sim \mathcal{U}(-2, 0)\) 随机生成,确保问题可行。

这个问题的挑战在于:

  1. 高维:100维决策变量,50个约束。
  2. 非凸性:目标函数 \(f(x)\) 包含周期性的 \(-\cos\) 项,导致多个局部极小点;约束函数 \(g_j(x)\) 是非线性、非凸的。
  3. 计算开销:每次计算所有约束的梯度和Hessian矩阵代价高昂。

要求设计一个混合算法,它结合了:

  • 序列二次规划(SQP) 的快速局部收敛性。
  • 积极集法 来有效处理大量不等式约束。
  • 信赖域反射(Trust-Region Reflective, TRR) 来保证在非凸区域迭代的稳健性。
  • 自适应屏障(Adaptive Barrier) 函数(或内点罚函数)将约束问题转化为一系列无约束子问题,并动态调整屏障参数以保证可行性。
  • 代理模型(Surrogate Model) 来近似高维、计算昂贵的约束函数或其梯度,以减少计算负荷。

请详细阐述如何将这些组件有机结合,形成一个稳定、高效的求解框架,并解释每一步的计算细节、参数更新策略以及收敛性考虑。

解题过程详解

我们的目标是构建一个混合算法,充分利用各组件的优势,逐步、稳定地逼近原问题的解。

步骤1:算法框架与整体流程

核心思想是外层采用自适应屏障方法处理约束,内层采用结合了积极集、代理模型和信赖域反射的SQP方法来求解每个屏障参数下的无约束子问题

  1. 屏障变换:将不等式约束 \(g_j(x) \leq 0\) 通过对数屏障函数整合到目标中,形成屏障子问题:

\[ \min_x \quad \Phi(x; \mu) = f(x) - \mu \sum_{j=1}^{m} \ln(-g_j(x)) \]

其中 $ \mu > 0 $ 是屏障参数。当 $ \mu \to 0 $ 时, $ \Phi(x; \mu) $ 的解逼近原约束问题的最优解。
  1. 外层循环(屏障参数更新):从一个较大的初始 \(\mu_0\) 开始,求解当前的屏障子问题 \(\min \Phi(x; \mu_k)\)。求解得到近似解 \(x_k^*\) 后,按规则减小屏障参数 \(\mu_{k+1} = \tau \mu_k\)(例如 \(\tau = 0.1\)),并以 \(x_k^*\) 作为下一次求解的初始点,直到 \(\mu_k\) 足够小。

  2. 内层循环(求解屏障子问题):这是算法的核心。对于固定的 \(\mu_k\),我们需要求解无约束问题 \(\min \Phi(x; \mu_k)\)。我们采用基于代理模型的SQP-积极集-信赖域反射方法。

    • SQP框架:在每次迭代中,在当前点 \(x_t\) 处,构建 \(\Phi(x; \mu_k)\) 的局部二次模型(子问题),通过求解该子问题得到搜索方向 \(p_t\)
    • 积极集策略:由于屏障项 \(-\mu \ln(-g_j(x))\) 在约束边界(\(g_j(x) \to 0^-\))附近会趋于无穷,导致数值困难。我们利用积极集识别“接近活跃”的约束(即 \(g_j(x) \ge -\epsilon\)\(\epsilon\) 是一个小的正数),并为这些约束构建更精确的二次模型,对非积极约束则简化处理或使用代理模型,以提高效率。
    • 代理模型:对于高维约束函数 \(g_j(x)\) 及其梯度 \(\nabla g_j(x)\) 和Hessian \(\nabla^2 g_j(x)\),直接计算在所有约束上代价高昂。我们使用Kriging(高斯过程)模型径向基函数(RBF)模型来近似它们。在每次SQP迭代中,我们利用代理模型预测函数值和梯度,仅在少数“有信息价值”的点(如新迭代点或其周围采样点)进行精确计算,并用这些新数据更新代理模型。
    • 信赖域反射:SQP子问题的求解本身可能不稳定,尤其是在非凸区域。我们引入信赖域约束 \(\|p\| \le \Delta_t\),将SQP子问题转化为一个信赖域子问题。采用“反射”技巧处理当迭代点靠近可行域边界时信赖域约束可能导致的无效步长,通过反射变换保证新迭代点仍在可行域内或能有效回退。

整体算法伪代码概览

输入:初始点 x0,初始屏障参数 μ0,缩减因子 τ,初始信赖域半径 Δ0。
设置 k=0。
while μ_k > μ_min:
    // 阶段1: 求解当前屏障子问题
    x_{k+1} = Solve_Barrier_Subproblem(x_k, μ_k, Δ_0) // 调用内层SQP混合算法
    // 阶段2: 更新屏障参数
    μ_{k+1} = τ * μ_k
    k = k+1
输出:最终解 x_k

步骤2:内层求解器 - 基于代理模型的SQP-积极集-信赖域反射混合算法

这是求解 \(\min \Phi(x; \mu)\) 的具体过程。设当前屏障参数为 \(\mu\),当前迭代点为 \(x_t\),信赖域半径为 \(\Delta_t\)

  1. 构建积极集

\[ \mathcal{A}_t = \{ j \mid -g_j(x_t) \le \eta \cdot \mu \} \]

其中 $ \eta $ 是一个稍大于1的常数(如1.5)。这个定义基于屏障方法的理论:在最优解附近,对于活跃约束应有 $ -g_j(x^*) \approx \mu $。集合 $ \mathcal{A}_t $ 包含了那些当前值接近屏障“边界”的约束,它们对目标函数 $ \Phi $ 的曲率(Hessian)有显著影响。
  1. 构建代理模型辅助的二次规划(QP)子问题
    • 计算精确的 \(f(x_t), \nabla f(x_t), \nabla^2 f(x_t)\)(对于本问题,\(f\) 相对简单,可精确计算)。
    • 对于约束函数:
      • \(j \in \mathcal{A}_t\)(积极约束),我们可能需要进行一次精确计算 \(g_j(x_t), \nabla g_j(x_t)\),并可能用BFGS等方法更新其Hessian的近似 \(B_{j,t}\)。但在高维下,为了节省计算,我们可以用代理模型 \(\tilde{g}_j(x)\) 来预测其值和梯度,并且代理模型也可以提供预测的Hessian \(\tilde{H}_{j,t}\)。我们设定一个阈值,只有当代理模型的不确定性估计高于某个水平时,才触发精确计算并更新代理模型。
      • \(j \notin \mathcal{A}_t\)(非积极约束),其贡献 \(-\mu \ln(-g_j(x))\) 相对平滑,我们可以完全使用代理模型预测的值和梯度,或者使用简单的线性外推,以极大减少计算量。
    • 基于以上,构建 \(\Phi(x; \mu)\)\(x_t\) 处的二次近似:

\[ m_t(p) = \Phi(x_t; \mu) + \nabla \Phi_t^T p + \frac{1}{2} p^T B_t p \]

    其中:

\[ \nabla \Phi_t = \nabla f(x_t) - \mu \sum_{j=1}^{m} \frac{\nabla g_j(x_t)}{g_j(x_t)} \quad \text{(使用代理模型预测的梯度替换部分项)} \]

\[ B_t = \nabla^2 f(x_t) + \mu \sum_{j=1}^{m} \left( \frac{\nabla g_j(x_t) \nabla g_j(x_t)^T}{g_j(x_t)^2} - \frac{\nabla^2 g_j(x_t)}{g_j(x_t)} \right) \quad \text{(使用代理模型预测的Hessian或近似)} \]

*   **信赖域形式的QP子问题**为:

\[ \min_{p \in \mathbb{R}^n} \quad m_t(p) \quad \text{s.t.} \quad \|p\| \le \Delta_t \]

  1. 求解信赖域子问题并计算试探步

    • 使用信赖域反射(TRR) 方法求解上述子问题。TRR专门处理边界约束(这里是球形信赖域约束),其核心是当标准的截断共轭梯度法等产生的步长到达信赖域边界时,不是简单截断,而是沿着边界“反射”继续探索,这通常能产生更好的步长,尤其是在目标函数呈山谷形时。
    • 求解得到试探步 \(p_t\)
  2. 计算实际下降与预测下降比,更新迭代点与信赖域半径

    • 计算实际下降:\(\text{ared}_t = \Phi(x_t; \mu) - \Phi(x_t + p_t; \mu)\)
    • 计算预测下降:\(\text{pred}_t = m_t(0) - m_t(p_t)\)
    • 计算比值 \(\rho_t = \frac{\text{ared}_t}{\text{pred}_t}\)
    • 更新迭代点:

\[ x_{t+1} = \begin{cases} x_t + p_t, & \text{if } \rho_t > \eta_1 \ (\text{e.g., } 0.01) \\ x_t, & \text{otherwise} \end{cases} \]

*   更新信赖域半径:

\[ \Delta_{t+1} = \begin{cases} \gamma_{\text{dec}} \Delta_t, & \text{if } \rho_t < \eta_1 \ (\text{e.g., } 0.25) \\ \Delta_t, & \text{if } \eta_1 \le \rho_t < \eta_2 \ (\text{e.g., } 0.75) \\ \gamma_{\text{inc}} \Delta_t, & \text{if } \rho_t \ge \eta_2 \end{cases} \]

    其中 $ 0 < \gamma_{\text{dec}} < 1 < \gamma_{\text{inc}} $。
  1. 更新代理模型

    • 在新的迭代点 \(x_{t+1}\)(如果被接受),我们计算一部分约束的精确值 \(g_j(x_{t+1})\) 和梯度 \(\nabla g_j(x_{t+1})\)
    • 选择策略可以是:所有积极集 \(\mathcal{A}_t\) 中的约束;或者基于代理模型不确定性(如Kriging的预测方差)最大的几个约束。
    • 将这些新的精确数据点加入代理模型的训练集,更新代理模型。
  2. 内层收敛判断:当梯度范数 \(\|\nabla \Phi(x_t; \mu)\|\) 小于给定阈值,或者信赖域半径 \(\Delta_t\) 小于阈值,或者达到最大迭代次数时,内层迭代终止,返回当前解 \(x_t\) 作为屏障子问题的近似解。

步骤3:算法特性与优势总结

  1. 稳健性

    • 屏障方法:保证迭代点严格满足不等式约束(\(g_j(x) < 0\)),从可行域内部逼近解,数值稳定性好。
    • 信赖域反射:通过信赖域控制步长,保证二次模型的充分性,避免在非凸区域产生过大或无效的步长。“反射”机制能更有效地利用信赖域边界,提高收敛效率。
  2. 高效性

    • 积极集法:聚焦于对当前子问题曲率有主要影响的“近活跃”约束,减少了需要精确建模的约束数量。
    • 代理模型:用计算廉价的模型替代大部分昂贵的高维约束函数及其导数的精确计算,是处理高维问题的关键。通过主动学习策略(基于不确定性采样),用最少的精确计算次数获得足够精确的全局近似。
  3. 适应性

    • 自适应屏障:外层循环通过系统性地减小 \(\mu\),引导解从中心路径(Central Path)逼近原问题的最优解。
    • 自适应信赖域:内层根据模型匹配程度(\(\rho_t\))动态调整信赖域半径,平衡全局探索和局部快速收敛。
  4. 收敛性:在适当条件下(如代理模型误差可控、屏障参数序列趋于零、SQP子问题精确求解),该混合算法能收敛到原问题的一个KKT点。实际中,我们需要监控屏障对偶间隙 \(-\mu \sum \ln(-g_j(x))\) 和原始可行性 \(\max_j g_j(x)\) 来评估收敛。

通过这种序列屏障框架嵌套基于代理模型的SQP-积极集-信赖域反射内层求解器的混合策略,我们能够在处理高维、非凸、带复杂不等式约束的优化问题时,在计算效率和求解稳健性之间取得良好平衡。

非线性规划中的序列二次规划-积极集-信赖域反射-自适应屏障-代理模型混合算法进阶题:带高维非凸不等式约束的鲁棒优化问题 题目描述 考虑如下高维、非凸、带有不等式约束的非线性规划问题: 最小化目标函数: \[ f(x) = \sum_ {i=1}^{n} \left( x_ i^2 - \cos(2\pi x_ i) \right) + 0.1 \sum_ {i=1}^{n-1} (x_ i - x_ {i+1})^4 \] 其中 \( x = (x_ 1, x_ 2, \ldots, x_ n) \in \mathbb{R}^n \), \( n = 100 \)。 约束条件为: \[ g_ j(x) = \sum_ {i=1}^{n} a_ {ij} \sin(x_ i + 0.5j) + b_ j \leq 0, \quad j = 1, 2, \ldots, m \] 其中 \( m = 50 \),系数 \( a_ {ij} \sim \mathcal{N}(0, 1) \), \( b_ j \sim \mathcal{U}(-2, 0) \) 随机生成,确保问题可行。 这个问题的挑战在于: 高维 :100维决策变量,50个约束。 非凸性 :目标函数 \( f(x) \) 包含周期性的 \( -\cos \) 项,导致多个局部极小点;约束函数 \( g_ j(x) \) 是非线性、非凸的。 计算开销 :每次计算所有约束的梯度和Hessian矩阵代价高昂。 要求设计一个 混合算法 ,它结合了: 序列二次规划(SQP) 的快速局部收敛性。 积极集法 来有效处理大量不等式约束。 信赖域反射(Trust-Region Reflective, TRR) 来保证在非凸区域迭代的稳健性。 自适应屏障(Adaptive Barrier) 函数(或内点罚函数)将约束问题转化为一系列无约束子问题,并动态调整屏障参数以保证可行性。 代理模型(Surrogate Model) 来近似高维、计算昂贵的约束函数或其梯度,以减少计算负荷。 请详细阐述如何将这些组件有机结合,形成一个稳定、高效的求解框架,并解释每一步的计算细节、参数更新策略以及收敛性考虑。 解题过程详解 我们的目标是构建一个混合算法,充分利用各组件的优势,逐步、稳定地逼近原问题的解。 步骤1:算法框架与整体流程 核心思想是 外层采用自适应屏障方法处理约束,内层采用结合了积极集、代理模型和信赖域反射的SQP方法来求解每个屏障参数下的无约束子问题 。 屏障变换 :将不等式约束 \( g_ j(x) \leq 0 \) 通过对数屏障函数整合到目标中,形成屏障子问题: \[ \min_ x \quad \Phi(x; \mu) = f(x) - \mu \sum_ {j=1}^{m} \ln(-g_ j(x)) \] 其中 \( \mu > 0 \) 是屏障参数。当 \( \mu \to 0 \) 时, \( \Phi(x; \mu) \) 的解逼近原约束问题的最优解。 外层循环(屏障参数更新) :从一个较大的初始 \( \mu_ 0 \) 开始,求解当前的屏障子问题 \( \min \Phi(x; \mu_ k) \)。求解得到近似解 \( x_ k^* \) 后,按规则减小屏障参数 \( \mu_ {k+1} = \tau \mu_ k \)(例如 \( \tau = 0.1 \)),并以 \( x_ k^* \) 作为下一次求解的初始点,直到 \( \mu_ k \) 足够小。 内层循环(求解屏障子问题) :这是算法的核心。对于固定的 \( \mu_ k \),我们需要求解无约束问题 \( \min \Phi(x; \mu_ k) \)。我们采用 基于代理模型的SQP-积极集-信赖域反射 方法。 SQP框架 :在每次迭代中,在当前点 \( x_ t \) 处,构建 \( \Phi(x; \mu_ k) \) 的局部二次模型(子问题),通过求解该子问题得到搜索方向 \( p_ t \)。 积极集策略 :由于屏障项 \( -\mu \ln(-g_ j(x)) \) 在约束边界(\( g_ j(x) \to 0^- \))附近会趋于无穷,导致数值困难。我们利用积极集识别“接近活跃”的约束(即 \( g_ j(x) \ge -\epsilon \),\( \epsilon \) 是一个小的正数),并为这些约束构建更精确的二次模型,对非积极约束则简化处理或使用代理模型,以提高效率。 代理模型 :对于高维约束函数 \( g_ j(x) \) 及其梯度 \( \nabla g_ j(x) \) 和Hessian \( \nabla^2 g_ j(x) \),直接计算在所有约束上代价高昂。我们使用 Kriging(高斯过程)模型 或 径向基函数(RBF)模型 来近似它们。在每次SQP迭代中,我们利用代理模型预测函数值和梯度,仅在少数“有信息价值”的点(如新迭代点或其周围采样点)进行精确计算,并用这些新数据更新代理模型。 信赖域反射 :SQP子问题的求解本身可能不稳定,尤其是在非凸区域。我们引入信赖域约束 \( \|p\| \le \Delta_ t \),将SQP子问题转化为一个信赖域子问题。采用“反射”技巧处理当迭代点靠近可行域边界时信赖域约束可能导致的无效步长,通过反射变换保证新迭代点仍在可行域内或能有效回退。 整体算法伪代码概览 : 步骤2:内层求解器 - 基于代理模型的SQP-积极集-信赖域反射混合算法 这是求解 \( \min \Phi(x; \mu) \) 的具体过程。设当前屏障参数为 \( \mu \),当前迭代点为 \( x_ t \),信赖域半径为 \( \Delta_ t \)。 构建积极集 : \[ \mathcal{A}_ t = \{ j \mid -g_ j(x_ t) \le \eta \cdot \mu \} \] 其中 \( \eta \) 是一个稍大于1的常数(如1.5)。这个定义基于屏障方法的理论:在最优解附近,对于活跃约束应有 \( -g_ j(x^* ) \approx \mu \)。集合 \( \mathcal{A}_ t \) 包含了那些当前值接近屏障“边界”的约束,它们对目标函数 \( \Phi \) 的曲率(Hessian)有显著影响。 构建代理模型辅助的二次规划(QP)子问题 : 计算精确的 \( f(x_ t), \nabla f(x_ t), \nabla^2 f(x_ t) \)(对于本问题,\( f \) 相对简单,可精确计算)。 对于约束函数: 若 \( j \in \mathcal{A} t \)(积极约束),我们可能需要进行一次精确计算 \( g_ j(x_ t), \nabla g_ j(x_ t) \),并可能用BFGS等方法更新其Hessian的近似 \( B {j,t} \)。但在高维下,为了节省计算,我们可以用代理模型 \( \tilde{g} j(x) \) 来预测其值和梯度,并且代理模型也可以提供预测的Hessian \( \tilde{H} {j,t} \)。我们设定一个阈值,只有当代理模型的不确定性估计高于某个水平时,才触发精确计算并更新代理模型。 若 \( j \notin \mathcal{A}_ t \)(非积极约束),其贡献 \( -\mu \ln(-g_ j(x)) \) 相对平滑,我们可以完全使用代理模型预测的值和梯度,或者使用简单的线性外推,以极大减少计算量。 基于以上,构建 \( \Phi(x; \mu) \) 在 \( x_ t \) 处的二次近似: \[ m_ t(p) = \Phi(x_ t; \mu) + \nabla \Phi_ t^T p + \frac{1}{2} p^T B_ t p \] 其中: \[ \nabla \Phi_ t = \nabla f(x_ t) - \mu \sum_ {j=1}^{m} \frac{\nabla g_ j(x_ t)}{g_ j(x_ t)} \quad \text{(使用代理模型预测的梯度替换部分项)} \] \[ B_ t = \nabla^2 f(x_ t) + \mu \sum_ {j=1}^{m} \left( \frac{\nabla g_ j(x_ t) \nabla g_ j(x_ t)^T}{g_ j(x_ t)^2} - \frac{\nabla^2 g_ j(x_ t)}{g_ j(x_ t)} \right) \quad \text{(使用代理模型预测的Hessian或近似)} \] 信赖域形式的QP子问题 为: \[ \min_ {p \in \mathbb{R}^n} \quad m_ t(p) \quad \text{s.t.} \quad \|p\| \le \Delta_ t \] 求解信赖域子问题并计算试探步 : 使用 信赖域反射(TRR) 方法求解上述子问题。TRR专门处理边界约束(这里是球形信赖域约束),其核心是当标准的截断共轭梯度法等产生的步长到达信赖域边界时,不是简单截断,而是沿着边界“反射”继续探索,这通常能产生更好的步长,尤其是在目标函数呈山谷形时。 求解得到试探步 \( p_ t \)。 计算实际下降与预测下降比,更新迭代点与信赖域半径 : 计算实际下降:\( \text{ared}_ t = \Phi(x_ t; \mu) - \Phi(x_ t + p_ t; \mu) \)。 计算预测下降:\( \text{pred}_ t = m_ t(0) - m_ t(p_ t) \)。 计算比值 \( \rho_ t = \frac{\text{ared}_ t}{\text{pred}_ t} \)。 更新迭代点: \[ x_ {t+1} = \begin{cases} x_ t + p_ t, & \text{if } \rho_ t > \eta_ 1 \ (\text{e.g., } 0.01) \\ x_ t, & \text{otherwise} \end{cases} \] 更新信赖域半径: \[ \Delta_ {t+1} = \begin{cases} \gamma_ {\text{dec}} \Delta_ t, & \text{if } \rho_ t < \eta_ 1 \ (\text{e.g., } 0.25) \\ \Delta_ t, & \text{if } \eta_ 1 \le \rho_ t < \eta_ 2 \ (\text{e.g., } 0.75) \\ \gamma_ {\text{inc}} \Delta_ t, & \text{if } \rho_ t \ge \eta_ 2 \end{cases} \] 其中 \( 0 < \gamma_ {\text{dec}} < 1 < \gamma_ {\text{inc}} \)。 更新代理模型 : 在新的迭代点 \( x_ {t+1} \)(如果被接受),我们计算 一部分 约束的精确值 \( g_ j(x_ {t+1}) \) 和梯度 \( \nabla g_ j(x_ {t+1}) \)。 选择策略可以是:所有积极集 \( \mathcal{A}_ t \) 中的约束;或者基于代理模型不确定性(如Kriging的预测方差)最大的几个约束。 将这些新的精确数据点加入代理模型的训练集,更新代理模型。 内层收敛判断 :当梯度范数 \( \|\nabla \Phi(x_ t; \mu)\| \) 小于给定阈值,或者信赖域半径 \( \Delta_ t \) 小于阈值,或者达到最大迭代次数时,内层迭代终止,返回当前解 \( x_ t \) 作为屏障子问题的近似解。 步骤3:算法特性与优势总结 稳健性 : 屏障方法 :保证迭代点严格满足不等式约束(\( g_ j(x) < 0 \)),从可行域内部逼近解,数值稳定性好。 信赖域反射 :通过信赖域控制步长,保证二次模型的充分性,避免在非凸区域产生过大或无效的步长。“反射”机制能更有效地利用信赖域边界,提高收敛效率。 高效性 : 积极集法 :聚焦于对当前子问题曲率有主要影响的“近活跃”约束,减少了需要精确建模的约束数量。 代理模型 :用计算廉价的模型替代大部分昂贵的高维约束函数及其导数的精确计算,是处理高维问题的关键。通过主动学习策略(基于不确定性采样),用最少的精确计算次数获得足够精确的全局近似。 适应性 : 自适应屏障 :外层循环通过系统性地减小 \( \mu \),引导解从中心路径(Central Path)逼近原问题的最优解。 自适应信赖域 :内层根据模型匹配程度(\( \rho_ t \))动态调整信赖域半径,平衡全局探索和局部快速收敛。 收敛性 :在适当条件下(如代理模型误差可控、屏障参数序列趋于零、SQP子问题精确求解),该混合算法能收敛到原问题的一个KKT点。实际中,我们需要监控屏障对偶间隙 \( -\mu \sum \ln(-g_ j(x)) \) 和原始可行性 \( \max_ j g_ j(x) \) 来评估收敛。 通过这种 序列屏障框架 嵌套 基于代理模型的SQP-积极集-信赖域反射 内层求解器的混合策略,我们能够在处理高维、非凸、带复杂不等式约束的优化问题时,在计算效率和求解稳健性之间取得良好平衡。