基于自适应屏障-代理模型-序列二次规划-信赖域的混合算法进阶题:处理高维非凸约束优化中的多模态问题
字数 5532 2025-12-15 05:07:13

基于自适应屏障-代理模型-序列二次规划-信赖域的混合算法进阶题:处理高维非凸约束优化中的多模态问题

题目描述

我们考虑一个具有挑战性的非线性规划问题,其目标函数和约束都可能高度非凸,并且问题规模较大(高维)。这类问题常常出现在工程设计、机器学习模型调优等领域,其中目标函数可能包含多个局部最优点(多模态),而约束条件复杂,使得传统的单一算法难以高效、可靠地找到全局满意解或高质量局部解。题目如下:

问题P:
最小化目标函数 \(f(x)\)
约束条件:
\(g_i(x) \leq 0, \quad i = 1, \ldots, m\) (不等式约束)
\(h_j(x) = 0, \quad j = 1, \ldots, p\) (等式约束)
\(x \in \mathbb{R}^n\), 其中 \(n\) 很大(例如 \(n > 100\))。

已知特性:

  1. \(f(x), g_i(x), h_j(x)\) 都是二阶连续可微的,但其Hessian矩阵可能不定(非凸)。
  2. 问题的可行域可能非凸,且约束数量 \(m+p\) 也较大。
  3. \(f(x)\) 可能是多模态的,即存在多个局部极小点。
  4. 函数(特别是 \(f\))的计算代价可能较高。

任务: 设计一个混合优化算法,它结合了自适应屏障函数、代理模型、序列二次规划和信赖域方法,旨在高效地探索解空间,逃离局部最优,并最终收敛到一个高质量的可行解。

解题过程

本混合算法的核心思想是分层协作

  1. 全局探索层(代理模型+信赖域): 利用计算代价较低的代理模型(如二次响应面、RBF模型)在全局范围内近似原问题,并结合信赖域方法进行粗搜索,以识别有希望的“盆地”(潜在最优区域)。
  2. 局部精炼层(序列二次规划SQP): 在由全局层推荐的区域,切换到精确的SQP方法进行快速、精确的局部收敛。
  3. 约束处理层(自适应屏障函数): 贯穿整个过程,使用自适应屏障函数将约束优化问题转化为一系列无约束或简单约束的子问题,并动态调整屏障参数以保证可行性并促进收敛。
  4. 衔接与调度逻辑: 设计一套准则,决定何时在全局探索和局部精炼之间切换,以及如何更新代理模型和调整屏障参数。

下面,我们循序渐进地讲解该混合算法的步骤。

步骤1:问题重构与自适应屏障函数

为了处理不等式约束,我们引入一个屏障函数(如对数屏障)将原约束问题转化为一系列参数化的无约束问题。

定义屏障函数子问题:
对于给定的屏障参数 \(\mu^k > 0\),定义屏障惩罚函数:

\[\Phi(x; \mu^k) = f(x) - \mu^k \sum_{i=1}^{m} \ln(-g_i(x)) \]

这里,\(- \ln(-g_i(x))\)\(g_i(x) \to 0^-\) 时趋于无穷大,从而将解“推离”约束边界。等式约束 \(h_j(x)=0\) 通常用二次罚函数 \((\rho/2)\sum_j h_j(x)^2\) 处理,也可以并入目标。为简化,我们先聚焦于不等式约束。

自适应性体现在:
初始时,\(\mu^0\) 设为一个较大的值,使得屏障项作用强,解被保持在可行域内部。随着迭代 \(k\) 进行,我们按照规则 \(\mu^{k+1} = \eta \mu^k\)\(0 < \eta < 1\))减小 \(\mu\)。当 \(\mu^k\) 很小时,\(\Phi(x; \mu^k)\) 越来越接近原函数 \(f(x)\),最终在极限下,屏障子问题的最优解逼近原约束问题的最优解。“自适应” 也可根据当前解的可行性误差动态调整 \(\mu\) 的缩减速率 \(\eta\)

当前,我们面对的是最小化 \(\Phi(x; \mu^k)\) 的子问题。但这个子问题本身仍是高维、非凸、多模态的。我们将用混合策略来求解它。

步骤2:构建全局代理模型

由于精确计算 \(f(x)\)\(g_i(x)\) 代价高,我们在当前迭代点 \(x^k\) 的某个邻域(初始可能是整个搜索空间的粗采样)内,构建这些函数的代理模型(元模型)

  • 采样: 在信赖域 \(\Delta^k\) (以 \(x^k\) 为中心,半径为 \(\Delta^k\) 的区域)内,采用实验设计方法(如拉丁超立方采样)选取 \(N\) 个样本点 \(\{x^{(1)}, \ldots, x^{(N)}\}\)
  • 评估与拟合: 在这些样本点上计算真实的 \(f\)\(g_i\) 值(这是代价高的步骤,但N相对较小)。然后,为每个函数拟合一个代理模型。对于局部近似,常用二次响应面模型

\[ \tilde{f}(x) \approx f(x^k) + \nabla f(x^k)^T (x - x^k) + \frac{1}{2} (x - x^k)^T B_f^k (x - x^k) \]

其中 $ B_f^k $ 是对Hessian的对称近似(可通过BFGS等拟牛顿法更新)。类似地,构建 $ \tilde{g}_i(x) $。
  • 替代问题: 用代理模型 \(\tilde{f}, \{\tilde{g}_i\}\) 替换原函数,形成近似的屏障子问题:

\[ \min_x \quad \tilde{\Phi}(x; \mu^k) = \tilde{f}(x) - \mu^k \sum_{i=1}^{m} \ln(-\tilde{g}_i(x)) \]

**注意:** 对数屏障要求自变量为负,因此我们需要确保在信赖域内代理模型 $ \tilde{g}_i(x) < 0 $(或通过添加一个小的安全边际)。这定义了代理问题的可行域。

步骤3:基于代理模型的全局探索(信赖域框架)

现在,我们在信赖域 \(\|x - x^k\| \leq \Delta^k\) 内求解上述近似屏障子问题 \(\min \tilde{\Phi}(x; \mu^k)\)。由于代理模型相对简单,我们可以使用高效的信赖域序列二次规划(TR-SQP) 来求解这个近似问题。

  • SQP子问题构建: 在当前代理模型迭代点 \(x^l\) (注意,这是内层循环,区别于外层屏障迭代k),将 \(\tilde{\Phi}\)\(x^l\) 处进行二阶泰勒展开(或直接利用其二次结构),并求解一个二次规划(QP)子问题来获取搜索方向 \(d^l\)

\[ \begin{aligned} \min_{d} & \quad \nabla \tilde{\Phi}(x^l; \mu^k)^T d + \frac{1}{2} d^T H_l d \\ \text{s.t.} & \quad \tilde{g}_i(x^l) + \nabla \tilde{g}_i(x^l)^T d \leq 0, \quad i=1,\ldots,m \\ & \quad \|d\| \leq \Delta^l \end{aligned} \]

其中 $ H_l $ 是 $ \tilde{\Phi} $ 在 $ x^l $ 处Hessian的近似,$ \Delta^l $ 是当前(内层)信赖域半径。
  • 接受步长与更新信赖域: 计算实际下降量 \(\text{Ared} = \Phi(x^l; \mu^k) - \Phi(x^l + d^l; \mu^k)\)(使用真实函数!)和预测下降量 \(\text{Pred} = \tilde{\Phi}(x^l; \mu^k) - \tilde{\Phi}_q(x^l + d^l; \mu^k)\)(其中 \(\tilde{\Phi}_q\) 是QP子问题的目标函数值)。计算比值 \(r = \text{Ared} / \text{Pred}\)
    • \(r\) 较大(例如 \(> 0.75\)),说明代理模型在该区域很准确,接受该步 \(x^{l+1} = x^l + d^l\),并可能增大信赖域半径 \(\Delta^{l+1}\)
    • \(r\) 较小(例如 \(< 0.25\)),说明代理模型不够准确,拒绝该步 \(x^{l+1} = x^l\),并减小信赖域半径 \(\Delta^{l+1}\)
    • 否则,接受该步但保持半径不变。
  • 全局探索目标: 这个内层TR-SQP循环在当前的 \(\mu^k\) 下,利用代理模型快速寻找 \(\Phi(x; \mu^k)\) 的一个(局部)最优解 \(x^{*, k}\)。由于代理模型是全局近似(在信赖域内),并且算法可以从不同的初始点重启,它有能力跳出当前局部最优,探索其他区域,从而应对多模态性。

步骤4:切换到精确局部精炼(SQP)

当基于代理模型的探索满足某个收敛条件时(例如,连续几步迭代目标函数改进很小,或者信赖域半径 \(\Delta^l\) 缩小到阈值以下),我们认为算法已经锁定了一个有希望的“盆地”。此时,我们切换到精确的序列二次规划(SQP) 进行局部精炼。

  • 切换条件: 设定一个阈值 \(\epsilon_{switch}\)。当基于代理模型的TR-SQP内循环中,真实目标函数 \(\Phi(x; \mu^k)\) 的相对变化小于 \(\epsilon_{switch}\),或者达到最大内循环迭代次数时,触发切换。
  • 精确SQP: 以当前点 \(x^{l}\) 作为初始点,不再使用代理模型,而是直接使用真实函数 \(f\)\(g\) 的梯度和Hessian信息(或拟牛顿近似)来构建和求解SQP子问题。等式约束 \(h_j(x)=0\) 也在此阶段被精确处理(例如,通过拉格朗日乘子法并入KKT条件)。
  • 快速局部收敛: 精确SQP在好的初始点附近通常具有超线性收敛速度,可以快速、高精度地找到当前屏障参数 \(\mu^k\) 下子问题的局部最优解 \(x^{*, k}\)

步骤5:屏障参数更新与迭代循环

在获得当前屏障参数 \(\mu^k\) 下的近似最优解 \(x^{*, k}\) 后:

  1. 更新屏障参数: \(\mu^{k+1} = \eta \mu^k\),其中 \(\eta \in (0, 1)\)。如果当前解的约束违反度仍然较大,可以放慢 \(\mu\) 的缩减速度(即增大 \(\eta\) )。
  2. 更新迭代点:\(x^{k+1} = x^{*, k}\)
  3. 重构代理模型: 以新的迭代点 \(x^{k+1}\) 为中心,在新的信赖域内重新采样并拟合代理模型,准备进行下一轮的全局探索。
  4. 检查收敛: 检查原问题的KKT条件的近似满足程度,例如,考察梯度残差、约束违反度以及互补松弛条件。如果满足预设的容差,则停止;否则,返回步骤2,进行下一轮 \((k+1)\) 的迭代。

算法流程总结与优势

  1. 初始化: 给定初始点 \(x^0\),初始屏障参数 \(\mu^0\),初始信赖域半径 \(\Delta^0\),代理模型采样点数 \(N\),缩减因子 \(\eta\),各种收敛容差。
  2. 外层循环(屏障迭代 \(k\)):
    a. 构建/更新代理模型: 在以 \(x^k\) 为中心、半径为 \(\Delta^k\) 的信赖域内采样,构建 \(f\)\(g_i\) 的代理模型。
    b. 内层循环-全局探索(基于代理模型的TR-SQP):
    i. 求解近似屏障子问题的QP子问题,得到试探步 \(d^l\)
    ii. 计算实际下降与预测下降之比 \(r\)
    iii. 根据 \(r\) 决定是否接受试探步并更新信赖域半径 \(\Delta^l\)
    iv. 检查切换条件。若不满足,更新 \(l = l+1\) 回到步骤 i;若满足,退出内层循环,得到点 \(\hat{x}^k\)
    c. 局部精炼(精确SQP):\(\hat{x}^k\) 为起点,运行精确SQP,得到当前 \(\mu^k\) 下的解 \(x^{*, k}\)
    d. 更新与检查: \(\mu^{k+1} = \eta \mu^k\)\(x^{k+1} = x^{*, k}\)。检查原问题收敛性。若未收敛,\(k = k+1\),回到步骤 a。

算法优势:

  • 应对多模态: 代理模型结合信赖域提供了全局探索能力,有助于跳出局部最优。
  • 处理高维与非凸: SQP框架能有效处理非线性约束,自适应屏障函数温和地将解引向可行域内部。
  • 计算效率: 昂贵的真实函数评估只用于采样点、接受性检验和最后的局部精炼。大部分搜索步骤基于廉价的代理模型,节省了计算成本。
  • 鲁棒性与自适应性: 信赖域机制保证了迭代的稳定性,屏障参数和代理模型的动态更新使算法能适应问题的局部几何特性。

这个混合算法通过巧妙地结合几种经典技术的优势,为求解复杂的高维非凸约束优化问题提供了一个强有力的框架。

基于自适应屏障-代理模型-序列二次规划-信赖域的混合算法进阶题:处理高维非凸约束优化中的多模态问题 题目描述 我们考虑一个具有挑战性的非线性规划问题,其目标函数和约束都可能高度非凸,并且问题规模较大(高维)。这类问题常常出现在工程设计、机器学习模型调优等领域,其中目标函数可能包含多个局部最优点(多模态),而约束条件复杂,使得传统的单一算法难以高效、可靠地找到全局满意解或高质量局部解。题目如下: 问题P: 最小化目标函数 \( f(x) \) 约束条件: \( g_ i(x) \leq 0, \quad i = 1, \ldots, m \) (不等式约束) \( h_ j(x) = 0, \quad j = 1, \ldots, p \) (等式约束) \( x \in \mathbb{R}^n \), 其中 \( n \) 很大(例如 \( n > 100 \))。 已知特性: \( f(x), g_ i(x), h_ j(x) \) 都是二阶连续可微的,但其Hessian矩阵可能不定(非凸)。 问题的可行域可能非凸,且约束数量 \( m+p \) 也较大。 \( f(x) \) 可能是多模态的,即存在多个局部极小点。 函数(特别是 \( f \))的计算代价可能较高。 任务: 设计一个混合优化算法,它结合了自适应屏障函数、代理模型、序列二次规划和信赖域方法,旨在高效地探索解空间,逃离局部最优,并最终收敛到一个高质量的可行解。 解题过程 本混合算法的核心思想是 分层协作 : 全局探索层(代理模型+信赖域): 利用计算代价较低的代理模型(如二次响应面、RBF模型)在全局范围内近似原问题,并结合信赖域方法进行粗搜索,以识别有希望的“盆地”(潜在最优区域)。 局部精炼层(序列二次规划SQP): 在由全局层推荐的区域,切换到精确的SQP方法进行快速、精确的局部收敛。 约束处理层(自适应屏障函数): 贯穿整个过程,使用自适应屏障函数将约束优化问题转化为一系列无约束或简单约束的子问题,并动态调整屏障参数以保证可行性并促进收敛。 衔接与调度逻辑: 设计一套准则,决定何时在全局探索和局部精炼之间切换,以及如何更新代理模型和调整屏障参数。 下面,我们循序渐进地讲解该混合算法的步骤。 步骤1:问题重构与自适应屏障函数 为了处理不等式约束,我们引入一个屏障函数(如对数屏障)将原约束问题转化为一系列参数化的无约束问题。 定义屏障函数子问题: 对于给定的屏障参数 \( \mu^k > 0 \),定义屏障惩罚函数: \[ \Phi(x; \mu^k) = f(x) - \mu^k \sum_ {i=1}^{m} \ln(-g_ i(x)) \] 这里,\( - \ln(-g_ i(x)) \) 在 \( g_ i(x) \to 0^- \) 时趋于无穷大,从而将解“推离”约束边界。等式约束 \( h_ j(x)=0 \) 通常用二次罚函数 \( (\rho/2)\sum_ j h_ j(x)^2 \) 处理,也可以并入目标。为简化,我们先聚焦于不等式约束。 自适应性体现在: 初始时,\( \mu^0 \) 设为一个较大的值,使得屏障项作用强,解被保持在可行域内部。随着迭代 \( k \) 进行,我们按照规则 \( \mu^{k+1} = \eta \mu^k \) (\( 0 < \eta < 1 \))减小 \( \mu \)。当 \( \mu^k \) 很小时,\( \Phi(x; \mu^k) \) 越来越接近原函数 \( f(x) \),最终在极限下,屏障子问题的最优解逼近原约束问题的最优解。 “自适应” 也可根据当前解的可行性误差动态调整 \( \mu \) 的缩减速率 \( \eta \)。 当前,我们面对的是最小化 \( \Phi(x; \mu^k) \) 的子问题。但这个子问题本身仍是高维、非凸、多模态的。我们将用混合策略来求解它。 步骤2:构建全局代理模型 由于精确计算 \( f(x) \) 和 \( g_ i(x) \) 代价高,我们在当前迭代点 \( x^k \) 的某个邻域(初始可能是整个搜索空间的粗采样)内,构建这些函数的 代理模型(元模型) 。 采样: 在信赖域 \( \Delta^k \) (以 \( x^k \) 为中心,半径为 \( \Delta^k \) 的区域)内,采用实验设计方法(如拉丁超立方采样)选取 \( N \) 个样本点 \( \{x^{(1)}, \ldots, x^{(N)}\} \)。 评估与拟合: 在这些样本点上计算真实的 \( f \) 和 \( g_ i \) 值(这是代价高的步骤,但N相对较小)。然后,为每个函数拟合一个代理模型。对于局部近似,常用 二次响应面模型 : \[ \tilde{f}(x) \approx f(x^k) + \nabla f(x^k)^T (x - x^k) + \frac{1}{2} (x - x^k)^T B_ f^k (x - x^k) \] 其中 \( B_ f^k \) 是对Hessian的对称近似(可通过BFGS等拟牛顿法更新)。类似地,构建 \( \tilde{g}_ i(x) \)。 替代问题: 用代理模型 \( \tilde{f}, \{\tilde{g} i\} \) 替换原函数,形成近似的屏障子问题: \[ \min_ x \quad \tilde{\Phi}(x; \mu^k) = \tilde{f}(x) - \mu^k \sum {i=1}^{m} \ln(-\tilde{g}_ i(x)) \] 注意: 对数屏障要求自变量为负,因此我们需要确保在信赖域内代理模型 \( \tilde{g}_ i(x) < 0 \)(或通过添加一个小的安全边际)。这定义了代理问题的可行域。 步骤3:基于代理模型的全局探索(信赖域框架) 现在,我们在信赖域 \( \|x - x^k\| \leq \Delta^k \) 内求解上述近似屏障子问题 \( \min \tilde{\Phi}(x; \mu^k) \)。由于代理模型相对简单,我们可以使用高效的 信赖域序列二次规划(TR-SQP) 来求解这个近似问题。 SQP子问题构建: 在当前代理模型迭代点 \( x^l \) (注意,这是内层循环,区别于外层屏障迭代k),将 \( \tilde{\Phi} \) 在 \( x^l \) 处进行二阶泰勒展开(或直接利用其二次结构),并求解一个二次规划(QP)子问题来获取搜索方向 \( d^l \)。 \[ \begin{aligned} \min_ {d} & \quad \nabla \tilde{\Phi}(x^l; \mu^k)^T d + \frac{1}{2} d^T H_ l d \\ \text{s.t.} & \quad \tilde{g}_ i(x^l) + \nabla \tilde{g}_ i(x^l)^T d \leq 0, \quad i=1,\ldots,m \\ & \quad \|d\| \leq \Delta^l \end{aligned} \] 其中 \( H_ l \) 是 \( \tilde{\Phi} \) 在 \( x^l \) 处Hessian的近似,\( \Delta^l \) 是当前(内层)信赖域半径。 接受步长与更新信赖域: 计算实际下降量 \( \text{Ared} = \Phi(x^l; \mu^k) - \Phi(x^l + d^l; \mu^k) \)(使用真实函数!)和预测下降量 \( \text{Pred} = \tilde{\Phi}(x^l; \mu^k) - \tilde{\Phi}_ q(x^l + d^l; \mu^k) \)(其中 \( \tilde{\Phi}_ q \) 是QP子问题的目标函数值)。计算比值 \( r = \text{Ared} / \text{Pred} \)。 若 \( r \) 较大(例如 \( > 0.75 \)),说明代理模型在该区域很准确,接受该步 \( x^{l+1} = x^l + d^l \),并可能增大信赖域半径 \( \Delta^{l+1} \)。 若 \( r \) 较小(例如 \( < 0.25 \)),说明代理模型不够准确,拒绝该步 \( x^{l+1} = x^l \),并减小信赖域半径 \( \Delta^{l+1} \)。 否则,接受该步但保持半径不变。 全局探索目标: 这个内层TR-SQP循环在当前的 \( \mu^k \) 下,利用代理模型快速寻找 \( \Phi(x; \mu^k) \) 的一个(局部)最优解 \( x^{* , k} \)。由于代理模型是全局近似(在信赖域内),并且算法可以从不同的初始点重启,它有能力跳出当前局部最优,探索其他区域,从而应对多模态性。 步骤4:切换到精确局部精炼(SQP) 当基于代理模型的探索满足某个收敛条件时(例如,连续几步迭代目标函数改进很小,或者信赖域半径 \( \Delta^l \) 缩小到阈值以下),我们认为算法已经锁定了一个有希望的“盆地”。此时,我们切换到 精确的序列二次规划(SQP) 进行局部精炼。 切换条件: 设定一个阈值 \( \epsilon_ {switch} \)。当基于代理模型的TR-SQP内循环中,真实目标函数 \( \Phi(x; \mu^k) \) 的相对变化小于 \( \epsilon_ {switch} \),或者达到最大内循环迭代次数时,触发切换。 精确SQP: 以当前点 \( x^{l} \) 作为初始点,不再使用代理模型,而是直接使用真实函数 \( f \) 和 \( g \) 的梯度和Hessian信息(或拟牛顿近似)来构建和求解SQP子问题。等式约束 \( h_ j(x)=0 \) 也在此阶段被精确处理(例如,通过拉格朗日乘子法并入KKT条件)。 快速局部收敛: 精确SQP在好的初始点附近通常具有超线性收敛速度,可以快速、高精度地找到当前屏障参数 \( \mu^k \) 下子问题的局部最优解 \( x^{* , k} \)。 步骤5:屏障参数更新与迭代循环 在获得当前屏障参数 \( \mu^k \) 下的近似最优解 \( x^{* , k} \) 后: 更新屏障参数: \( \mu^{k+1} = \eta \mu^k \),其中 \( \eta \in (0, 1) \)。如果当前解的约束违反度仍然较大,可以放慢 \( \mu \) 的缩减速度(即增大 \( \eta \) )。 更新迭代点: 令 \( x^{k+1} = x^{* , k} \)。 重构代理模型: 以新的迭代点 \( x^{k+1} \) 为中心,在新的信赖域内重新采样并拟合代理模型,准备进行下一轮的全局探索。 检查收敛: 检查原问题的KKT条件的近似满足程度,例如,考察梯度残差、约束违反度以及互补松弛条件。如果满足预设的容差,则停止;否则,返回步骤2,进行下一轮 \( (k+1) \) 的迭代。 算法流程总结与优势 初始化: 给定初始点 \( x^0 \),初始屏障参数 \( \mu^0 \),初始信赖域半径 \( \Delta^0 \),代理模型采样点数 \( N \),缩减因子 \( \eta \),各种收敛容差。 外层循环(屏障迭代 \( k \)): a. 构建/更新代理模型: 在以 \( x^k \) 为中心、半径为 \( \Delta^k \) 的信赖域内采样,构建 \( f \) 和 \( g_ i \) 的代理模型。 b. 内层循环-全局探索(基于代理模型的TR-SQP): i. 求解近似屏障子问题的QP子问题,得到试探步 \( d^l \)。 ii. 计算实际下降与预测下降之比 \( r \)。 iii. 根据 \( r \) 决定是否接受试探步并更新信赖域半径 \( \Delta^l \)。 iv. 检查切换条件。若不满足,更新 \( l = l+1 \) 回到步骤 i;若满足,退出内层循环,得到点 \( \hat{x}^k \)。 c. 局部精炼(精确SQP): 以 \( \hat{x}^k \) 为起点,运行精确SQP,得到当前 \( \mu^k \) 下的解 \( x^{ , k} \)。 d. 更新与检查: \( \mu^{k+1} = \eta \mu^k \),\( x^{k+1} = x^{ , k} \)。检查原问题收敛性。若未收敛,\( k = k+1 \),回到步骤 a。 算法优势: 应对多模态: 代理模型结合信赖域提供了全局探索能力,有助于跳出局部最优。 处理高维与非凸: SQP框架能有效处理非线性约束,自适应屏障函数温和地将解引向可行域内部。 计算效率: 昂贵的真实函数评估只用于采样点、接受性检验和最后的局部精炼。大部分搜索步骤基于廉价的代理模型,节省了计算成本。 鲁棒性与自适应性: 信赖域机制保证了迭代的稳定性,屏障参数和代理模型的动态更新使算法能适应问题的局部几何特性。 这个混合算法通过巧妙地结合几种经典技术的优势,为求解复杂的高维非凸约束优化问题提供了一个强有力的框架。