马尔可夫链蒙特卡洛(MCMC)中的朗格文动力学(Langevin Dynamics)采样算法原理与优化过程
题目描述
朗格文动力学(Langevin Dynamics)是一种结合梯度信息的MCMC采样算法,用于从复杂概率分布(如机器学习中的后验分布)中高效抽取样本。其核心思想是通过模拟物理中的朗格文扩散过程,利用目标分布梯度的引导,使采样路径更倾向于高概率区域,从而加速收敛。题目要求详细解释该算法的原理、动态方程推导,以及采样步骤的优化细节。
解题过程
-
问题建模
假设目标是从概率分布 \(p(\mathbf{x})\) 中采样,其中 \(\mathbf{x} \in \mathbb{R}^d\)。通常 \(p(\mathbf{x})\) 是未归一化的(如贝叶斯后验分布),我们仅能计算其梯度 \(\nabla \log p(\mathbf{x})\)。朗格文动力学通过随机微分方程(SDE)引入梯度引导的扩散过程。 -
朗格文扩散的物理背景
在统计物理中,朗格文方程描述粒子在势能场 \(U(\mathbf{x})\) 和随机热噪声下的运动:
\[ \frac{d\mathbf{x}}{dt} = -\nabla U(\mathbf{x}) + \sqrt{2} \mathbf{W}_t \]
其中 \(U(\mathbf{x}) = -\log p(\mathbf{x})\)(称为势能函数),\(\mathbf{W}_t\) 是维纳过程(布朗运动)。该方程的稳态分布恰好是 \(p(\mathbf{x})\)。
- 离散化与采样算法
直接求解连续SDE需离散化。采用欧拉-丸山法(Euler-Maruyama discretization),得到迭代更新规则:
\[ \mathbf{x}_{t+1} = \mathbf{x}_t + \epsilon \nabla \log p(\mathbf{x}_t) + \sqrt{2\epsilon} \mathbf{z}_t \]
其中 \(\epsilon\) 是步长,\(\mathbf{z}_t \sim \mathcal{N}(0, \mathbf{I})\) 是高斯噪声。但此朴素版本因离散化误差可能导致分布偏差。
- 优化:Metropolis-Hastings校正
为消除偏差,引入接受-拒绝步骤(Metropolis-Hastings准则):- 从当前状态 \(\mathbf{x}_t\) 生成候选状态 \(\mathbf{x}^*\):
\[ \mathbf{x}^* = \mathbf{x}_t + \frac{\epsilon}{2} \nabla \log p(\mathbf{x}_t) + \sqrt{\epsilon} \mathbf{z}_t \]
- 计算接受概率 \(\alpha = \min\left(1, \frac{p(\mathbf{x}^*) q(\mathbf{x}_t \mid \mathbf{x}^*)}{p(\mathbf{x}_t) q(\mathbf{x}^* \mid \mathbf{x}_t)}\right)\),其中 \(q(\mathbf{x}^* \mid \mathbf{x}_t)\) 为提议分布(高斯分布)。
- 以概率 \(\alpha\) 接受 \(\mathbf{x}_{t+1} = \mathbf{x}^*\),否则保留原状态。
此方法称为Metropolis-Adjusted Langevin Algorithm (MALA),确保采样分布精确收敛至 \(p(\mathbf{x})\)。
-
步长选择与收敛性
- 步长 \(\epsilon\) 需权衡探索效率与精度:过大导致高拒绝率,过小则收敛慢。
- 理论保证:当 \(\epsilon \to 0\) 且迭代次数 \(T \to \infty\),MALA生成的样本依分布收敛至 \(p(\mathbf{x})\)。
- 实际中可采用自适应步长策略(如Adam优化器中的动量思想)加速收敛。
-
对比与优势
相比随机游走Metropolis算法,朗格文动力学利用梯度信息,使采样路径沿概率密度上升方向移动,减少随机游走的无效探索,特别适用于高维、多峰分布的高效采样。