高斯核支持向量机(RBF SVM)的原理与非线性分类过程
字数 1619 2025-10-29 11:31:55
高斯核支持向量机(RBF SVM)的原理与非线性分类过程
题目描述
高斯核支持向量机(Radial Basis Function SVM)是一种基于核方法的非线性分类器。它通过将低维空间中线性不可分的数据映射到高维特征空间,使其在该空间中线性可分,从而解决复杂的分类问题。题目要求理解RBF核函数的数学原理、核技巧的应用方式,以及模型训练和预测的完整过程。
解题过程
-
问题背景与核心思想
- 线性SVM只能处理线性可分数据,但现实问题中数据往往是非线性可分的(如同心圆分布)。
- RBF SVM的核心思想:通过非线性映射函数φ,将原始特征空间中的样本x映射到高维特征空间,使得在高维空间中存在一个超平面能够线性分割数据。
- 直接计算高维空间的内积〈φ(xᵢ), φ(xⱼ)〉计算成本高,因此使用核函数K(xᵢ, xⱼ) = exp(-γ||xᵢ - xⱼ||²)来隐式计算内积(核技巧)。
-
RBF核函数的数学原理
- 高斯核函数定义:\(K(x_i, x_j) = \exp\left(-\gamma \|x_i - x_j\|^2\right)\)
- γ(gamma)为核参数,控制单个样本对全局的影响范围(γ越大,模型越复杂)。
- 性质:
- 函数值随样本间距离增大而指数衰减,范围始终在(0,1]内。
- 对应一个无限维的特征空间映射,理论上可分离任何连续函数。
- 高斯核函数定义:\(K(x_i, x_j) = \exp\left(-\gamma \|x_i - x_j\|^2\right)\)
-
模型优化问题的重构
- 原始线性SVM的优化目标:
\[ \min_{w,b} \frac{1}{2}\|w\|^2 + C\sum_{i=1}^n \xi_i \]
约束条件:$ y_i(w^T x_i + b) \geq 1 - \xi_i, \xi_i \geq 0 $
- 使用核技巧后,将内积\(x_i^T x_j\)替换为\(K(x_i, x_j)\),得到对偶问题:
\[ \max_{\alpha} \sum_{i=1}^n \alpha_i - \frac{1}{2} \sum_{i,j} \alpha_i \alpha_j y_i y_j K(x_i, x_j) \]
约束条件:$ \sum_{i=1}^n \alpha_i y_i = 0, 0 \leq \alpha_i \leq C $
- 求解后决策函数变为:\(f(x) = \text{sign}\left( \sum_{i=1}^n \alpha_i y_i K(x_i, x) + b \right)\)
-
参数γ和C的作用
- γ(核宽度):
- γ较大时:核函数曲线陡峭,模型对局部数据敏感,易过拟合。
- γ较小时:核函数平缓,模型更全局化,易欠拟合。
- C(惩罚系数):
- C较大时:对误分类惩罚大,决策边界更复杂,可能过拟合。
- C较小时:允许更多误分类,边界更平滑,可能欠拟合。
- γ(核宽度):
-
训练与预测步骤
- 训练过程:
- 选择参数C和γ(通常通过网格搜索交叉验证)。
- 计算所有样本对的核矩阵\(K_{ij} = K(x_i, x_j)\)。
- 求解对偶问题得到支持向量(αᵢ > 0的样本)。
- 预测过程:
- 对新样本x,计算其与所有支持向量的核函数值。
- 根据决策函数加权求和:\(f(x) = \sum_{i \in SV} \alpha_i y_i K(x_i, x) + b\)
- 训练过程:
-
实例演示(二维非线性数据)
- 假设原始数据为同心圆分布,线性SVM无法分割。
- 使用RBF核后,数据被映射到高维空间,其中存在一个超平面可分离两类数据。
- 通过调整γ和C观察决策边界的变化:
- 当γ=0.1时:边界平滑,覆盖整体分布。
- 当γ=10时:边界出现复杂锯齿,可能过拟合噪声点。
关键点总结
- RBF核通过非线性映射将低维不可分问题转化为高维可分问题。
- 核技巧避免了显式高维计算,仅依赖核函数。
- 模型性能高度依赖γ和C的调参,需用交叉验证选择最优组合。