核支持向量机(Kernel SVM)的数学推导与非线性分类过程
字数 1151 2025-11-04 11:59:17
核支持向量机(Kernel SVM)的数学推导与非线性分类过程
题目描述
核支持向量机(Kernel SVM)是支持向量机(SVM)在处理非线性可分数据时的扩展。其核心思想是通过核函数将原始低维空间中的样本映射到高维特征空间,使得在高维空间中数据线性可分,进而应用线性SVM进行分类。本题要求详细讲解核SVM的数学推导过程,包括从线性不可分问题引入核技巧、核函数的定义与性质、对偶问题的核化,以及最终非线性分类决策函数的形成。
解题过程
-
问题背景
- 线性SVM要求数据线性可分,但现实问题中许多数据集是非线性可分的(例如异或问题)。
- 核技巧通过非线性映射函数φ将输入空间样本x映射到高维特征空间φ(x),使得在特征空间中数据线性可分。
- 直接计算高维特征空间的内积φ(x_i)·φ(x_j)可能计算复杂,核函数K(x_i, x_j) = φ(x_i)·φ(x_j)避免了显式映射,仅通过原始空间计算等价结果。
-
核函数的引入
- 线性SVM的对偶问题最终依赖于样本间的内积x_i·x_j。核化即将内积替换为核函数:
原始对偶问题目标函数:
max L(α) = Σα_i - 1/2 ΣΣ α_i α_j y_i y_j (x_i·x_j)
核化后目标函数:
max L(α) = Σα_i - 1/2 ΣΣ α_i α_j y_i y_j K(x_i, x_j) - 常用核函数包括:
- 多项式核:K(x_i, x_j) = (x_i·x_j + c)^d
- 高斯核(RBF核):K(x_i, x_j) = exp(-γ||x_i - x_j||²)
- Sigmoid核:K(x_i, x_j) = tanh(κx_i·x_j + c)
- 线性SVM的对偶问题最终依赖于样本间的内积x_i·x_j。核化即将内积替换为核函数:
-
非线性分类决策函数
- 线性SVM的决策函数为f(x) = w·x + b,其中w = Σα_i y_i x_i。
- 核化后,w无法显式表示,但代入决策函数后仅依赖核函数:
f(x) = Σα_i y_i φ(x_i)·φ(x) + b = Σα_i y_i K(x_i, x) + b - 支持向量满足α_i > 0,决策时仅需计算测试样本与支持向量的核函数值。
-
求解步骤
- 步骤1:选择核函数K及超参数(如高斯核的γ)。
- 步骤2:求解核化对偶问题,得到拉格朗日乘子α。
- 步骤3:根据KKT条件求偏置b(选择0<α_i<C的支持向量计算b的平均值)。
- 步骤4:对新样本x预测标签:sign(Σα_i y_i K(x_i, x) + b)。
关键点
- 核函数需满足Mercer条件(半正定核矩阵)。
- 高斯核将数据映射到无限维空间,理论上总能线性可分,但需防止过拟合(通过调整超参数C和γ)。