在现代数学优化理论中,近端算子(Proximal Operators)、莫洛厄包络(Moreau Envelope)、子梯度方法(Subgradient Methods)、支持向量机(Support Vector Machines, SVM)以及稀疏优化(Sparse Optimization)等概念占据着核心地位。这些工具不仅在理论研究中具有重要意义,而且在机器学习、信号处理、统计学等应用领域展现出广泛的实用性。本文旨在深入讲解这些知识点,全面覆盖相关理论基础、性质、计算方法以及实际应用,通过一些的习题解答帮助读者巩固理解。
凸分析基础
在进入优化方法与近端算子的深入探讨之前,理解凸分析的基础知识至关重要。凸分析为优化问题的研究提供了坚实的理论基础。
¶凸集与凸函数
凸集:在实数向量空间
这意味着任意两点之间的线段完全包含在集合
凸函数:一个函数
这表示函数图像的线段不低于函数本身,凸函数具有“凹向上”的形状。
凸集与凸函数的性质:
- 局部最小即全局最小:在凸函数的定义域内,任何局部最小点都是全局最小点。
- 支持超平面:对于凸集和凸函数,可以在任意边界点处找到支持超平面,这在优化问题中用于构建对偶问题和分析最优性条件。
¶子梯度与次梯度
对于非光滑凸函数,传统的梯度概念不足以描述其变化。为此,引入了子梯度的概念。
子梯度(Subgradient):设
子梯度集合记作
子梯度可以被视为在不可微点处的所有可能的“斜率”或“支撑平面”的集合。具体来说,对于一个凸函数
这意味着,子梯度

- 可微点(
):在 时,函数光滑且导数为 ;在 时,导数为 。 - 不可微点(
):在 处,函数有一个尖点。此时,子梯度集合 包含所有介于 和 之间的值。也就是说,任何 满足 都是 在 处的子梯度。
次梯度(Subdifferential):子梯度集合
性质:
- 如果
在 处可微,则 仅包含梯度 。 - 子梯度集是凸集。
- 对于凸函数,子梯度的存在性:若
是凸函数且下半连续,则对于任意 在其定义域内, 非空。
优化问题的基本概念
优化问题通常形式化为:
其中,
凸优化的优点:
- 全局最优性:任何局部最优点都是全局最优点。
- 强对偶性:在满足一定条件下,原问题和对偶问题的最优值相等,便于问题求解。
- 丰富的算法:包括梯度下降、次梯度方法、内点法等高效算法。
近端算子(Proximal Operators)
近端算子是凸优化中的一个关键工具,尤其在处理非光滑项时发挥重要作用。它在优化算法中用于分解复杂问题,简化求解过程。
¶近端算子的定义
对于给定的函数
$$
\operatorname{prox}{f}(v) = \arg\min{x \in \mathbb{R}^n} \left( f(x) + \frac{1}{2} |x - v|_2^2 \right)
$$
其中,
解释:近端算子通过在目标函数
¶近端算子的性质
近端算子具有以下重要性质:
-
非扩张性(Non-expansiveness):对于任意
,有
$$
|\operatorname{prox}{f}(v) - \operatorname{prox}{f}(w)|_2 \leq |v - w|_2
$$
这意味着近端算子不会扩展两个点之间的距离。 -
单调性(Monotonicity):如果
是凸函数,则近端算子 是单调的。 -
与梯度算子的关系:当
是光滑函数时,近端算子与梯度算子存在紧密联系。例如,对于 $f(x) = \frac{1}{2} |x|2^2 \operatorname{prox}{f}(v) = \frac{v}{1 + 1}$。 -
可拆性(Separability):如果
是分量独立的,即 ,则近端算子也具有分量独立性:
$$
\operatorname{prox}_{f}(v)i = \operatorname{prox}{f_i}(v_i)
$$
常见的近端算子
¶ -范数的近端算子(软阈值算子)
对于 $f(x) = \lambda |x|1 = \lambda \sum{i=1}^n |x_i|
\operatorname{prox}_{\lambda |\cdot|_1}(v)i =
\operatorname{prox}{\lambda |\cdot|_1}(v) = \text{sign}(v) \cdot \max{ |v| - \lambda, 0 }
$$
其中,

图示说明:
- 红色曲线:表示软阈值算子
的输出。 - 蓝色虚线:表示恒等函数
。 - 灰色虚线:标示阈值
和 。
应用:在稀疏优化中,
¶指示函数的近端算子
设
其中
$$
\operatorname{prox}{f}(v) = P_C(v) = \arg\min{x \in C} |x - v|_2^2
$$
这表示将点
对于下面的图而言,也就是说:
- 点
在凸集内时,投影点即为 本身。 - 点
在凸集外时,投影点是 到 上的最近点。

应用:在约束优化中,投影算子用于确保迭代点满足特定约束。
¶平方范数的近端算子
对于 $f(x) = \frac{\lambda}{2} |x|2^2
\operatorname{prox}{f}(v) = \frac{v}{1 + \lambda}
$$
推导:
$$
\operatorname{prox}{f}(v) = \arg\min{x} \left( \frac{\lambda}{2} |x|_2^2 + \frac{1}{2} |x - v|_2^2 \right)
\lambda x + (x - v) = 0 \Rightarrow x = \frac{v}{1 + \lambda}
$$
平方范数的近端算子是一个线性缩放,将输入

¶更一般的近端算子
对于更一般的函数
注意:计算近端算子时,函数
莫洛厄包络(Moreau Envelope)
莫洛厄包络是近端算子的一个重要伴侣,提供了对非光滑函数的平滑化处理,使得优化问题更易处理。
¶莫洛厄包络的定义
对于闭合的凸函数
这实际上是在
¶莫洛厄包络的性质
¶与原函数的关系
- 相同的最小值:如果
取得最小值 $f^ x^ \widehat{f}(x^) = f(x^)$。 - 相同的最优解:最优解点
在 和 中相同。
证明:
设 $x^
f(x^) = \min_{y} f(y)
\widehat{f}(x^) = \min_{y} \left( f(y) + \frac{1}{2} |y - x*|_22 \right)
$$
由于 $x^
\widehat{f}(x^) \leq f(x^) + \frac{1}{2} |x^* - x*|_22 = f(x^*)
$$
另一方面,对于任意
$$
\widehat{f}(x^) \geq f(x^) + \frac{1}{2} |x^* - x*|_22 = f(x^*)
$$
因此,
$$
\widehat{f}(x^) = f(x^)
$$
即
¶平滑性
莫洛厄包络
推导:
由于
¶梯度与近端算子的关系
莫洛厄包络的梯度与近端算子之间存在如下关系:
这表明,莫洛厄包络的梯度可以通过近端算子直接计算得到。
证明:
设 $y = \operatorname{prox}{f}(x)
y = \arg\min{y} \left( f(y) + \frac{1}{2} |y - x|2^2 \right)
0 \in \partial f(y) + (y - x)
x - y \in \partial f(y)
\nabla \widehat{f}(x) = x - y = x - \operatorname{prox}{f}(x)
$$
应用:通过莫洛厄包络,可以将非光滑优化问题转化为光滑优化问题,利用梯度信息加速优化过程。
子梯度方法(Subgradient Methods)
子梯度方法是一类用于求解非光滑凸优化问题的迭代方法。尽管这些方法在收敛速度上不及光滑优化方法,但其适用范围更广,特别是在处理包含非光滑项的优化问题时表现突出。
¶子梯度的定义与性质
子梯度定义:
对于凸函数
子梯度集合记作
性质:
- 子梯度存在性:若
是闭合的凸函数且 是 的内部点,则 非空。 - 凸性:子梯度集
是凸集。 - 连续性:如果
是凸且下半连续,则子梯度集随着 的变化而变化,存在连续性性质。
¶子梯度下降法
子梯度下降法是一种基础的迭代优化方法,适用于非光滑凸优化问题。
算法描述:
给定初始点
其中,
收敛性分析:
-
步长选择:步长序列
的选择对算法的收敛性至关重要。常见的选择包括: - 固定步长:
。 - 随机步长:
随 逐渐减小,例如 。
- 固定步长:
-
收敛性条件:
- 若
且 ,则子梯度下降法保证收敛至最优值。 - 对于特定的步长选择,如
,可以保证收敛性。
- 若
-
收敛速度:
子梯度方法的收敛速度通常较慢,尤其是在非光滑情况下。理论上,误差的上界为
,其中 是迭代次数。
应用:适用于求解包含非光滑项的凸优化问题,如支持向量机、LASSO 等。
支持向量机(Support Vector Machines, SVM)
支持向量机是一种广泛应用于分类问题的监督学习模型。其目标是寻找一个最优的分类超平面,最大化不同类别样本之间的间隔,以提升模型的泛化能力。
¶支持向量机的基本概念
基本思想:在特征空间中,支持向量机通过构建一个超平面将不同类别的样本分开,并尽可能地最大化分类间隔(即距离最接近的样本点的最小距离)。
线性支持向量机:对于线性可分的数据集,支持向量机寻找一个线性超平面,使得不同类别样本点位于超平面的两侧,并最大化到最近样本点的距离。
¶SVM的优化问题
在实际应用中,数据往往是不可完全线性可分的,因此引入了松弛变量和正则化项。支持向量机的优化问题可以表示为:
其中:
是第 个样本的特征向量。 是第 个样本的类别标签。 是正则化参数,控制模型的复杂度。
目标函数解析:
- 第一项
是铰链损失(Hinge Loss),用于衡量分类误差。 - 第二项
是正则化项,防止模型过拟合,提升泛化能力。
¶SVM的子梯度计算
对于非光滑的铰链损失,传统的梯度方法无法直接应用。因此,使用子梯度方法求解。
子梯度的构造:
对于每个样本
$$
\partial f_i(w) = \begin{cases}
0 & \text{如果 } y_i x_i^\top w > 1, \
- y_i x_i & \text{如果 } y_i x_i^\top w < 1, \
\text{任意在 } {- y_i x_i} \cup {0} & \text{如果 } y_i x_i^\top w = 1.
\end{cases}
$$
因此,整体目标函数
具体构造子梯度
其中,
$$
g_i = \begin{cases}
0 & \text{如果 } y_i x_i^\top w > 1, \
- y_i x_i & \text{否则}.
\end{cases}
$$
解释:只有当样本
稀疏优化与LASSO
稀疏优化旨在寻找参数中大部分为零的解,这在高维数据分析中具有重要意义,如特征选择、模型简化等。LASSO(Least Absolute Shrinkage and Selection Operator)是一种经典的稀疏优化方法。
¶稀疏优化的背景与意义
在高维数据中,参数维度可能远大于样本数量(即
- 选择重要特征:保留对模型预测最重要的特征,去除冗余或无关特征。
- 提高模型可解释性:简化模型结构,使得模型更易于理解和解释。
- 降低计算复杂度:减少非零参数的数量,提升计算效率。
¶LASSO优化问题
LASSO 的优化问题定义为:
其中:
是观测矩阵。 是观测向量。 是正则化参数,控制稀疏性程度。
目标函数解析:
- 第一项
是平方损失,衡量模型的拟合误差。 - 第二项
是 -范数正则化项,促进解的稀疏性。
¶LASSO的几何解释
LASSO 的几何解释源于
图示:
-范数:等高线为圆形。 -范数:等高线为菱形。
¶LASSO的解的性质
LASSO 的解具有以下性质:
- 稀疏性:随着
的增大,解中非零元素的数量减少。 - 唯一性:在一定条件下,LASSO 的解是唯一的,尤其当观测矩阵
满足某些条件(如强凸性)时。 - 稳定性:LASSO 解对数据噪声具有一定的鲁棒性,尤其在高噪声环境下表现优异。
应用:LASSO 广泛应用于特征选择、信号恢复、基因数据分析等领域。
优化算法
在处理复杂的优化问题时,选择合适的优化算法至关重要。以下介绍两种常用的优化算法:前向-后向方法和加速的前向-后向方法。
¶前向-后向方法(Forward-Backward Method)
前向-后向方法(也称为 Proximal Gradient Method)适用于优化目标函数由光滑部分和非光滑部分组成的情形。其基本思想是将优化问题分解为两个部分,分别处理。
优化问题形式:
其中,
算法描述:
给定初始点
其中,
步骤解析:
- 前向步骤:进行梯度下降,计算
。 - 后向步骤:应用近端算子 $\operatorname{prox}{\alpha g}
x{k+1}$。
收敛性分析:
- 步长要求:步长
需满足 ,其中 是 的 Lipschitz 常数。 - 收敛速度:在满足条件下,前向-后向方法的收敛速度为
,其中 是迭代次数。
应用:前向-后向方法广泛应用于稀疏优化问题,如 LASSO,支持向量机等。
¶加速的前向-后向方法(Accelerated Forward-Backward Method)
加速的前向-后向方法通过引入动量项,提高算法的收敛速度,特别适用于大规模优化问题。
算法描述:
给定初始点
步骤解析:
- 计算动量系数:更新动量参数
和 。 - 动量步骤:计算动量点
,结合当前和上一个迭代点。 - 前向步骤:在动量点
处进行梯度下降,得到临时点。 - 后向步骤:应用近端算子,更新迭代点
。
收敛性分析:
- 步长要求:步长
同样需满足 ,其中 是 的 Lipschitz 常数。 - 收敛速度:加速的前向-后向方法的收敛速度为
,显著优于普通前向-后向方法。
应用:适用于需要快速收敛的大规模稀疏优化问题,如大规模 LASSO、图像去噪等。
习题与详解
本节提供了四个综合性的习题,涵盖了近端算子、莫洛厄包络、子梯度方法、支持向量机和稀疏优化等知识点。每个习题后附有详尽的解答,帮助读者巩固所学内容。
¶习题1 - 计算近端算子
题目:
计算以下函数的近端算子
(a)
(b) 指示函数的
©
¶解答
¶(a) -范数的近端算子
目标:计算
解析:
近端算子的定义为:
$$
\operatorname{prox}{f}(v) = \arg\min{x} \left( |x|_1 + \frac{1}{2} |x - v|_2^2 \right)
$$
由于
分量优化:
对于每个
这是一个典型的软阈值问题,其解为:
¶(b) 指示函数的 -球的近端算子
目标:计算 $\operatorname{prox}{f}(v)
f(x) = \begin{cases}
0 & \text{如果 } |x|\infty \leq 1, \
+\infty & \text{否则}.
\end{cases}
$$
解析:
指示函数的近端算子即为集合
在
结论:
¶© -范数立方的近端算子
目标:计算
$$
f(x) = \alpha |x|3^3 = \alpha \sum{i=1}^{n} |x_i|^3
$$
解析:
近端算子的定义为:
$$
\operatorname{prox}{f}(v) = \arg\min{x} \left( \alpha |x|_3^3 + \frac{1}{2} |x - v|_2^2 \right)
$$
同样,由于
对于每个分量
设
对
这是一个一元三次方程,通常没有解析解。需要使用数值方法(如牛顿法)进行求解。
结论:
对于 $f(x) = \alpha |x|3^3
¶习题2 - 莫洛厄包络的性质
题目:
给定任意闭合的凸函数
$$
\widehat{f}(x) = \min_{y \in \mathbb{R}^d} \left( f(y) + \frac{1}{2} |y - x|2^2 \right)
$$
且 $\operatorname{prox}{f}(x)
(a) 证明
(b) 证明
© 证明
(d) 证明
¶解答
¶(a) 证明 和 具有相同的最小值,并且它们的最优解相同
目标:证明
解析:
设 $x^
f(x^) = \min_{y} f(y)
\widehat{f}(x^) = \min_{y} \left( f(y) + \frac{1}{2} |y - x*|_22 \right)
$$
由于 $x^
\widehat{f}(x^) \leq f(x^) + \frac{1}{2} |x^* - x*|_22 = f(x^*)
$$
另一方面,对于任意
$$
\widehat{f}(x^) \geq f(x^) + \frac{1}{2} |x^* - x*|_22 = f(x^*)
$$
因此,
$$
\widehat{f}(x^) = f(x^)
$$
即
结论:
¶(b) 证明 是凸且处处有界的
目标:证明
解析:
-
凸性:
莫洛厄包络
是凸函数。具体地,设 是凸函数,则 是关于 的凸函数,因此 是两个凸函数的最小值,继而也是凸函数。 -
有界性:
对于任意
,有:
由于是闭合的,且存在最优解 ,因此 是有限的。
结论:
¶© 证明 对 是连续的
目标:证明
解析:
根据近端算子的非扩张性性质,对任意
$$
|\operatorname{prox}{f}(x) - \operatorname{prox}{f}(y)|_2 \leq |x - y|_2
$$
这表明近端算子是 Lipschitz 连续的,因而也是连续的。
结论:
¶(d) 证明 ,从而 是连续可微的
目标:证明
解析:
设
由于
即:
因此,
这意味着,莫洛厄包络
结论:
且
¶习题3 - 前向-后向方法并非总是最佳选择
题目:
考虑一组观测数据 ${(x_i, y_i)}{i=1}^n
\min{w \in \mathbb{R}^d} f(w) = \sum_{i=1}^n \max{0, 1 - y_i x_i^\top w} + \frac{\lambda}{2} |w|_2^2
$$`
(a) 对任意
其中,
$$
g_i = \begin{cases}
0 & \text{如果 } y_i x_i^\top w > 1, \
- y_i x_i & \text{否则}.
\end{cases}
$$
(b) 相较于简单的子梯度计算,论证计算的难度与解决另一个支持向量机问题相当。
¶解答
¶(a) 构造 的子梯度
目标:证明
解析:
考虑
对于每个
根据
$$
\partial f_i(w) = \begin{cases}
0 & \text{如果 } y_i x_i^\top w > 1, \
- y_i x_i & \text{如果 } y_i x_i^\top w < 1, \
\text{任意在 } {- y_i x_i} \cup {0} & \text{如果 } y_i x_i^\top w = 1.
\end{cases}
$$
由于是各 的和加上正则化项 $\frac{\lambda}{2} |w|2^2 $
\partial f(w) = \sum{i=1}^n \partial f_i(w) + \lambda w
$$
选取,其中 如题所定义,则 。
结论:
¶(b) 论证 的计算难度
目标:论证计算
解析:
计算 $\operatorname{prox}{\alpha f}(0)
\operatorname{prox}{\alpha f}(0) = \arg\min_{w} \left( f(w) + \frac{1}{2\alpha} |w|2^2 \right)
\operatorname{prox}{\alpha f}(0) = \arg\min_{w} \left( \sum_{i=1}^n \max{0, 1 - y_i x_i^\top w} + \frac{\lambda}{2} |w|_2^2 + \frac{1}{2\alpha} |w|_2^2 \right)
\left( \frac{\lambda}{2} + \frac{1}{2\alpha} \right) |w|2^2 = \frac{\lambda + \frac{1}{\alpha}}{2} |w|2^2
\min{w} \sum{i=1}^n \max{0, 1 - y_i x_i^\top w} + \frac{\lambda + \frac{1}{\alpha}}{2} |w|_2^2
$$
这与原始的支持向量机优化问题形式相同,只是正则化参数由
结论:
计算
总结
本教材深入探讨了近端算子、莫洛厄包络、子梯度方法、支持向量机以及稀疏优化等核心概念,详细讲解了它们的定义、性质、计算方法以及应用。通过具体的优化算法(如前向-后向方法和加速的前向-后向方法)和实际的编程实现,读者不仅能够理解理论,还能掌握实际应用技能。通过习题的详尽解答,读者可以进一步巩固所学内容,提升解决实际优化问题的能力。希望本教材能为读者在优化理论与应用领域的学习和研究提供有力支持。
- 本文标题:近端算子
- 本文作者:Chen Kai
- 创建时间:2023-09-23 18:30:00
- 本文链接:https://www.chenk.top/近端算子/
- 版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!