PGD
- 迫近梯度算法
- 非平滑函数的平滑优化,将一个非平滑函数,使用平滑函数袋贴
- proximal gradient descent 也可以说是 subgradient 的升级版,proximal 通过对原问题的拆分并利用 proximal mapping,能够解决 subgradient descent 无法解决的问题(如上面的一般化 lasso 问题)。
* PGD
- 目标函数前半部分为凸且连续可微,但后半部分为凸但不连续可微。因此,proximal算法就是用于求解目标函数形如
- 其中g(x)可微而h(x)不可微,形式无约束问题的下降算法。
* 直接使用次梯度,计算复杂度高
* Proximal Mapping
- 对于:
的目标函数
- 如果g(x)为连续可导的凸函数(导数为Lipschitz连续),而h(x)仅为凸函数,通过proximal mapping将函数映射为
转换为求prox函数的解
* 无约束问题:
- 无约束优化的PGD是
* 证明
- 如果ff为可微的凸函数,那么我们可以采用梯度下降算法更新梯度
- 对f(x)二阶泰勒展开,则梯度下降算法更新:
- 对于 PGD算法,保持 中的h(x)不动,仅对g(x)泰勒展开
* PGD 算法的梯度更新
* 常见无约束优化,pgd算法
*
退化为,普通的梯度算法
* 梯度投影
- x有约束,则
=
* 迭代软阈值
- 的时候,最小化问题变为无约束最小化
- 此时,PGD算法