ADMM
http://joegaotao.github.io/cn/2014/02/admm
1.对偶上升(dual_ascent)
- 对于凸函数的优化问题,对偶上升法核心思想就是引入一个对偶变量,然后利用交替优化的思路,使得两者同时达到optimal。
- 一个凸函数的对偶函数其实就是原凸函数的一个下界,因此可以证明一个较好的性质:在强对偶性假设下,即最小化原凸函数(primal)等价于最大化对偶函数(dual),两者会同时达到optimal。这种转化可以将原来很多的参数约束条件变得少了很多,以利于做优化。
* 在强对偶性的假设下,primal和dual问题同时达到最优
- 若对偶函数g(y)可导,便可以利用梯度上升法,交替更新参数,使得同时收敛到最优
2. 对偶分解
- 虽然dual ascent方法有缺陷,要求有些严格,但是他有一个非常好的性质,当目标函数f是可分的(separable)时候(参数抑或feature可分),整个问题可以拆解成多个子参数问题,分块优化后汇集起来整体更新。这样非常有利于并行化处理
- 因此可以看到其实下面在迭代优化时, x-minimization步即可以拆分为多个子问题的并行优化,对偶变量更新不变这对于feature特别多时还是很有用的。
3. 增广lagrangians函数
4. ADMM
* 增广拉格朗日算法的扩展
http://blog.csdn.net/shanglianlm/article/details/46808793
* 缩放形式(scaled_form)
* 优化条件和停止条件
5. L1正则化
http://blog.csdn.net/shanglianlm/article/details/46805675