Myself
Introduction
数学基础
微积分
概率
矩阵
最优化
凸集
凸优化基础
坐标下降算法
原始对偶内点法
无约束优化
一阶算法
梯度下降算法
信頼域
梯度投影法
共轭梯度法
Nesterov-涅斯捷罗夫
二阶算法
非平滑函数
次梯度法
PGD算法
ISTA
FISTA
约束优化
等式约束优化
不等式约束优化
罚函数法
增广largrangian法
ADMM
投影梯度法
对偶理论
对偶理论的补充
对偶理论碎碎念
随机梯度下降
正则化
线性回归
一元线性回归
广义线性模型
正则化
逻辑回归
LR的工程化
LR损失函数
softmax
最大熵模型
信息熵
最大熵算法
最大熵模型求解
最大熵和LR
最大熵优缺点
SVM
线性SVM
软间隔SVM
非线性SVM
SMO
SVM的优点缺点
svm碎碎念
决策树
决策树-算法
随机森林
集成方法
Boosting
adaboost
GBDT
Xboost
模型优化与特征
特征工程
特征工程例子
特征选择
模型优化
模型评估
模型评估碎碎念
机器学习理论
Powered by
GitBook
增广largrangian法
1. 增广Largrangian乘子法
* Lrgrangian法的不足:
只有约束是具有局部凸结构,对偶的无约束优化才有良好的定义
目标函数的收敛费时间,
* 罚函数:
收敛慢
数值的不稳定
* 解决方法,两种方法结合
2. 增广Largrangian法
2.1 等式约束
2.2 不等式约束
results matching "
"
No results matching "
"