逻辑回归


1. 逻辑回归的定义

  • 针对0-1型变量产生的问题,我们需要对回归模型改进

* 解释

* 针对因变量只可以取的问题,需要改进回归模型

第一方面

  • 因变量只取0-1两个离散变量,不适合直接应用回归模型
  • 回归模型:; 表示:自变量的条件下的平均值
  • 逻辑回归模型:变量, 表示自变量条件下,等于1的概率
  • 使用的概率来代替本身做因变量

第二方面

  • 对于0-1变量,回归函数应该限制在[0,1]区间的连续曲线,不能再使用直线;
  • 限制的曲线很多,这里选择logistic函数
  • (增函数)

2 广义线性模型

  • 指数簇->广义线性模型->符合指数簇分布的随机变量,都可以用广义线性模型GLM分析
  • 连接函数:不同指数簇分布的通过不同的连接函数改变:(连接函数,单调可导)

    1. 恒等连接函数::正态分布下的连接函数
    2. 对数:
    3. logit:;将预测值控制在0~1之间。

* 逻辑回归的本质

  • 逻辑回归的本质是线性回归(GLM模型下),只是特征到结果的映射中加入了一层函数映射
  • 将y的值通过logist函数规划到0~1之间,y的含义是:表示结果取1得概率

3. 逻辑回归定义

  • logist函数:

  • 对数几率:该事件发生的概率与该事件不发生的概率的比值

  • 通过连接函数,成立线性关系:

* 逻辑回归求解

=>

=>似然函数:

=>对数似然函数:

=>求导:

* 优化算法参数求解

  • 梯度下降:logistic参数迭代:

* 预测

  • 带入


碎碎念

  • 逻辑回归的目标函数:最大似然函数

进一步解释

* sigmoid函数

* 一个事件发生的几率:该事件发生和不发生的概率的比值

* 对数几率

* 损失函数

  • LR是分类模型,由条件概率分布表示,随机变量x取实数,随机变量Y取0-1,通过监督学习的方法来学习参数

* 扩充为向量

* 优化算法求解

  • 使用梯度下降或者牛顿法

* 学习后的模型


* 特点

  • LR模型:是该事件发生,即Y=1的对数几率,是输入x的线性函数。

* 目标函数:最大似然函数

* 希望的形状

* 损失函数采用最大似然

* 添加正则


继续解释

* 损失函数直接平方误差


多项逻辑回归


参考

逻辑回归定义

七种回归技术

results matching ""

    No results matching ""