Skip to content

Latest commit

 

History

History
executable file
·
214 lines (148 loc) · 9.17 KB

README.md

File metadata and controls

executable file
·
214 lines (148 loc) · 9.17 KB

CH12 统计学习方法总结

[TOC]

前言

章节目录

这一章的内容很简洁, 但是信息量很大.

  1. 适用问题
  2. 模型
  3. 学习策略
  4. 学习算法

导读

  • 这一章首先用一个表概括了十个方法,注意,这里是十个方法,而不是十个模型,书中脚注了其中EM算法比较特殊,是一个一般的方法,没有具体模型。 其余方法会对应生成模型或者判别模型。

  • 监督学习包括分类, 标注和回归。

  • 这一章有说明这本书章节划分,前半部分分类,后面两章标注,中间EM算法可以用于生成模型的非监督学习。

  • 本书中生成模型就两个,NB用于分类,HMM用于标注。

  • 关于概率模型与非概率模型,体会一下细节,尤其是既可以看作概率模型,又可看作非概率模型的情况。

统计学习方法

方法=模型+策略+算法

监督学习, 非监督学习, 强化学习都有这样的三要素.

这里回顾一下第一章的统计学习三要素:

  1. 模型
    1. 监督学习中, 模型就是所要学习的条件概率分布或者决策函数.
  2. 策略
    1. 统计学习的目标在于从假设空间中选取最优模型.
    2. 损失函数度量一次预测的好坏; 风险函数度量平均意义下模型预测的好坏.
    3. 经验风险最小化(ERM)与结构风险最小化(SRM)
    4. 经验风险或者结构风险是最优化的目标函数.
  3. 算法
    1. 统计学习基于训练数据集, 根据学习策略, 从假设空间中选择最优模型, 最后需要考虑用干什么样的计算方法求解最优模型.
    2. 统计学习问题转化为最优化问题.
      1. 有显式解析解, 对应的最优化问题比较简单
      2. 通常解析解不存在, 需要通过数值计算的方式求解.
    3. 算法需要解决的问题是如何找到全局最优解, 并且求解的过程非常高效.

不同视角

这本书的内容可以从多个角度进行划分

  1. 简单分类方法
    1. 感知机
    2. k近邻法
    3. 朴素贝叶斯法
    4. 决策树
  2. 复杂分类方法
    1. 逻辑斯谛回归模型
    2. 最大熵
    3. 支持向量机
    4. 提升方法
  3. 标注方法
    1. 隐马尔科夫模型
    2. 条件随机场

模型

分类问题与标注问题都可以认为是从输入空间到输出空间的映射。

他们可以写成条件概率分布$P(Y|X)$或者决策函数$Y=f(x)$的形式。

概率模型和非概率模型

对应概率模型非概率模型.

  1. 概率模型(由条件概率表示的模型)
    1. 朴素贝叶斯
    2. 隐马尔科夫模型
  2. 非概率模型(由决策函数表示的模型)
    1. 感知机
    2. k近邻
    3. 支持向量机
    4. 提升方法
  3. 概率模型和非概率模型
    1. 决策树
    2. 逻辑斯谛回归模型
    3. 最大熵模型
    4. 条件随机场

生成模型和判别模型

  1. 判别模型
    1. 直接学习条件概率分布$P(Y|X)$或者决策函数$Y=f(X)$的方法为判别方法,对应的模型为判别模型。
    2. 感知机,k近邻,决策树,逻辑斯谛回归模型,最大熵模型,支持向量机,提升方法,条件随机场
  2. 生成模型
    1. 先学习联合概率分布$P(X, Y)$,从而求得条件概率分布$P(Y|X)$的方法是生成方法,对应的模型是生成模型。
    2. 朴素贝叶斯,隐马尔科夫模型

线性模型和非线性模型

  1. 线性模型
    1. 感知机
  2. 对数线性模型
    1. 逻辑斯谛回归模型
    2. 最大熵模型
    3. 条件随机场
  3. 非线性模型
    1. k近邻
    2. 决策树
    3. 支持向量机(核函数)
    4. 提升方法

生成与判别, 分类与标注

这部分书中图12.1,可以参考CH11中引用的图来进一步理解。

判别 生成
分类 LR, ME NB
标注 CRF HMM

这个对应关系可以通过后面的概括总结表格进一步加深,LR和CRF对应, 其模型类型,学习策略,损失函数以及学习算法都是一样的,只是解决的问题有差异,LR解决分类问题, CRF解决标注问题。

NB和HMM也是一对(GD Pair),他们在模型类型,学习策略,学习算法都是一样的,注意这里损失函数写的有一定的差异,CRF的损失函数是对数似然损失,实际上书中CH06中的描述也是对数似然损失,在本章描述的逻辑斯谛损失是从间隔角度考虑的另外视角。

学习策略

损失函数

注意,书中这里描述的是,在二分类的监督问题中,后面会在这个基础上做推广。

  1. 合页损失

    线性支持向量机

    $max(0, 1- yf(x)) $

  2. 逻辑斯谛损失函数

    逻辑斯谛回归模型与最大熵模型

    $log(1+exp(-yf(x)))$

  3. 指数损失函数

    提升方法

    $exp(- yf(x))$

三种损失函数都是0-1损失函数的上界. loss

上面这个图有几点要注意:

  1. logistic loss,里面的对数是2
  2. 另外,这些函数在0右侧的部分,都是有值的。
  3. 分类问题的损失,实现二分类任务

这几个模型,用在分类问题上,可以有一种统一的表达来描述损失函数。这会引入经验风险最小化结构风险最小化

学习的策略是优化以下结构风险函数

$$ \min \limits_{f \in {H}} \frac {1}{N} \sum \limits^{N}_{i=1} L(y_i , f(x_i)) + \lambda J(f)$$

第一项为经验风险(经验损失),第二项为正则化项

正则化

提升方法没有显式的正则化项,可以通过early stop控制停止

二分类推广

  1. 推广到多分类
  2. 标注问题的条件随机场可以看成是分类问题的最大熵模型的推广,这个通过图模型来理解更好理解一点
  3. 概率模型的学习可以形式化为极大似然估计或贝叶斯估计的极大后验概率估计
  4. 决策树CH05的学习策略是正则化的极大似然估计,损失函数是对数损失函数,正则化项是决策树的复杂度。
  5. 逻辑斯谛回归模型与最大熵模型CH06,条件随机场的学习策略既可以看成是极大似然估计,又可以看成是极小化逻辑斯谛损失。 书中讲的是极大似然估计,这样方便对比LR和CRF。
  6. 朴素贝叶斯模型CH04,隐马尔科夫模型CH10的非监督学习也是极大似然估计或极大后验概率估计,但这时模型含有隐变量。

学习算法

  1. 朴素贝叶斯法CH04和隐马尔科夫模型CH10
  2. 感知机CH02,逻辑斯谛回归模型CH06,最大熵模型CH06,条件随机场CH11
  3. 支持向量机CH07
  4. 决策树CH05
  5. 提升方法CH08
  6. EM算法CH09
  7. NB和HMM的监督学习,最优解就是极大似然估计值,可以由概率计算公式直接计算。之前看NB其实就是计数查表,这种要有大的语料库进行统计,所谓学的多,就知道的多。
方法 适用问题 模型特点 模型类型 学习策略 学习的损失函数 学习算法
Peceptron 二类分类 分离超平面 判别模型 极小化误分点到超平面距离 误分点到超平面距离 SGD
KNN 多类分类, 回归 特征空间, 样本点 判别模型
NB 多类分类 生成模型 MLE, MAP 对数似然损失 概率计算公式, EM算法
DT 二类分类 判别模型 正则化的极大似然估计 对数似然损失 特征选择, 生成, 剪枝
LR Maxent 多类分类 判别模型
SVM 二类分类 判别模型
AdaBoost 二类分类 判别模型
EM 概率模型参数估计 含隐变量的概率模型
HMM 标注 观测序列与状态序列的联合概率分布模型 生成模型
CRF 标注 判别模型

TODO:更新上面的表

特征空间

⬆ top