1.2. 线性和二次判别分析

校验者: @AnybodyHome @numpy @Loopy @N!no 翻译者: @FAME @N!no

线性判别分析(discriminant_analysis.LinearDiscriminantAnalysis)和二次判别分析(discriminant_analysis.QuadraticDiscriminantAnalysis)是两个经典的分类器。 正如他们名字所描述的那样,他们分别代表了线性决策平面和二次决策平面。

这些分类器十分具有吸引力,因为它们可以很容易计算得到闭式解(即解析解)。其本身具有多分类的特性,在实践中已经被证明很有效,而且无需调节超参数。

ldaqda

以上这些图像展示了线性判别分析以及二次判别分析的决策边界。其中,最后一行表明了线性判别分析只能学习线性边界, 而二次判别分析则可以学习二次边界,因此它相对而言更加灵活。

示例:

1.2.1. 使用线性判别分析来降维

discriminant_analysis.LinearDiscriminantAnalysis 通过把输入的数据投影到由最大化类间分离所组成的线性子空间,来执行有监督降维(详细的内容见下面的数学推导部分)。输出的维度必然会比原来的类别数量更少的。因此它总体而言是十分强大的降维方式,同样也仅仅在多分类环境下才能感觉到。

实现方式在 discriminant_analysis.LinearDiscriminantAnalysis.transform 中。关于维度的数量可以通过 n_components 参数来调节。 值得注意的是,这个参数不会对 discriminant_analysis.LinearDiscriminantAnalysis.fit 或者 discriminant_analysis.LinearDiscriminantAnalysis.predict 产生影响。

示例:

Comparison of LDA and PCA 2D projection of Iris dataset: 在 Iris 数据集对比 LDA 和 PCA 之间的降维差异

1.2.2. LDA 和 QDA 分类器的数学公式

LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类别 k 的相关分布P(X|y=k) 都可以通过贝叶斯定理所获得:

P(y=k | X) = \frac{P(X | y=k) P(y=k)}{P(X)} = \frac{P(X | y=k) P(y = k)}{ \sum_{l} P(X | y=l) \cdot P(y=l)}

我们选择最大化条件概率的类别 k

更具体地说,对于线性以及二次判别分析,P(X|y) 被建模成密度多变量高斯分布:

p(X | y=k) = \frac{1}{(2\pi)^n |\Sigma_k|^{1/2}}\exp\left(-\frac{1}{2} (X-\mu_k)^t \Sigma_k^{-1} (X-\mu_k)\right)

其中的 d 是特征的数量。

为了把该模型作为分类器使用,我们只需要从训练数据中估计出类的先验概率 P(y=k) (通过每个类 k 的实例的比例得到),类别均值 \mu_k (通过经验样本的类别均值得到),以及协方差矩阵(通过经验样本的类别协方差或者正则化的估计器 estimator 得到:见下面的 shrinkage 章节)。

在 LDA 中,每个类别的高斯分布共享相同的协方差矩阵:\Sigma_kfor all k。这导致了两者之间的线性决策面,这可以通过比较对数概率比\log[P(y=k | X) / P(y=l | X)] 看出来:

\log\left(\frac{P(y=k|X)}{P(y=l | X)}\right) = \log\big(\frac{P(X|y=k)P(y=k)}{P(X|y=l)P(y=l)}\big) = 0 \Leftrightarrow\\ {(\mu_k-\mu_l)}^t\Sigma^{-1} X = \frac{1}{2} (\mu_k^t \Sigma^{-1} \mu_k - \mu_l^t \Sigma^{-1} \mu_l) -\log\frac{P(y=k)}{p(y=l)}

在 QDA 情况中,没有关于高斯协方差矩阵 \Sigma_k 的假设,因此有了二次决策平面。更多细节见参考文献 [3]

注意:与高斯朴素贝叶斯的关系

如果在QDA模型中假设协方差矩阵是对角的,则输入被假设为在每个类中是条件独立的,所得的分类器等同于高斯朴素贝叶斯分类器 naive_bayes.GaussianNB

1.2.3. LDA 的降维数学公式

为了理解 LDA 在降维上的应用,从上面解释的 LDA 分类规则的几何重构开始是十分有用的。我们用 K 表示目标类别的总数。 由于在 LDA 中我们假设所有类别都有相同估计的协方差 \Sigma ,所以我们可重新调节数据从而让协方差相同。

X^* = D^{-1/2}U^t X\text{ with }\Sigma = UDU^t

在缩放之后对数据点进行分类相当于找到与欧几里得距离中的数据点最接近的估计类别均值 \mu^*_k。但是它也可以在投影到 K-1 个由所有类中的所有 \mu^*_k 生成的仿射子空间 H_K 之后完成。这也表明,LDA 分类器中存在一个利用线性投影到 K-1 个维度空间的降维工具。

通过投影到线性子空间 H_L 上,我们可以进一步将维数减少到一个选定的 L ,从而使投影后的 \mu^*_k 的方差最大化(实际上为了实现转换类均值 \mu^*_k,我们正在做某种形式的 PCA)。 这里的 L 对应于 discriminant_analysis.LinearDiscriminantAnalysis.transform 方法中使用的 n_components 参数。 详情参考参考文献 [3]

1.2.4. 收缩

收缩是一种在训练样本数量相比特征而言很小的情况下,提升的协方差矩阵预测准确性的工具。 在这种情景中,经验样本协方差是一个很差的预测器。收缩 LDA 可以通过设置 discriminant_analysis.LinearDiscriminantAnalysis 类的 shrinkage 参数为 ‘auto’ 来实现。这将根据 Ledoit 和 Wolf 引入的引理 [4],以解析的方式自动确定最佳收缩参数。值得注意的是,当前的收缩仅仅在solver参数为 lsqreigen 时才会起作用。

shrinkage 参数的值同样也可以手动被设置为 0-1 之间。特别地,0 值对应着没有收缩(这意味着经验协方差矩阵将会被使用),而 1 值则对应着完全使用收缩(意味着方差的对角矩阵将被当作协方差矩阵的估计)。将此参数设置为这两个极值之间的值将估计协方差矩阵的一个收缩版本。

shrinkage

1.2.5. 预估算法

默认的 solver 是 ‘svd’。它可以进行分类)以及转换,而且它不会依赖于协方差矩阵的计算结果。这在特征数量特别大的时候十分具有优势。然而,’svd’ 解决器无法与收缩同时使用。

‘lsqr’ 解决器则是一个高效的算法,它仅用于分类问题。它支持收缩。

‘eigen’ 解决器是基于类散度与类内离散率之间的优化。 它可以被用于分类以及转换,此外它还同时支持收缩。然而该解决方案需要计算协方差矩阵,因此它可能不适用于具有大量特征的情况。

示例:

参考资料:

  • 3(1,2) “The Elements of Statistical Learning”, Hastie T., Tibshirani R., Friedman J., Section 4.3, p.106-119, 2008.
  • [4] Ledoit O, Wolf M. Honey, I Shrunk the Sample Covariance Matrix. The Journal of Portfolio Management 30(4), 110-119, 2004.


Copyright © ibooker.org.cn 2019 all right reserved,由 ApacheCN 团队提供支持该文件修订时间: 2020-08-03 02:20:59

results matching ""

    No results matching ""

    results matching ""

      No results matching ""