第4章 逻辑回归

在之前的章节中,我们学习了如何线性回归建模。线性回归模型中,通过最小化误差函数,计算出权重和偏差。

但是这种方法的使用范围有很大的限制,只有那些结果是连续变量的问题可以使用线性回归。

但是,如果我们面对的是离散的变量呢?比如,一个特征的是否出现;是否是金色头发;就医者是否得病。

这些问题是本章要解决的问题。

线性回归的目标是基于一个连续方程预测一个值,而本章的目标是预测一个样本属于某个确定类的概率。

本章中,我们将会使用一个泛化的线性模型来解决回归问题。不同于之前的线性回归,我们这次的目标是解决一个分类问题,也就是将观察值贴上某个标签,或者是分入某个预先定义的类。

图4-1给我们展示了回归问题与分类问题的区别。第一幅图中(线性回归),当输入x连续变化的时候,y也是连续变化的。

但是,在第二幅图中就不一样了。不管输入x怎么变化,y只有两种可能性。左边部分数据趋向于0,右边部分数据趋向于1。

逻辑回归(logistic regression)的这个术语容易让人产生疑惑,明明要处理的是分类问题,为什么叫作回归?回归应该寻找一个连续值,而分类寻找的是离散值。

理解的关键就是,我们不仅仅是寻找一个表示类的离散值,我们还寻找表示属于该类可能性的连续值。

图4-1 回归与分类的区别

在我们开始学习Logistic函数之前,我们先复习一个它的逆函数Logit函数,Logit函数和Logistic函数息息相关,它们好多的性质是关联在一起的。 ...

Get TensorFlow构建机器学习项目 now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.