ML 教程 6 - 梯度下降法(三) 在线性回归中的具体形式

上一篇文章中,讲到了梯度下降法的公式,但是比较抽象,这篇文章将通过一个例子来讲解这个公式。

线性回归

这篇文章就介绍梯度下降法在线性回归上的应用。所谓回归就是指通过已知数据预测出结果数据,线性回归就是指已知数据和预测数据之间的关系是线性的,它们的假设函数通常有如下形式:

我们举个比较简单的例子,即

回忆第三篇文章中损失函数的公式如下

假如数据集中只有一组数据,那么损失函数可以被简化为

其中

梯度下降

在上一篇文章中,给出了梯度下降的一般公式

用在这篇文章中举的例子,就有如下形式:

下面我推导一遍求偏导的过程

推广到一般形式就是

其中,x 的上标 i 指的是 x 在数据集中的第几个,下标 j 指的是在某一组数据中,这是第几个因素,比如有一组数据是

那么 x1 就表示这是这三个因素中的第 1 个(注意下标是从 0 开始的)

小结

上文推导了梯度下降在线性回归中的具体形式,希望大家对梯度下降的公式有了更深的理解,当然,回归不止线性回归一种形式,还有逻辑回归等等,梯度下降的具体形式也不同,但是总的思想都是让参数减去导数,使参数不断接近最优解,使得损失函数最小。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容