第二章讲的是单变量线性回归。
线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。
首先是假设函数,这个是机器学习的核心,所有的算法都是为了求出一个合适的假设函数。
而为了高效率的求出假设函数,就引出了代价函数这个东西,代价函数的实质就是代价两个字,但预期值和实际值相差最小,就是代价函数最优,也就是假设函数最好的时候。
梯度下降算法是求代价函数最常用也最通用的方法。
因为之前学过线性代数和离散数学等科目,所以理解起来还是很容易的。
吴恩达机器学习——单变量线性回归
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 未经允许,不得擅自改动和转载 我们的第一个学习算法是线性回归算法。在这段视频中,你会看到这个算法的概况,更重要的是...
- 1. 模型表示 我们的第一个学习算法是线性回归算法。 让我们通过一个例子来开始:这个例子是预测住房价格的,我们要使...
- AI人工智能时代,机器学习,深度学习作为其核心,本文主要介绍机器学习的基础算法,以详细线介绍 线性回归算法 及其 ...