第二周

Logistic Regression as a Neural Network

2-1 Binary Classification

基础的数学符号.png

第一讲说的比较简单, 简单的介绍了 input ouput 的概念

2-2 Logistic Regression 逻辑回归

逻辑回归是一种适用于二元分类的监督学习算法
逻辑回归的两个参数 w and b,w 为一个 nx 维矢量, b 为一个数
𝐺𝑖𝑣𝑒𝑛 𝑥 , 𝑦̂ = 𝑃(𝑦 = 1|𝑥), where 0 ≤ 𝑦̂ ≤ 1
Sigmoid function 是适用于 LR 算法的 逻辑函数

参考

  1. 简单说明LR

2-3 Logistic Regression: Cost Function

逻辑回归.png

这里面有两个测试算法准确度的函数
loss function: 简单就是说是预期的结果和真正的结果的比较函数,或者说单个训练样本的误差
cost function: 简单就是说 loss function 的一个平均值,或者说是针对整个训练集合的检测的误差

损失函数和成本函数.png

2-4 Gradient descent 梯度下降

梯度下降法(英语:Gradient descent)是一个一阶最优化算法,通常也称为最速下降法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法
下面是两种梯度下降的原理,是一样的,只不过在使用导数的符号上有所不同

梯度下降1.png

梯度下降2.png

参考

机器学习中的梯度下降法

2-5, 2-6 derivatives 导数

wiki

2-7 2-8 Computation graph 计算图

计算图正向传播 forward 表示了计算过程
反向传播可以计算导数, 以为每一步都只有一个新的参数加入到计算中 所以利用前一个值的变化就可以推出新加入的参数的导数
导数是有公式的, 其实我的理解就是 下面的参数对上面的参数的影响 就是导数

2-9 Logistic Regression Gradient Descent

一次导数推导.png

之后

讲了些 Python 处理数据的问题, Python 学习
写代码指导原则之一就是尽量不用 runloop, 两个向量相乘的时候 可以使用 numpy 的 dot
计算图的优点之一就是让我们的代码更清晰

知识点拾遗

激活函数 Activation Function

所谓激活函数,就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常见的激活函数包括Sigmoid、TanHyperbolic(tanh)、ReLu、 softplus以及softmax函数。这些函数有一个共同的特点那就是他们都是非线性的函数。

数据预处理

数据预处理

numpy 中的 broadcasting

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容