DataWhale-01-线性回归

线性回归的概念

1、线性回归的原理

线性回归的一般形式:

有数据集
\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right)\right\},其中,
x_{i}=\left(x_{i 1} ; x_{i 2} ; x_{i 3} ; \ldots ; x_{i d}\right), y_{i} \in R
其中n表示变量的数量,d表示每个变量的维度。

可以用以下函数来描述y和x之间的关系:
\begin{aligned} f(x) &=\theta_{0}+\theta_{1} x_{1}+\theta_{2} x_{2}+\ldots+\theta_{d} x_{d} \\ &=\sum_{i=0}^{d} \theta_{i} x_{i} \end{aligned}

2、线性回归损失函数、代价函数、目标函数
损失函数:Loss Function):度量单样本预测的错误程度,损失函数值越小,模型就越好。
代价函数:(Cost Function):度量全部样本集的平均误差。
目标函数:(Object Function):代价函数和正则化函数,最终要优化的函数。
3、优化方法(梯度下降法、牛顿法、拟牛顿法等)

4、线性回归的评估指标

5、sklearn参数详解

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容