大师兄的应用回归分析学习笔记(四):多元线性回归(一)

大师兄的应用回归分析学习笔记(三):一元线性回归(二)
大师兄的应用回归分析学习笔记(五):多元线性回归(二)

一、多元线性回归模型

  • 在实际问题中,一元线性回归只不过是回归分析中的一种特例,通常是对影响某种现象的许多因素进行简化考虑的结果。
1. 多元线性回归模型的一般形式
  • 设随机变量y与一般变量x_1,x_2,...,x_p的线性回归模型为:y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + ... + \beta_p x_p + \epsilon
  • \beta_0,\beta_1,...,\beta_p是p个未知参数
  • \beta_0是回归常数
  • \beta_1,...,\beta_p是回归系数
  • y是被解释变量(因变量)
  • x_1,x_2,...,x_p是p个可以精准测量并控制的一般变量(解释变量、自变量)
  • p=1时,为一元线性回归模型;p>1时,为多元线性回归模型。
  • \epsilon为随机误差
  • 理论回归方程:E(y) = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + ... + \beta_p x_p
  • 假定\begin{cases} E(\epsilon)=0 \\ var(\epsilon) = \delta^2 \end{cases}
  • 回归设计矩阵:y = X\beta + \epsilon
  • X是一个n \times (p+1)阶矩阵
2. 多元线性回归模型的基本假定
  • 解释变量x_1,x_2,...,x_p是确定性变量,不是随机变量,且要求rank(X) = p+1 <n(自变量列之间不相关,样本量的个数大于解释变量的个数,X是以满轶矩阵)。
  • 随机误差项具有零均值和等方差(高斯-马儿柯夫条件),即假设观测值没有系统误差,且随机误差项在不同样本点之间是不相关的,并且有相同的精度。
  • y服从n维正态分布。
3. 多元线性回归方程的解释
  • 假设有\begin{cases} y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \epsilon\\ E(y) = \beta_0 + \beta_1 x_1 + \beta_2 x_2 \end{cases}
  • 加入x_2保持不变,则有\beta_1 = \frac{\delta E(y)}{\delta x_1}
  • 对一般情况下含有p个自变量的多元线性回归而言,每个回归系数\beta_1可解释为自变量x_1每增加一个单位,因变量y的平均增加幅度。

二、回归参数的估计

1. 回归参数的普通最小二乘估计
  • 最小二乘法,就是寻找参数\beta_0,\beta_1,\beta_2,...,\beta_p的估计值\hat\beta_0,\hat\beta_1,\hat\beta_2,...,\hat\beta_p,使离差平方和Q(\beta_0,\beta_1,\beta_2,...,\beta_p) = \sum^n_{i=1}(y_i - \beta_0 - \beta_1 x_{i1} - \beta_2 x_{i2} - ... - \beta_p x_{ip})^2达到极小。
  • \hat\beta_0,\hat\beta_1,\hat\beta_2,...,\hat\beta_p就称为回归参数\beta_0,\beta_1,\beta_2,...,\beta_p的最小二乘估计。
  • 经验回归方程:\hat y = \hat \beta_0 + \hat \beta_1 x_1 + \hat \beta_2 x_2 + ... + \hat \beta_p x_p
2. 回归值与残差
  • 在求出回归参数的最小二乘估计后,可以用经验回归方程计算因变量的回归值残差值
  • y_i(i=1,2,...,n)的回归拟合值:\hat y = \hat \beta_0 + \hat \beta_1 x_{i1} + \hat \beta_2 x_{i2} + ... + \hat \beta_p x_{ip}
  • 相应的,因变量向量y = (y_1,y_2,...,y_n)'的回归值:\hat y = X\hat \beta = (\hat y_1,\hat y_2,...,\hat y_n)
  • 误差项方差\delta^2的无偏估计为:\delta^2 = \frac{1}{n-p-1}SSE=\frac{1}{n-p-1}(e'e)= \frac{1}{n-p-1}\sum^n_{i=1}e^2_i
  • 如果用普通最小二乘法估计多元线性回归模型的未知参数,样本量必须不少于模型中参数的个数。
3. 回归参数的最大似然估计
  • 多元线性回归的最大似然与一元线性回归的最大似然估计的思想一致。
  • y = X\beta + \epsilon ~ \epsilon~N(0,\delta^2I_n)服从正态分布,y的概率分布为:\epsilon~N(X\beta,\delta^2I_n)
  • 似然函数为:L = (2\pi)^{-n/2}(\delta^2)^{-n/2}exp(-\frac{1}{2\delta^2}(y-X\beta)'(y-X\beta))
  • 其中的未知参数是\beta\delta^2
  • 最大似然估计就是选取使似然数L达到最大的\beta\delta^2
  • 在正态假定下,回归数\beta的最大似然估计与普通最小二乘估计完全相同,即\hat \beta = (X'X)^{-1}X'y
  • 误差项方差\delta^2的最大似然估计为:\hat \delta^2_L = \frac{1}{n}SSE =\frac{1}{n}(e'e)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容