0
点赞
收藏
分享

微信扫一扫

关于线性回归的描述,以下正确的有:


感想

线性回归是机器学习里面很经典的算法了,但是谈到一些理论假设,我想一般人可能弄不清楚,我也忽略了,看来简单的东西只是看似简单,很容易就变得很难。

problem


关于线性回归的描述,以下正确的有:


A  基本假设包括随机干扰项是均值为0,方差为1的标准正态分布


B  基本假设包括随机干扰项是均值为0的同方差正态分布


C  在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量


D  在违背基本假设时,模型不再可以估计


E  可以用DW检验残差是否存在序列相关性


F  多重共线性会使得参数估计值方差减小

答案:B C E

analysis


一元线性回归的基本假设有


1、随机误差项是一个期望值或平均值为0的随机变量; 


2、对于解释变量的所有观测值,随机误差项有相同的方差; 


3、随机误差项彼此不相关;


4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;


5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;


6、随机误差项服从正态分布


违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。 


当存在异方差时,普通最小二乘法估计存在以下问题: 参数估计值虽然是无偏的,但不是最小方差线性无偏估计。



杜宾-瓦特森(DW)检验,计量经济,统计分析中常用的一种检验序列一阶 自相关 最常用的方法。 


(说实话,DW本人不是很懂,不知道为什么出现了这么个新鲜词儿,机器学习学了这么久,我也只是在这道题目里面见到。)


所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。影响


(1)完全共线性下参数估计量不存在


(2)近似共线性下OLS估计量非有效


多重共线性使参数估计值的方差增大,1/(1-r2)为方差膨胀因子(Variance Inflation Factor, VIF)


(3)参数估计量经济含义不合理


(4)变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外


(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。

参考文献

[1].牛客网.https://www.nowcoder.com/questionTerminal/94d56244abed40bf92f58e60defb03f3



举报

相关推荐

0 条评论