当遗漏重要变量时wls优于ols吗

如题所述

经典回归模型必须包含以下几个经典假设条件:1.模型设定是线性的2.解释变量是确定性变量3.随机误差项的均值是零4.随机误差项同方差5.随机误差项各项之间无序列相关6.解释变量与随机误差项不相关7.随机误差项服从正态分布上述几个假设条件是为了能够进行无偏有效线性的最小二乘法的估计(BLUE),也是为了后面模型检验的顺利进行(例如T test,F test)。如果违背了上述其中之一的假设条件,就不是经典的线性回归模型,这样的模型用OLS来估计往往失效,就得用一些方法进行修正或者用其他方法来估计参数。。。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2017-06-26
最小二乘法是加权最小二乘法的特例。
使用最小二乘法需要一些前提,数据大多数时候是满足这些条件的。但有时候这些条件是不能满足的,这时需要对原始数据作适当变换,让他符合最小二乘法的使用条件,然后继续使用最小二乘法。
从整体上看,在处理数据前作的处理相当于在数据上加权,这个时候就把整个处理过程(包括数据事前的变换以及后来运用最小二乘法)看作加了权的最小二乘法。从这个意义上讲,加权最小二乘法就是最小二乘法。
相似回答