论文写作中stata命令总结
五年级 记叙文 12717字 1231人浏览 王宏伟148

我常用到的stata 命令 (一)

--------------------------------------------------------------------------------

发布日期:2010/6/8 9:36:30 来源:[Cen论坛转载] 浏览:[3182] 评论:[0] 字体:大 中 小

作者: 产权界定 发表于CCER 论坛

最重要的两个命令莫过于help 和search 了。即使是经常使用stata 的人也很难,也没必要记住常用命令的每一个细节,更不用说那些不常用到的了。所以,在遇到困难又没有免费专家咨询时,使用stata 自带的帮助文件就是最佳选择。stata 的帮助文件十分详尽,面面俱到,这既是好处也是麻烦。当你看到长长的帮助文件时,是不是对迅速找到相关信息感到没有信心?

闲话不说了。help 和search 都是查找帮助文件的命令,它们之间的区别在于help 用于查找精确的命令名,而search 是模糊查找。如果你知道某个命令的名字,并且想知道它的具体使用方法,只须在stata 的命令行窗口中输入help 空格加上这个名字。回车后结果屏幕上就会显示出这个命令的帮助文件的全部内容。如果你想知道在stata 下做某个估计或某种计算,而不知道具体该如何实现,就需要用search 命令了。使用的方法和help 类似,只须把准确的命令名改成某个关键词。回车后结果窗口会给出所有和这个关键词相关的帮助文件名和链接列表。在列表中寻找最相关的内容,点击后在弹出的查看窗口中会给出相关的帮助文件。耐心寻找,反复实验,通常可以较快地找到你需要的内容。

下面该正式处理数据了。我的处理数据经验是最好能用stata 的do 文件编辑器记下你做过的工作。因为很少有一项实证研究能够一次完成,所以,当你下次继续工作时。能够重复前面的工作是非常重要的。有时因为一些细小的不同,你会发现无法复制原先的结果了。这时如果有记录下以往工作的do 文件将把你从地狱带到天堂。因为你不必一遍又一遍地试图重现做过的工作。在stata 窗口上部的工具栏中有个孤立的小按钮,把鼠标放上去会出现“bring do-file editor to front”,点击它就会出现do 文件编辑器。

为了使do 文件能够顺利工作,一般需要编辑do 文件的“头”和“尾”。这里给出我使用的“头”和“尾”。

capture clear (清空内存中的数据)

capture log close (关闭所有打开的日志文件)

set mem 128m (设置用于stata 使用的内存容量)

set more off (关闭more 选项。如果打开该选项,那么结果分屏输出,即一次只输出一屏结果。你按空格键后再输出下一屏,直到全部输完。如果关闭则中间不停,一次全部输出。)

set matsize 4000 (设置矩阵的最大阶数。我用的是不是太大了?)

cd D: (进入数据所在的盘符和文件夹。和dos 的命令行很相似。) log using (文件名).log,replace (打开日志文件,并更新。日志文件将记录下所有文件运行后给出的结果,如果你修改了文件内容,replace 选项可以将其更新为最近运行的结果。) use (文件名),clear (打开数据文件。)

(文件内容)

log close (关闭日志文件。)

exit,clear (退出并清空内存中的数据。)

这个do 文件的“头尾”并非我的发明,而是从沈明高老师那里学到的。版权归沈明高老师。 实证工作中往往接触的是原始数据。这些数据没有经过整理,有一些错漏和不统一的地方。比如,对某个变量的缺失观察值,有时会用点,有时会用-9,-99等来表示。回归时如果使

用这些观察,往往得出非常错误的结果。还有,在不同的数据文件中,相同变量有时使用的变量名不同,会给合并数据造成麻烦。因此,拿到原始数据后,往往需要根据需要重新生成新的数据库,并且只使用这个新库处理数据。这部分工作不难,但是非常基础。因为如果在这里你不够小心,后面的事情往往会白做。

假设你清楚地知道所需的变量,现在要做的是检查数据、生成必要的数据并形成数据库供将来使用。检查数据的重要命令包括codebook ,su ,ta ,des 和list 。其中,codebook 提供的信息最全面,缺点是不能使用if 条件限制范围,所以,有时还要用别的帮帮忙。su 空格加变量名报告相应变量的非缺失的观察个数,均值,标准差,最小值和最大值。ta 空格后面加一个(或两个)变量名是报告某个变量(或两个变量二维)的取值(不含缺失值)的频数,比率和按大小排列的累积比率。des 后面可以加任意个变量名,只要数据中有。它报告变量的存储的类型,显示的格式和标签。标签中一般记录这个变量的定义和单位。list 报告变量的观察值,可以用if 或in 来限制范围。所有这些命令都可以后面不加任何变量名,报告的结果是正在使用的数据库中的所有变量的相应信息。说起来苍白无力,打开stata 亲自实验一下吧。

顺带说点儿题外话。除了codebook 之外,上述统计类的命令都属于r 族命令(又称一般命令)。执行后都可以使用return list 报告储存在r ()中的统计结果。最典型的r 族命令当属summarize 。它会把样本量、均值、标准差、方差、最小值、最大值、总和等统计信息储存起来。你在执行su 之后,只需敲入return list就可以得到所有这些信息。其实,和一般命令的return 命令类似,估计命令(又称e 族命令)也有ereturn 命令,具有报告,储存信息的功能。在更复杂的编程中,比如对回归分解,计算一些程序中无法直接计算的统计量,这些功能更是必不可少。

检查数据时,先用codebook 看一下它的值域和单位。如果有-9,-99这样的取值,查一下问卷中对缺失值的记录方法。确定它们是缺失值后,改为用点记录。命令是replace (变量名)=. if (变量名)==-9。再看一下用点记录的缺失值有多少,作为选用变量的一个依据。

得到可用的数据后,我会给没有标签的变量加上注解。或者统一标签;或者统一变量的命名规则。更改变量名的命令是ren (原变量名)空格(新变量名)。定义标签的命令是label var (变量名)空格”(标签内容)”。整齐划一的变量名有助于记忆,简明的标签有助于明确变量的单位等信息。

如果你需要使用通过原始变量派生出的新变量,那么就需要了解gen ,egen 和replace 这三个命令。gen 和replace 常常在一起使用。它们的基本语法是gen (或replace) 空格(变量名)=(表达式)。二者的不同之处在于gen 是生成新变量,replace 是重新定义旧变量。

虚拟变量是我们常常需要用到的一类派生变量。如果你需要生成的虚拟变量个数不多,可以有两种方法生成。一种是简明方法:gen 空格(变量名)=((限制条件))[这外面的小括弧是命令需要的,里面的小括弧不是命令需要的,只是说明“限制条件”并非命令]。如果某个观察满足限制条件,那么它的这个虚拟变量取值为1,否则为0。另一种要麻烦一点。就是

gen (变量名)=1 if (取值为一限制条件)

replace (相同的变量名)=0 if (取值为零的限制条件)

两个方法貌似一样,但有一个小小的区别。如果限制条件中使用的变量都没有任何缺失值,那么两种方法的结果一样。如果有缺失值,第一种方法会把是缺失值的观察的虚拟变量都定义为0。而第二种方法可以将虚拟变量的取值分为三种,一是等于1,二是等于0,三是等于缺失值。这样就避免了把本来信息不明的观察错误地纳入到回归中去。下次再讲如何方便地生成成百上千个虚拟变量。

大量的虚拟变量往往是根据某个已知变量的取值生成的。比如,在某个回归中希望控制每个

观察所在的社区,即希望控制标记社区的虚拟变量。社区数目可能有成百上千个,如果用上次的所说的方法生成就需要重复成百上千次,这也太笨了。大量生成虚拟变量的命令如下; ta (变量名), gen((变量名))

第一个括号里的变量名是已知的变量,在上面的例子中是社区编码。后一个括号里的变量名是新生成的虚拟变量的共同前缀,后面跟数字表示不同的虚拟变量。如果我在这里填入d ,那么,上述命令就会新生成d1,d2,等等,直到所有社区都有一个虚拟变量。

在回归中控制社区变量,只需简单地放入这些变量即可。一个麻烦是虚拟变量太多,怎么简单地加入呢?一个办法是用省略符号,d*表示所有d 字母开头的变量,另一法是用破折号,d1-d150表示第一个到第150个社区虚拟变量(假设共有150个社区)。

还有一种方法可以在回归中直接控制虚拟变量,而无需真的去生成这些虚拟变量。使用命令areg 可以做到,它的语法是

areg (被解释变量) (解释变量), absorb(变量名)

absorb 选项后面的变量名和前面讲的命令中第一个变量名相同。在上面的例子中即为社区编码。回归的结果和在reg 中直接加入相应的虚拟变量相同。

生成变量的最后一招是egen 。egen 和gen 都用于生成新变量,但egen 的特点是它更强大的函数功能。gen 可以支持一些函数,egen 支持额外的函数。如果用gen 搞不定,就得用egen 想办法了。不过我比较懒,到现在为止只用用取平均、加和这些简单的函数。

有的时候数据情况复杂一些,往往生成所需变量不是非常直接,就需要多几个过程。曾经碰到原始数据中记录日期有些怪异的格式。比如,1991年10月23日被记录为19911023。我想使用它年份和月份,并生成虚拟变量。下面是我的做法:

gen yr=int(date)

gen mo=int((data-yr*10000)/100)

ta yr, gen( yd)

ta mo, gen( md)

假设你已经生成了所有需要的变量,现在最重要的就是保存好你的工作。使用的命令是save 空格(文件名),replace 。和前面介绍的一样,replace 选项将更新你对数据库的修改,所以一定要小心使用。最好另存一个新的数据库,如果把原始库改了又变不回去,就叫天不应叫地不灵了。

我常用到的stata 命令(二)

--------------------------------------------------------------------------------

发布日期:2010/6/8 9:52:29 来源:[Cen论坛转载] 浏览:[2065] 评论:[0] 字体:大 中 小

作者: 产权界定 发表于CCER 论坛

(续)

前面说的都是对单个数据库的简单操作,但有时我们需要改变数据的结构,或者抽取来自不同数据库的信息,因此需要更方便的命令。这一类命令中我用过的有:改变数据的纵横结构的命令reshape ,生成退化的数据库collapse ,合并数据库的命令append 和merge 。

纵列(longitudinal )数据通常包括同一个行为者(agent )在不同时期的观察,所以处理这类数据常常需要把数据库从宽表变成长表,或者相反。所谓宽表是以每个行为者为一个观察,不同时期的变量都记录在这个观察下,例如,行为者是厂商,时期有2000、2001年,变量是雇佣人数和所在城市,假设雇佣人数在不同时期不同,所在城市则不变。宽表记录的格式

是每个厂商是一个观察,没有时期变量,雇佣人数有两个变量,分别记录2000年和2001年的人数,所在城市只有一个变量。所谓长表是行为者和时期共同定义观察,在上面的例子中,每个厂商有两个观察,有时期变量,雇佣人数和所在城市都只有一个,它们和时期变量共同定义相应时期的变量取值。

在上面的例子下,把宽表变成长表的命令格式如下:

reshape long (雇佣人数的变量名), i((标记厂商的变量名)) j((标记时期的变量名)) 因为所在城市不随时期变化,所以在转换格式时不用放在reshape long后面,转换前后也不改变什么。相反地,如果把长表变成宽表则使用如下命令

reshape wide (雇佣人数的变量名), i((标记厂商的变量名)) j((标记时期的变量名)) 唯一的区别是long 换成了wide 。

collapse 的用处是计算某个数据库的一些统计量,再把它存为只含有这些统计量的数据库。用到这个命令的机会不多,我使用它是因为它可以计算中位数和从1到99的百分位数,这些统计量在常规的数据描述命令中没有。如果要计算中位数,其命令的语法如下 collapse (median) ((变量名)), by((变量名))

生成的新数据库中记录了第一个括号中的变量(可以是多个变量)的中位数。右面的by 选项是根据某个变量分组计算中位数,没有这个选项则计算全部样本的中位数。

合并数据库有两种方式,一种是增加观察,另一种是增加变量。第一种用append ,用在两个数据库的格式一样,但观察不一样,只需用append 空格using 空格(文件名)就可以狗尾续貂了。简单明了,不会有什么错。另一种就不同了,需要格外小心。如果两个数据库中包含共同的观察,但是变量不同,希望从一个数据库中提取一些变量到另一个数据库中用merge 。完整的命令如下:

use (文件名) [打开辅助数据库]

sort (变量名) [根据变量排序,这个变量是两个数据库共有的识别信息]

save (文件名), replace [保存辅助数据库]

use (文件名) [打开主数据库]

sort (变量名) [对相同的变量排序]

merge (变量名) using (文件名), keep((变量名))

[第一个变量名即为前面sort 后面的变量名,文件名是辅助数据库的名字,后面的变量名是希望提取的变量名]

ta _merge [显示_merge的取值情况。_merge等于1的观察是仅主库有的,等于2的是仅辅助库有的,等于3是两个库都有的。]

drop if _merge==2 [删除仅仅来自辅助库的观察]

drop merge [删除_merge]

save (文件名), replace [将合并后的文件保存,通常另存]

讲到这里似乎对于数据的生成和处理应该闭嘴了。大家可能更想听听估计、检验这些事情。但我并不想就此止住,因为实际中总是有一些简单套用命令无法轻易办到的特殊要求。此时至少有两条路可以通向罗马:一是找到更高级的命令一步到位;二是利用已知简单命令多绕几个圈子达到目的。

下面讲一个令我刻骨铭心的经历,这也是迄今我所碰到的生成新数据中最繁复的了。原始数据中包含了可以识别属于同一个家庭中所有个人的信息和家庭成员与户主关系的信息。目的是利用这些信息建立亲子关系。初步的构想是新数据库以子辈为观察,找到他们的父母,把父母的变量添加到每个观察上。我的做法如下:

use a1,clear [打开全部样本数据库]

keep if gender==2&agemos>=96&a8~=1&line<10

[保留已婚的一定年龄的女性]

replace a5=1 if a5==0

[变量a5标记和户主的关系。等于0是户主,等于1是户主的配偶。这里不加区分地将户主及其配偶放在一起。]

keep if a5==1|a5==3|a5==7

[保留是户主(=1),是户主的子女(=3),或是户主的儿媳(=7)的那些人。] ren h hf [将所需变量加上后缀f ,表示女性]

ren line lf [将所需变量加上后缀f ,表示女性]

sort wave hhid

save b1,replace [排序并保存]

keep if a5f==1 [留下其中是户主或户主配偶的]

save b2,replace [保存]

use b1,clear

keep if a5f==3|a5f==7

save b3,replace [留下其中是户主女儿或儿媳的并保存]

use a3,clear [打开与户主关系是户主子女的儿童数据库]

sort wave hhid

merge wave hhid using CHNS01b2, keep(hf lf)

ta _merge

drop if _merge==2

sort hhid line wave [处理两代户,将户主配偶女性库与儿童库合并]

by hhid line wave: egen x=count(id)

drop x _merge [计算每个年份家庭匹配的情况,x 只取值1,表明两代户匹配成功]

save b4,replace [保存]

use a4,clear [打开与户主关系是户主孙子女的儿童数据库] sort wave hhid

merge wave hhid using CHNS01b3, keep(a5f a8f schf a12f hf agemosf c8f lf)

ta _merge

drop if _merge==2 [处理三代户,将户主女儿或儿媳女性库与孙子女儿童库合并]

sort hhid line wave

by hhid line wave: egen x=count(id)

gen a=agemosf-agemos

drop if a<216&x==3 [计算每个年份家庭匹配的情况,x 不只取1,三代户匹配不完全成功。删除不合理的样本,标准是年龄差距和有三个可能母亲的那些家庭。] gen xx=x[_n+1]

gen xxx=x[_n-1]

gen y=lf if x==1

replace y=lf[_n+1] if x==2&xx==1

replace y=lf[_n-1] if x==2&xxx==1

keep if x==1|(lf==y&x==2)

[对于有两个可能母亲的儿童,有相同编码的女性出现两次的情况。上面的做法是为了保证不删除这部分样本。]

drop a x xx xxx y _merge

save b5,replace [保存合并后的数据库]

[对男性数据的合并完全类似,不赘述。]

log close

exit,clear

我的方法是属于使用简单命令反复迂回地达到目的那一类的,所以非常希望有更简便的方法来替代。不过做实证时往往不是非常追求程序的漂亮,常常也就得过且过了。曾经有人向我索要过上面的处理方法,因为一直杂事缠身,就没有回复。现在公开了,希望对需要的人能有所帮助,我也懒得再去一一答复了。

我常用到的stata 命令 (三)

--------------------------------------------------------------------------------

发布日期:2010/6/8 9:55:49 来源:[Cen论坛转载] 浏览:[4545] 评论:[0] 字体:大 中 小

作者: 产权界定 发表于CCER 论坛

(续)

stata 强大的功能体现在它可以方便地回归微观数据。而回归也是微观实证中最重要的方法。下面就开始讲stata 中和回归有关的常用命令。

基本回归方法有两种:线性设定下的最小二乘法(OLS )和两阶段最小二乘法(2SLS )。他们在实证分析中应用广泛,十分详细地掌握这两种方法是实证研究的基本要求。讲解的顺序是先依次介绍如何在stata 中实现OLS 和2SLS 估计,然后再分析如何在实际问题中选择合理的方法。后一部分受Joshua Angrist 教授的影响很大,因此,在后面引用他的思想时会详细注明。

假设你已经清楚地了解待估计方程的形式,那么回归命令的基本格式就十分简单明了: reg (被解释变量) (解释变量1) (解释变量2)„„

方程中的相应变量可以简单地放在reg 的后面。执行上面的命令后,stata 会出现两个表格,分别报告一些方差分析和回归的参数估计结果。我们最关心的是参数的大小和显著性,这在第二个表格中列出。表格的最左边一栏列出了解释变量,在它的右边是相应的系数估计值,然后依次是估计值的标准误,t 比率,原假设为系数的真实值等于零时错误地拒绝该假设的概率——p 值,以及该估计值的置信度为(1-5%)的置信区间。

我看到回归结果的第一眼是瞄着最关心的解释变量的符号、大小和显著性。看看解释变量影响的方向和大小是不是符合理论的预期,是不是合乎常识,以及这个估计值是不是显著。标记显著性的统计量是t 统计量,在经典假设下,它服从t 分布。t 分布和标准正态分布形状很相似,但它的“尾巴”要比标准正态分布的“肥”一些,在样本量比较小的时候尤其明显,当样本量趋于无穷时,t 分布的极限分布是标准正态分布。大家对标准正态分布的分布函数上一些关键点比较熟悉,比如,1.96是97.5%的关键点,1.64是95%的关键点,所以,我们希望知道什么时候可以安全地使用标准正态分布。下表列出了一些小自由度下二者的差异(Beyer 1987 “CRC Standard Mathematical Tables, 28th ed. ”;Goulden 1956 “Methods of Statistical Analysis, 2nd ed.”)。可以看出,自由度超过一百时,二者的差别就已经相当小了。所以,当样本量的数量级是100个或以上时,可以直接认为t 比率服从标准正态分布,并以此做检验。

90% 95% 97.5% 99.5%

1 3.07768 6.31375 12.7062 63.6567

2 1.88562 2.91999 4.30265 9.92484

3 1.63774 2.35336 3.18245 5.84091

4 1.53321 2.13185 2.77645 4.60409

5 1.47588 2.01505 2.57058 4.03214

10 1.37218 1.81246 2.22814 3.16927

30 1.31042 1.69726 2.04227 2.75000

100 1.29007 1.66023 1.98397 2.62589

1.28156 1.64487 1.95999 2.57588

读者读到这里可能会笑话我了,stata 不是已经报告了t 检验的p 值和置信区间了吗?为什么不直接察看这些结果呢?原因在于实证文献往往只报告参数的估计值和标准误,需要读者自己将估计值和标准误相除,计算显著性。而且当你在写实证文章时,也应该报告参数的估计值和标准误。这比报告估计值和它的p 值更规范。

伴随回归命令的一个重要命令是predict 。回归结束后,使用它可以得到和回归相关的一些关键统计量。语法如下:

predict (新变量名), (统计量名)

这里的统计量名是一些选项。常用的选项有:xb (回归的拟合值。这是默认选项,即不加任何选项时,predict 赋予新变量前一个回归的拟合值。);residuals (残差);leverage (杠杆值)。下面具一个例子来解释predict 的用法。

有时样本中的一个特别的观察值会显著地改变回归结果。这样的观察值可以笼统地分为三类:outliers ,leverage 和influence 。Outliers 是针对残差而言的,指那些回归中残差很大的观察;leverage 是针对解释变量而言的,是解释变量相对其平均值偏里很大的观察;influence 是针对估计结果而言的。如果去掉这个观察会明显地改变估计值,那么这个观察就是一个influence 。Influence 可以看作outliers 和leverage 共同作用的结果。异常观察可能是由于样本的特性,也可能是因为录入错误。总之,我们希望找到它们。

回归后的predict 命令可以发现这些异常观察(命令来自UCLA 的“Regression with Stata”第二章)。发现outliers ,leverage 和influence 的命令如下:

predict rs, rstudent

predict l, leverage

predict csd, cooksd

predict df, dfits

这些统计量都有相应的关键值。当统计量(或其绝对值)超过关键值时就应该仔细检查相应的观察,确认是否属于录入错误。rstudent 是用来发现outliers 的统计量,其关键值是2,2.5和3。leverage 是用来发现leverage 的统计量,其关键值是(2k+2)/n,其中k 解释变量的个数,n 是样本量。Cooksd 和DFITS 是探测influence 的统计量。它们都综合了残差和杠杆的信息,而且二者非常类似,只是单位不同,因而给出的结果也差不多。Cooksd 的关键值是4/n。DFITS 的关键值是2*sqrt(k/n)。

(续)

在使用最小二乘法估计时,两个通常被质疑的问题是数据是否存在多重共线性和异方差。 多重共线性是指解释变量之间的相关性。通常我们假设解释变量之间是相关的,而且允许解释变量存在相关性,并控制可以观察的因素正是OLS 的优点。如果把多重共线性看作一个需要解决的问题,那么需要把它解释为相关性“较大”。这样,变量之间没有相关性不好,相关性太大也不好,优劣的分割真是颇费琢磨。而且多重共线性并没有违反任何经典假定,所以,这个问题没有很好的定义。本质上讲,在样本给定时,多重共线性问题无法解决,或者

说它是一个伪问题。

先看一下为什么解释变量之间的相关性大会有问题。在OLS 回归的经典假设(除正态假设外)下,某个系数的OLS 估计值的总体方差与扰动项的方差成正比,与解释变量的总方差(一般地,我们视解释变量为随机变量)成反比,是该变量对其它解释变量回归的拟合优度的增函数。这个拟合优度可以理解为该变量的总变动中可以由其他解释变量解释的部分。当这个值趋近于1时,OLS 估计值的总体方差趋向于无穷大。总体方差大时,样本方差也大的概率就大,t 检验就会不准确。尽管多重共线性没有违背任何经典假设,但是OLS 方法有时无法准确估计一些参数。这个问题可以理解为数据提供的信息不足以精确地计算出某些系数。最根本的解决方法当然是搜集更大的样本。如果样本给定,也许我们应该修改提出的问题,使我们能够根据样本数据做出更精确的判断。去掉一个解释变量,或者合并一些解释变量可以减少多重共线性。不过要注意的是去掉相关的解释变量会使估计有偏。

实际操作时使用方差膨胀系数衡量解释变量的多重共线性。我们只需在回归之后使用vif 命令就可以得到方差膨胀系数。在命令行中敲入vif 并回车,stata 会报告一个包含所有解释变量的方差膨胀系数的表格,如果方差膨胀系数大于10,这个变量潜在地有多重共线性问题。 异方差是一个更值得关注的问题。首先简单地介绍一下异方差会带来哪些问题。第一、异方差不影响OLS 估计的无偏性和一致性。第二、异方差使估计值方差的估计有偏,所以此时的t 检验和置信区间无效。第三、F 统计量不再服从F 分布,LM 统计量不再服从渐进卡方分布,相应的检验无效。第四、异方差使OLS 不再是有效估计。总之,异方差影响推断是否有效,降低估计的效率,但对估计值的无偏性和一致性没有影响。

知道了异方差作用的原理,很自然地就有了对付它的办法。第一种方法是在不知道是否存在异方差时,通过调整相应的统计量纠正可能带来的偏差。OLS 中实现对异方差稳健的标准误很简便。相应的命令是在原来的回归命令后面加上robust 选项。如下:

reg (被解释变量) (解释变量1) (解释变量2)„„,robust

White (1980)证明了这种方法得到的标准误是渐进可用(asymptotically valid)的。这种方法的优点是简单,而且需要的信息少,在各种情况下都通用。缺点是损失了一些效率。 另一种方法是通过直接或间接的方法估计异方差的形式,并获得有效估计。典型的方法是WLS (加权最小二乘法)。WLS 是GLS (一般最小二乘法)的一种,也可以说在异方差情形下的GLS 就是WLS 。在WLS 下,我们设定扰动项的条件方差是某个解释变量子集的函数。之所以被称为加权最小二乘法,是因为这个估计最小化的是残差的加权平方和,而上述函数的倒数恰为其权重。

在stata 中实现WLS 的方法如下:

reg (被解释变量) (解释变量1) (解释变量2)„„ [aweight=变量名]

其中,aweight 后面的变量就是权重,是我们设定的函数。

一种经常的设定是假设扰动项的条件方差是所有解释变量的某个线性组合的指数函数。在stata 中也可以方便地实现:

首先做标准的OLS 回归,并得到残差项;

reg (被解释变量) (解释变量1) (解释变量2)„„

predict r, resid

生成新变量logusq ,并用它对所有解释变量做回归,得到这个回归的拟合值,再对这个拟合值求指数函数;

gen logusq=ln(r^2)

reg logusq (解释变量1) (解释变量2)„„

predict g, xb

gen h=exp(g)

最后以h 作为权重做WLS 回归;

reg (被解释变量) (解释变量1) (解释变量2)„„ [aweight=h]

如果我们确切地知道扰动项的协方差矩阵的形式,那么GLS 估计是最小方差线性无偏估计,是所有线性估计中最好的。显然它比OLS 更有效率。虽然GLS 有很多好处,但有一个致命弱点:就是一般而言我们不知道扰动项的协方差矩阵,因而无法保证结果的有效性。

到现在我们已经有了两种处理异方差的方法:一是使用对异方差稳健的标准误调整t 统计量,并以此作推断;另一种是设定异方差的形式,使用可行的GLS 得到有效估计。下面总结一下标准的OLS 估计同上述两种方法的优劣,并结合检验异方差的方法,给出处理异方差的一般步骤。