第二章一元线性回归分析思考与练习参考答案2.1一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0i=1,2,…,nVar(εi)=s2i=1,2,…,nCov(εi,εj)=0i≠ji,j=1,2,…,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi,εi)=0i=1,2,…,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0,s2)i=1,2,…,n2.2考虑过原点的线性回归模型Yi=β1Xi+εii=1,2,…,n误差εi(i=1,2,…,n)仍满足基本假定。求β1的最小二乘估计解:得:2.3证明(2.27式),Sei=0,SeiXi=0。Qe=∑i=1n(Yi−^Yi)2=∑i=1n(Yi−^β1Xi)2∂Qe∂^β1=−2∑i=1n(Yi−^β1Xi)Xi=0^β1=∑i=1n(XiYi)∑i=1n(Xi2)证明:其中:即:Sei=0,SeiXi=02.4回归方程E(Y)=β0+β1X的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。答:由于εi~N(0,s2)i=1,2,…,n所以Yi=β0+β1Xi+εi~N(β0+β1Xi,s2)最大似然函数:使得Ln(L)最大的^β0,^β1就是β0,β1的最大似然估计值。同时发现使得Ln(L)最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。值得注意的是:最大似然估计是在εi~N(0,s2)的假设下求得,最小二乘估计则不要求分布假设。niiiniXYYYQ121021))ˆ(ˆ(ˆ)(niiiniXYYYQ121021))ˆ(ˆ(ˆ)(L(β0,β1,σ2)=Πi=1nfi(Yi)=(2πσ2)−n/2exp{−12σ2∑i=1n[Yi−(β0+β1β0,Xi)]2}Ln{L(β0,β1,σ2)}=−n2ln(2πσ2)−12σ2∑i=1n[Yi−(β0+β1β0,Xi)]2所以在εi~N(0,s2)的条件下,参数β0,β1的最小二乘估计与最大似然估计等价。2.5证明^β0是β0的无偏估计。证明:E(^β0)=E(¯Y−^β1¯X)=E[1n∑i=1nYi−¯X∑i=1nXi−¯XLxxYi)=E[∑i=1n(1n−¯XXi−¯XLxx)Yi]=E[∑i=1n(1n−¯XXi−¯XLxx)(β0+β1Xi+εi)]=E[β0+∑i=1n(1n−¯XXi−¯XLxx)εi]=β0+∑i=1n(1n−¯XXi−¯XLxx)E(εi)=β02.6证明证明:Var(^β0)=Var[∑i=1n(1n−¯XXi−¯XLxx)Yi]=[∑i=1n(1n−¯XXi−¯XLxx)2Var(β0+β1Xi+εi)]=∑i=1n[(1n)2−2¯XXi−¯XnLxx+(¯XXi−¯XLxx)2]σ2=[1n+¯X2Lxx]σ22.7证明平方和分解公式:SST=SSE+SSR证明:Var(^β0)=(1n+¯X2∑i=1n(Xi−¯X)2)σ2=σ2(1n+¯X2Lxx)SST=∑i=1n(Yi−¯Y)2=∑i=1n[(Yi−^Yi)+(^Yi−¯Y)]2=∑i=1n(^Yi−¯Y)2+2∑i=1n(Yi−^Yi)(^Yi−¯Y)+∑i=1n(Yi−^Yi))2=∑i=1n(^...