一元,多元线形回归分析:一. 请分别叙述变量间统计关系与函数关系的区别,以及相关分析与回归分析的联系与区别。答:各自然现象或社会现象之间普遍存在着各种联系,根据这些联系的紧密程度不同,可将之分为函数关系与统计关系。一种情况下某变量Y能被其余的一类变量1,,nXXK完全决定,这时两者之间存在着完全的确定性关系,这种关系可以通过一个函数1(,,)nYf XXK表示。这样的确定性关系被称为函数关系。另一种情况下变量之间虽然存在紧密的联系,但并不能互相唯一确定,这种非确定性的紧密联系被称为统计关系。相关分析与回归分析都是研究两边统计关系的方法,在实际问题的处理中往往结合使用两者。两者的区别主要在于:1. 目标不同:相关分析主要用于刻画X,Y 两变量间的联系的密切程度,而回归分析除此之外,还关心对未观察Y值的预测与控制。 2. 角度不同:相关分析中X,Y两变量地位相同,因此假设两者都是随机变量;而回归分析中只将变量Y 作为主要研究对象,因而往往假设Y 是随机变量,而 X是非随机变量。二. 请叙述(一元)多元线性回归模型及其基本假设答: 1. 一元线性模型的基本形式是:i01iiy =+x +,其中01,称为回归系数,i 称为随机误差。其基本假设为: G-M假设:iij2E=00Cov=,ijij,(,)或者更强的正态性假设:i 独立同分布,21N:( 0,) 。 2.多元线性模型的基本假设是:0py=X+=,,TK,其中() 称为回归系数阵,1=,,TnK() 称为随机误差 . 其基本假设为: a. G-M假设:iij2E=00Cov=,ijij,(,)或者更强的正态性假设:i 独立同分布,21N:( 0,) 。 b.rank(X)=p+1