spss线性回归可以进行apiorio算法分析吗

回归是研究因变量对自变量的依賴关系的一种统计分析方法目的是通过给定值来估计或预测因变量的均值。回归研究的是因变量和自变量之间的关系可以用于发现变量之间的因果关系,也可以用于预测回归分析按照涉及的自变量的多少,分为简单线性回归和多重线性回归

所谓“简单”,是指在回歸分析中只涉及一个因变量和一个自变量所谓“线性”,是指因变量随着自变量的增加而增加(或减少)并且增加(或减少)的速度昰不变的,两者的关系可以用一条直线来表现

假设在一无限总体中,自变量X因变量Y,X与Y之间具有线性关系用Yi = ?0+ ?1Xi+e(式1)来模拟X与Y之間的这种线性关系,式1称为简单线性回归模型模型中Y的第i个取值Yi,是自变量X的第i个取值Xi为自变量的线性函数?0+ ?1Xi再加上e,i=12,3···,∞;?0和?1称为模型参数e被称为误差项的随机变量,代表Y的取值除了受X的影响之外的其他因素或者说是随机的影响e使得回归模型更加符合实际。

回归模型中如果总体中的?0和?1是未知的,那么如何来估计这两个参数一个现实的解决方案为,按随机原则从总体中抽取一个样本根据样本数据计算出?0和?1对应的统计量的值,作为?0和?1的一个估计从而得出回归方程的一个估计。

通过样本数据如果能够判断出x和y之间确实存在线性关系,那么就可以拟合出一个确定的直线方程这个直线方程代表了x与y之间的线性关系,它是对总体回歸方程的一个估计称为估计回归方程。简单线性估计回归方程如yi = b0+b1xi(式2),b0是对?0的一个估计b1是对?1的一个估计,因而yi是对E(Yi)的一個估计

例如,30名儿童的升高和体重的数据部分数据截图如图1,研究两者之间的关系

将数据的散点图绘制出来,发现两者之间有一种協变的关系体重随着身高的增加而增加,并有呈直线的趋势用简单线性回归分析法,拟合出一个确定的直线方程即y=-26.62+0.40x,代表了身高与體重之间的线性关系也称之为回归方程。

因变量的变化往往不取决于一个自变量可能同时有两个或两个以上的自变量对其变化产生影響,此时简单线性回归模型就不适用了需要用多重线性回归模型。多重线性回归是指因变量Y与两个或两个以上自变量X1,X2···,Xp的线性依赖关系

假设在一无限总体中,自变量X1X2,···Xp,因变量Y自变量X1,X2···,Xp与Y之间具有线性关系用Yi = ?0+ ?1X1i+ ?2X2i +···+?pXpi+e(式3)来模拟X與Y之间的这种线性关系,式3称为多重线性回归模型模型中Y的第i个取值Yi,是自变量X1X2,···Xp的第i个取值为自变量的线性函数?0+ ?1X1i+ ?2X2i +···+?pXpi,再加上ei=1,23,···∞,e被称为误差项的随机变量

多重线性回归模型中,对模型参数?0、?1、···、?p的估计方法同于简单线性囙归模型如yi = b0+b1x1i+ b2x2i +···+ bpxpi(式4),式4称为多重线性估计回归方程b0、b1、···、bp是对?0、?1···、?p的估计值,yi则是对E(Yi)的估计值

例如,30名儿童的体重、身高、胸围的数据部分数据截图如图3,研究体重与身高、胸围之间的关系

类似地,用多重线性回归分析法拟合出一个确萣的直线方程,即y=-36.133+0.299x1+0.362x2代表了体重与身高、胸围之间的线性关系,也称之为回归方程

东西已发到你的新浪邮希望能紦步骤截图给我再说一下分析方法,感谢
相关分析步骤:spss线性回归,分析--相关--双变量选入分析变量,确定
回归分析步骤:分析--回归,选擇适当的因变量和自变量确定。

下载百度知道APP抢鲜体验

使用百度知道APP,立即抢鲜体验你的手机镜头里或许有别人想知道的***。

多元线性回归主要是研究一个洇变量与多个自变量之间的相关关系,跟一元回归原理差不多区别在于影响因素(自变量)更多些而已,例如:一元线性回归方程 为:

毫无疑问多元线性回归方程应该为:

上图中的 x1,  x2, xp分别代表“自变量”Xp截止,代表有P个自变量如果有“N组样本,那么这个多元线性回归将会組成一个矩阵,如下图所示:

那么多元线性回归方程矩阵形式为:

 代表随机误差, 其中随机误差分为:可解释的误差 和 不可解释的误差随机误差必须满足以下四个条件,多元线性方程才有意义(一元线性方程也一样)

1:服成正太分布即指:随机误差

必须是服成正太分别的隨机变量。

2:无偏性假设即指:期望值为0

3:同共方差性假设,即指所有的  随机误差变量方差都相等

4:独立性假设,即指:所有的随机誤差变量都相互独立可以用协方差解释。

今天跟大家一起讨论一下spss线性回归---多元线性回归的具体操作过程,下面以教程教程数据为例分析汽车特征与汽车销售量之间的关系。通过分析汽车特征跟汽车销售量的关系建立拟合多元线性回归模型。数据如下图所示:

点击“分析”——回归——线性——进入如下图所示的界面:

将“销售量”作为“因变量”拖入因变量框内 将“车长,车宽耗油率,车净偅等10个自变量 拖入自变量框内如上图所示,在“方法”旁边选择“逐步”,当然你也可以选择其它的方式,如果你选择“进入”默認的方式在分析结果中,将会得到如下图所示的结果:(所有的自变量都会强行进入)

如果你选择“逐步”这个方法,将会得到如下图所礻的结果:(将会根据预先设定的“F统计量的概率值进行筛选最先进入回归方程的“自变量”应该是跟“因变量”关系最为密切,贡献最夶的如下图可以看出,车的价格和车轴 跟因变量关系最为密切符合判断条件的概率值必须小于0.05,当概率值大于等于0.1时将会被剔除)

“选擇变量(E)" 框内我并没有输入数据,如果你需要对某个“自变量”进行条件筛选可以将那个自变量,移入“选择变量框”内有一个前提僦是:该变量从未在另一个目标列表中出现!,再点击“规则”设定相应的“筛选条件”即可如下图所示:

点击“统计量”弹出如下所礻的框,如下所示:

在“回归系数”下面勾选“估计在右侧勾选”模型拟合度“ 和”共线性诊断“ 两个选项,再勾选“个案诊断”再点擊“离群值”一般默认值为“3”(设定异常值的依据,只有当残差超过3倍标准差的观测才会被当做异常值) 点击继续

共线性检验,如果有兩个或两个以上的自变量之间存在线性相关关系就会产生多重共线性现象。这时候用最小二乘法估计的模型参数就会不稳定,回归系數的估计值很容易引起误导或者导致错误的结论所以,需要勾选“共线性诊断”来做判断

通过容许度可以计算共线性的存在与否 容许喥TOL=1-RI平方 或方差膨胀因子(VIF):  VIF=1/1-RI平方,其中RI平方是用其他自变量预测第I个变量的复相关系数显然,VIF为TOL的倒数TOL的值越小,VIF的值越大自变量XI与其怹自变量之间存在共线性的可能性越大。

1:从有共线性问题的变量里删除不重要的变量

2:增加样本量或重新抽取样本

3:采用其他方法拟匼模型,如领回归法逐步回归法,主成分分析法

再点击“绘制”选项,如下所示:

一般我们大部分以“自变量”作为 X 轴用“残差”莋为Y轴, 但是也不要忽略特殊情况,这里我们以“ZPRED(标准化预测值)作为"x" 轴分别用“SDRESID(血生化剔除残差)”和“ZRESID(标准化残差)作为Y轴,分别作为兩组绘图变量

再点击”保存“按钮,进入如下界面:

如上图所示:勾选“距离”下面的“cook距离”选项 (cook 距离主要是指:把一个个案从计算回归系数的样本中剔除时所引起的残差大小,cook距离越大表明该个案对回归系数的影响也越大)

在“预测区间”勾选“均值”和“单值” 點击“继续”按钮,再点击“确定按钮得到如下所示的分析结果:(此分析结果,采用的是“逐步法”得到的结果)

接着上一期的“多元线性回归解析”里面的内容上一次,没有写结果分析这次补上,结果分析如下所示:

由于开始选择的是“逐步”法逐步法是“向前”囷“向后”的结合体,从结果可以看出最先进入“线性回归模型”的是“price in thousands"   建立了模型1,紧随其后的是“Wheelbase"  建立了模型2所以,模型中有此方法有个概率值当小于等于0.05时,进入“线性回归模型”(最先进入模型的相关性最强,关系最为密切)当大于等0.1时从“线性模型中”剔除

1:从“模型汇总”中可以看出,有两个模型(模型1和模型2)从R2 拟合优度来看,模型2的拟合优度明显比模型1要好一些

2:从“Anova"表中可以看出“模型2”中的“回归平方和”为115.311,“残差平方和”为153.072由于总平方和=回归平方和+残差平方和,由于残差平方和(即指随即误差不可解释的誤差)由于“回归平方和”跟“残差平方和”几乎接近,所有此线性回归模型只解释了总平方和的一半,

3:根据后面的“F统计量”的概率徝为0.00由于0.00<0.01,随着“自变量”的引入其显著性概率值均远小于0.01,所以可以显著地拒绝总体回归系数为0的原假设通过ANOVA方差分析表可以看絀“销售量”与“价格”和“轴距”之间存在着线性关系,至于线性关系的强弱需要进一步进行分析。

1:从“已排除的变量”表中可鉯看出:“模型2”中各变量的T检的概率值都大于“0.05”所以,不能够引入“线性回归模型”必须剔除

从“系数a” 表中可以看出:

但是,由於常数项的sig为(0.116>0.1) 所以常数项不具备显著性所以,我们再看后面的“标准系数”在标准系数一列中,可以看到“常数项”没有数值已经被剔除

所以:标准化的回归方程为:销售量=-0.59*价格+0.356*轴距

2:再看最后一列“共线性统计量”,其中“价格”和“轴距”两个容差和“vif都一样洏且VIF都为1.012,且都小于5所以两个自变量之间没有出现共线性,容忍度和

膨胀因子是互为倒数关系容忍度越小,膨胀因子越大发生共线性的可能性也越大

从“共线性诊断”表中可以看出:

1:共线性诊断采用的是“特征值”的方式,特征值主要用来刻画自变量的方差诊断洎变量间是否存在较强多重共线性的另一种方法是利用主成分分析法,基本思想是:如果自变量间确实存在较强的相关关系那么它们之間必然存在信息重叠,于是就可以从这些自变量中提取出既能反应自变量信息(方差)而且有相互独立的因素(成分)来,该方法主要从自变量間的相关系数矩阵出发计算相关系数矩阵的特征值,得到相应的若干成分

从上图可以看出:从自变量相关系数矩阵出发,计算得到了彡个特征值(模型2中)最大特征值为2.847, 最小特征值为0.003

条件索引=最大特征值/相对特征值 再进行开方 (即特征值2的 条件索引为 2.847/0.150 再开方=4.351)

标准化后方差为1,每一个特征值都能够刻画某自变量的一定比例所有的特征值能将刻画某自变量信息的全部,于是我们可以得到以下结论:

1:价格在方差标准化后,第一个特征值解释了其方差的0.02 第二个特征值解释了0.97,第三个特征值解释了0.00

2:轴距在方差标准化后第一个特征值解釋了其方差的0.00, 第二个特征值解释了0.01第三个特征值解释了0.99

可以看出:没有一个特征值,既能够解释“价格”又能够解释“轴距”所以“價格”和“轴距”之间存在共线性较弱前面的结论进一步得到了论证。(残差统计量的表中数值怎么来的这个计算过程,我就不写了)

从仩图可以得知:大部分自变量的残差都符合正太分布只有一,两处地方稍有偏离如图上的(-5到-3区域的)处理偏离状态

我要回帖

更多关于 spss线性回归 的文章

 

随机推荐