由于解释变量多于LR中的观察值,SPSS如何排除变量

时间:2016-09-16 10:29:26

标签: regression linear-regression spss

我使用SPSS进行多次线性回归并每次应用不同的过滤器以比较不同的组。对于许多过滤器,我只用13个观察值拟合回归,但是15或24个解释变量。在这些情况下,SPSS将给我一个包含12个beta的模型,并将排除其余变量(我认为这主要是我认为)。

任何人都可以告诉我SPSS如何选择要排除的变量以及这些变量告诉我的变量'对依赖的影响(即贝塔是什么)?我原本以为我应该将这些变量视为零测试,但我不确定了。

提前感谢您的帮助!

拜托,没有任何评论只告诉我,对13个观察结果进行回归是非常愚蠢的。如果您有一些有用的见解,需要您首先指出13回归的回归不太理想,我很高兴听到您的声音。

1 个答案:

答案 0 :(得分:0)

当模型完全适合时,你很可能无法获得有用的结果和很少的观察结果。查看系数标准误差。你可能最好使用像偏最小二乘(PLS)这样的技术,它可以容纳比案例更多的变量。统计中的PLS可以通过扩展命令(Analyze> Regression> Partial Least Squares)获得,但是,它需要在Python Essentials之外安装一些额外的库,这些库通常与Statistics一起安装。如果您想要这样做,请参阅安装说明。

对于哪些变量将使用回归省略,选择完全是任意的,因为除非完全共线性,否则任何N个变量(包括常数项)将在N个案例中给出完美拟合。