来自http://docs.scipy.org/doc/scipy-0.15.1/reference/generated/scipy.stats.pearsonr.html
scipy.stats.pearsonr(x,y) 计算了检验非相关的Pearson相关系数和p值. ..。 P值大致表示不相关系统产生具有Pearson相关性的数据集的概率,至少与从这些数据集计算出来的数据集一样极端。P值并不完全可靠,但对于大于500的数据集可能是合理的。
scipy.stats.pearsonr(x, y)实现的非相关测试是什么?
尤其是,当Pearson相关系数的大小较大时,p值是否一定较小?(这就是我想知道非相关检验是什么,以及它的测试统计量是如何计算的原因)。
不管你是否知道在函数中实现了什么测试,你能告诉我一些常用的非相关测试吗?(只供我学习这门课)
谢谢。
发布于 2015-10-31 20:32:24
皮尔逊相关性列举了一些基于Pearson相关系数的假设检验实例。上的维基百科页面。
看看源代码,scipy.stats.pearsonr使用了一个基于学生t分布的近似:
if r is masked or abs(r) == 1.0:
prob = 0.
else:
t_squared = (df / ((1.0 - r) * (1.0 + r))) * r * r
prob = _betai(0.5*df, 0.5, df/(df + t_squared))
return r, prob在这里,_betai(0.5*df, 0.5, df/(df + t_squared))对学生t分布的累积分布函数进行评估。
P值是对x和y不相关的零假设的检验,即真实的总体相关系数为零。因此,接近于零的样本相关系数(即弱相关)往往会给出较大的p值,接近1或-1的系数(即强正/负相关)会给出较小的p-值。
https://stackoverflow.com/questions/33405715
复制相似问题