在统计学里为什么标准差的计算里用N而不是N—1

急求答案
这是我们统计学的考试题目 所以不会是认为规定的 一定有答案的(要具体证出来哦)

我的Email:[email protected]
要快哦 我周2下午就考试了~~~

样本标准差用N-1算,因为一个样本容量为N的样本的自由度为N-1,当N比较大时使用N和N-1算出来结果基本是相等的。理论上N是算总体标准差的,对于总体来说N很大,甚至是无穷大,那么N≈N-1或者∞=∞-1,所以总体标准差使用N来计算。
其实,这个证明主要是证明S^2是σ^2的无偏数学期望,如果用n的话计算结果,S^2的数学期望与σ^2不相等,差一个校正因子,n/(n-1),具体过程由于百度不支持图片没法贴,需要的话,我可以发邮件给你。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2008-05-20
因为我们数理统计中有两种样本方差:
用到的分别是 n 与 n-1 ,对应的是有偏的和无偏的。我们常说的样本方差是指无偏的样本方差(如果用到有偏的,题目会说明),因此据样本方差而得出的样本标准差还是n-1。楼上确实说得对,至于我们为何规定采用n-1,建议你把介绍无偏性那段内容看看就了解了本回答被提问者采纳
第2个回答  2008-05-14
先计算出这n个数据的平均值,再用这n个数分别减去这个平均数得到n个数,这下的n个数分别平方后再加起来得到一个数,这个数除以n以后开平方就是这n个数的“标准差”。

就好像n个数求算术平均数一样,有n个数做运算,就应当除 N 阿,你为什么会想到N—1呢
第3个回答  2008-05-14
用反证法证明用N-1是错的即可!
直接用定义证明!~
第4个回答  2008-05-14
呵呵 人为规定的 其实你这样也可以
相似回答