问题是这样的,假定对某物理量的测量误差从(-0.5,0.5)内均匀分布,欲使误差小于1%的概率达到95%,问至少要测量多

5个回答

  • 概率本来就是这样一个概念:当你进行很多次试验时,试验的结果会趋近于一个固定的数字.

    1、经验解释:你所说的计算机模拟指的是单个试验的误差概率,而在实际操作中,虽然每次试验都有误差,但是当试验的次数足够大时,误差可以忽略不计.因此尽可能多的增加试验次数本来就是减少误差的手段之一.

    2、逻辑解释:一次试验的误差虽然是在-0.5到0.5之间,投一枚硬币,出现正面的概率是0.5,但是当你投两次的时候,两次都出现正面的概率就是0.25,因为当你增加试验的次数的时候,可能的试验结果也会增加.即,投一枚时只有正反两种结果,但是投两枚时就有(正,正),(正,反),(反,正),(反,反)四种结果.试验次数越多,某种特定结果出现的概率就越小.

    3、理论补充:关于中心极限定理.

    因为不能输入数学符号,我用文字解释吧:

    假设进行N次独立试验,每次试验的结果(用X,Y,Z...表示)都服从同一概率分布(本题是均匀分布),那么当N无穷大时,结果的均值近似服从正态分布,因而可以求出其在某一分布区间上的概率.因为误差服从(-0.5,0.5)内的均匀分布,其均值(期望)为0,根据正态分布的特点(中间大两头小),误差会集中在均值,即0的附近.且当N增大时,分布就越集中,即在0附近的概率就越大.