Главная
>
Дифференцирование и интегрирование по аргументу 9.1.20. Частный случай нормального закона распределения. Очень важным является частный случай, когда теоретическим законом р(,х), с которым сравнивается экспериментальный закон д{х), является нормальный закон распределения Совмещаем математические ожидания обоих законов распределения: х = Х = 0. Берем Будем иметь последовательно о2=л:2. откуда для коэффициентов получим 3 = - б * а4 = (х4-3а4), 5 = (л:5-10а2л;3), Положим, с другой стороны, ау = х. Нормальный закон приобретает Вычислим последовательные производные: р (у) = --(у2-1)е 2, У 2л р( >(у) = -(-1) Я (у)Г2. где Н(у) означает полином Эрмита к-го порядка (см. п. 7.8.2). Разложение д{х) принимает вид д(х)е- a/27t 1 +S(-i)-4f, г = 3 Р4 = -3. Рб= т. д. Это выражение называется рядом Грама - Шарлье. Можно производить вычислен.я и прямым способом, пользуясь свойством ортогональности полиномов Эрмита. Пусть Мы видели, что если р(Чу) = -(-1Уя,(у)е 2. Умножим обе части ряда на (у) и проинтегрируем от - оо до оо. Все интегралы в правой части будут равны нулю, за исключением интеграла, имеющего сомножителем коэффщиент с. и равного (-1)П (п. 7.8.3). Поэтому - СО Отсюда получаем разложение в ряд Грама - Нарлье с прямым вычислением коэффициентов р-: Р4= 1[~Ь+Ъ]д{х)йх = -Ъ, Мы снова получили уже известные результаты. Ошибки измерений и способ наименьших квадратов 9.1.21. Ошибки измерений и нормальный закон распределения. Измерения всегда сопровождаются ошибками. Различают ошибки двух основных видов: Систематические и случайные. Систематические ошибки имеют определенные причины, которые искажают измерение всегда в одном направлении и часто на постоянную величину. Они возникают за счет неисправности или плохой регулировки прибрров, за счет ошибок в эталонах, из-за плохого выполнения технологии и т. д. Во многих случаях можно найти причины таких ошибок и устранить их. где *) Приближенные значения параметров, характеризующих распределение случайных величин, называются их оценками. Оценка называется несмещенной, если ее математическое ожидание равно математическому ожиданию исследуемо-S случайной величины. Случайные ошибки неопределенны, и причина их неизвестна. Свое незнание причины ошибок мы обычно маскируем, говоря, что их порождает случай. А это просто означает, что их можно приписать большому количеству причин, действующих в любом направлении и создающих каждая свою погрешность. Такие случайные ошибки можно учитывать статистическими методами. Существует еще одна категория ошибок, о которой будет кратко сказано в п.9.1.27; это категория отдельных промахов, происходящих по однократной вине экспериментатора, например, если он по рассеянности один раз неправильно считает показания со шкалы измерительного прибора. В этом случае мы имеем дело с анормальным результатом измерения. Существует простое правилу, позволяющее исключить из таблицы результатов измерений ошибки этой категории. Мы займемся в основном категорией случайных ошибок. Допустим, что имеется несколько в одинаковой степени надежных измерений физической величины, истинное значение которой равно X. Ошибки, соответствующие измерениям Х, Х, Xi, Х, будут равны = X- X, Х2 = Х2 - Х, -. -, = X - X, ..., х = X- Xв Это чисто случайные ошибки. Мы не знаем точного значения величины X и не можем определить ее на опыте, так как всякое измерение, сделанное для ее определения, искажается ошибкой. Обозначим через X наиболее вероятное значение величины X *). Рассмотрим величины у, = Х,-Х. y~Xi-X, у = Х -Х. Величины у1, .... У;, у называются отклонениями. Так как речь здесь идет только о случайных ошибках, то величины л; и у могут быть и положительными, и отрицательными, а малые значения будут встречаться чаще, чем большие. Примем допущение, что эти величины, следуют нормальному закону распределения , £1 Положим A2=-L где Л, как известно, называется мерой точности. При этом р {х) примет вид где р (х) - относительное число ошибок, равных х. Вычертим кривые Гаусса при двух различных значениях меры точности h. Легко заметить, что чем больше к, тем кривые острее, тем круче их склоны. Это означает, что чем больше параметр h, тем реже встречаются большие ошибки. Поэтому величину h и называют мерой точности.
|