160
МИНИСТЕРСТВО ВЫСШЕГО И СРЕДНЕГО СПЕЦИАЛЬНОГО ОБРАЗОВАНИЯ РЕСПУБЛИКИ УЗБЕКИСТАН ТАШКЕНТСКИЙ ФИНАНСОВЫЙ ИНСТИТУТ ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА (КУРС ЛЕКЦИЙ) ДЛЯ ВСЕХ НАПРАВЛЕНИЙ БАКАЛАВРИАТА ОБЛАСТИ ОБРАЗОВАНИЯ« БИЗНЕС И УПРАВЛЕНИЯ» Ташкент 2004

ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

  • Upload
    others

  • View
    59

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

1

МИНИСТЕРСТВО ВЫСШЕГО И СРЕДНЕГО СПЕЦИАЛЬНОГО ОБРАЗОВАНИЯ

РЕСПУБЛИКИ УЗБЕКИСТАН

ТАШКЕНТСКИЙ ФИНАНСОВЫЙ ИНСТИТУТ

ТЕОРИЯ ВЕРОЯТНОСТЕЙ И

МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

(КУРС ЛЕКЦИЙ)

ДЛЯ ВСЕХ НАПРАВЛЕНИЙ БАКАЛАВРИАТА ОБЛАСТИ ОБРАЗОВАНИЯ« БИЗНЕС И УПРАВЛЕНИЯ»

Ташкент 2004

Page 2: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

2

ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА. (курс лекций) Ш.Ш.Бабаджанов. Ташкент .: Ташкент финансовый институт,

. Данный курс состоит из лекций по теории вероятностей и математической

статистики и написан в соответствии с требованиями образовательного стан-дарта для всех направлений бакалавриата области образования «Бизнес и управления», который утвержден MB и ССО Республики Узбекистан от 28 фев-раля 2002 года.

Все лекции, относящиеся к теории вероятностей полностью, а лекции по математической статистике, частично снабжены упражнениями. Некоторые упражнения носят элементарный характер, целью которых является содей-ствовать лучшему усвоению студентами вводимых в соответствующих лекциях понятий. Есть задачи повышенной трудности, которые требуют от студента определенных усилий. С помощью результатов таких задач студент может рас-ширить свои теоретические знания.

Курс лекции обсужден и рекомендован к изданию на заседании кафедры

«Математики». Протокол № 11 от 13 января 2004г. Зав. кафедрой: профессор К.С.Сафаева. Обсужден и рекомендован к изданию решением Межвузовского учебно-

методического совета при Ташкентском финансовом институте. Проректор по учебно-

методической работе А.В.Вахабов Составитель: к.ф.-м.н., и.о.доцента Ш.Ш.Бабаджанов Рецензенты: к.ф.-м.н., доцент О.О.Норходжаев к.ф.-м.н., доцент У.Н.Каландаров к.ф.-м.н.,доцент Х.А.Абдуваитов ст. преподаватель Э.Б.Адигамова

© Ташкент финансовый институт, 2004

Page 3: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

3

Стану ли я отказываться от своего обеда, только потому, что не полностью понимаю процесс пищеварения?

Оливер Хевисайд

ПРЕДИСЛОВИЕ

Эта книга представляет собой обработку лекций, которые автор в течение ряда лет читал студентам кредитно-экономического факультета Ташкентского финансового института. Данный курс лекций написан в соответствии с требованиями образовательного стандарта для всех направлений бакалавриата области образования «Бизнес и управления», который утвержден МВ и ССО Республики Узбекистан от 28 февраля 2002 года.

Изложение, в основном очень подробное, местами становится сжатым. Все лекции, относящиеся к теории вероятностей полностью, а лекции по математической статистике, частично снабжены упражнениями. Некоторые упражнения носят элементарный характер, целью которых является содействовать лучшему усвоению студентами вводимых в соответствующих лекциях понятий. Есть задачи повышенной трудности, которые требуют от студента определенных усилий. С помощью результатов таких задач иногда студент может расширить свои теоретические знания, которые в силу ограниченности объема не освещены в лекциях. Поэтому рекомендуется не пропускать упражнения.

В математической литературе на русском языке существует очень много курсов по теории вероятностей и математической статистике. Студентам рекомендуется обращаться к этим книгам, поскольку то, что трудно в одном изложении, может оказаться простым в другом

Автор

Page 4: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

4

ЛЕКЦИЯ № 1 ПРЕДМЕТ И ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ

ВЕРОЯТНОСТЕЙ

П Л А Н: 1.Предмет теории вероятностей. 2.Виды случайных событий. 3.Классическое определение вероятности. 4.Относительная частота. Устойчивость относительной частоты. 5.Ограниченность классического определения вероятности.

Статистическая вероятность. Геометрическая вероятность. КЛЮЧЕВЫЕ СЛОВА: Событие, испытание, опыт, достоверное событие, невозможное

событие, случайные события, несовместные события, единственно возможные события, равновозможные события, элементарные события, пространство элементарных событий, вероятность события.

Эта лекция посвящена введению основных понятий теории

вероятностей – понятий случайного события и его вероятности. Учитывая математическую подготовку студента-экономиста рассмотрим интуитивный подход к этим понятиям. Он базируется на совершенно естественных, но вместе с тем не вполне строгих рассуждениях. Тем не менее этот способ изложения материала позволяет быстрее дойти до сути дела, быстрее овладеет основными понятиями. Чтобы придать понятиям теории вероятностей строгость, присущую другим математическим понятиям, можно воспользоваться аксиоматическим методом академика А.Н.Колмогорова. Он состоит в том, что с самого начала фиксируются не подлежащие определению понятия данной теории. Их основные свойства формулируются в виде аксиом. После этого все предложения теории выводятся из аксиом строго логическим путем, без обращения к посторонним понятиям, наглядности «здравому смыслу» и т. д. Но такое построение теории требует от студента знание абстрактной теории меры, интеграла Лебега и т. д.

1. Под событием понимается всякий факт, который может произойти в

данных условиях. Теория вероятностей рассматривает события в тесной связи с теми условиями в которых они наступают.

Реализацию совокупности условий S на практике называют испытанием (опытом).

События можно подразделить на следующие три вида: достоверные, невозможные и случайные.

Page 5: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

5

Достоверным называют событие, которое обязательно произойдёт, если будет осуществлена определенная совокупность условий S . Достоверное событие обозначают, обычно, через Ω .

Например, если в сосуде содержится вода при нормальном атмосферном давлении и температуре 20°, то событие «вода в сосуде находится в жидком состоянии» есть достоверное. В этом примере заданные атмосферное давление и температура воды составляют совокупность условий S .

Невозможным называют событие , которое заведомо не произойдет , если будет осуществлена совокупность условий S . Невозможное событие обозначают, обычно, через ∅ .

Например, событие «вода в сосуде находится в твердом состоянии» заведомо не произойдет, если будет осуществлена совокупность условий предыдущего примера.

Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Случайные события обозначают через K,,, CBA .

Например, если брошена монета, то она может упасть так, что сверху будет либо герб, либо надпись. Поэтому событие «при бросании монеты выпал герб» — случайное.

Каждое случайное событие, в частности - выпадение герба, есть следствие действия очень многих случайных причин (в нашем примере: сила, с которой брошена монета, форма монеты и многие другие). Невозможно учесть влияние на результат всех этих причин, поскольку число их очень велико и законы их действия неизвестны. Поэтому теория вероятностей не ставит перед собой задачу предсказать, произойдет единичное событие или нет,— она просто не в силах это сделать.

По-иному обстоит дело, если рассматриваются случайные события, которые могут многократно наблюдаться при осуществлении одних и тех же условий S , т. е. если речь идет о массовых однородных случайных событиях. Оказывается, что достаточно большое число однородных случайных событий, независимо от их конкретной природы, подчиняется определенным закономерностям, а именно – вероятностным закономерностям. Установлением этих закономерностей и занимается теория вероятностей.

Итак, предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий.

Знание закономерностей, которым подчиняются массовые случайные события, позволяет предвидеть, как эти события будут протекать. Например, хотя, как было уже сказано, нельзя наперед определить результат одного бросания монеты, но можно предсказать, причем с небольшой погрешностью, число появлений герба, если монета будет брошена достаточно большое число раз. При этом предполагается, конечно, что монета бросается в одних и тех же условиях.

Методы теории вероятностей широко применяются в различных отраслях естествознания и техники: в теории надежности, теории массового

Page 6: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

6

обслуживания, в теоретической физике, геодезии, астрономии, теории стрельбы, теории ошибок наблюдений, теории автоматического управления , общей теории связи и во многих других теоретических и прикладных науках.

Теория вероятностей служит также для обоснования математической и прикладной статистики, которая, в свою очередь, используется при планировании и организации производства, при анализе технологических процессов, предупредительном и приемочном контроле качества продукции и для многих других целей.

В последние годы методы теории вероятностей все шире и шире проникают в различные области науки и техники, способствуя их прогрессу.

Краткая историческая справка. Первые работы, в которых зарождались основные понятия теории вероятностей, представляли собой попытки создания теории азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и др. в XVI— XVII вв.).

Следующий этап развития теории вероятностей связан с именем Якова Бернулли (1654—1705). Доказанная им теорема, получившая впоследствии название «Закона больших чисел», была первым теоретическим обоснованием накопленных ранее фактов.

Дальнейшими успехами теория вероятностей обязана Муавру, Лапласу, Гауссу, Пуассону и др.

Новый, наиболее плодотворный, период связан с именами П. Л. Чебышева (1821—1894) и его учеников А. А. Маркова (1856—1922) и А. М. Ляпунова (1857—1918). В этот период теория вероятностей становится стройной матема-тической наукой. Ее последующее развитие связано с именами С. Н. Бернштейна, В.И.Романовского, А.Н.Колмогорова, А.Я.Хинчина, В.Гнеденко, Н.В.Смирнова, Т.А.Сармысакова, С.Х.Сирожиддинова и др.

Выше мы назвали событие случайным, если при осуществлении определенной совокупности условий S оно может либо произойти, либо не произойти. В дальнейшем вместо того, чтобы говорить «совокупность условий S осуществлена», мы будем говорить кратко: «произведено испытание». Таким образом, мы будем рассматривать событие как результат испытания.

Пример 1.1. Стрелок стреляет по мишени, разделенной на четыре области. Выстрел — это испытание. Попадание в определенную область мишени — событие.

Пример 1.2. В урне имеются цветные шары. Из урны наудачу берут один шар. Извлечение шара из урны есть испытание, Появление шара определенного цвета — событие.

2. События называют несовместными, если появление одного из них

исключает появление других событий в одном том же испытании. Пример 2.1. Из ящика с деталями наудачу извлечена деталь. Появление

стандартной детали исключает появление нестандартной детали. События «появилась стандартная деталь» и «появилась нестандартная деталь» -несовместные.

Page 7: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

7

Пример 2.2. Брошена монета. Появление герба исключает появление надписи. события «появился герб» и «появилась надпись» — несовместные.

События называют единственно возможными, если появление в результате испытания одного и только одного из них является достоверным событием.

Очевидно, единственно возможные события попарно несовместны. Пример 2.3. Приобретены два билета денежно-вещевой лотереи.

Обязательно произойдет одно и только одно из следующих событий: «выигрыш выпал на первый билет и не выпал на второй», «выигрыш не выпал на первый билет и выпал на второй», «выигрыш выпал на оба билета», «на оба билета выигрыш не выпал». Эти события единственно возможные.

Пример 2.4. Стрелок произвел выстрел по цели. Обязательно произойдет одно из следующих двух событий: попадание или промах эти события единственно возможные.

События называют равновозможными, если есть основания считать, что ни одно из этих событий не является более возможным, чем другие.

Пример 2.5. Появление герба и появление надписи при бросании монеты есть события равновозможные. действительно, предполагается, что монета изготовлена из однородного материала, имеет правильную цилиндрическую форму и наличие чеканки не оказывает влияния на выпадение той или иной стороны монеты.

Пример 2.6. Появление того или иного числа очков на брошенной игральной кости есть события равновозможные. действительно, предполагается, что игральная кость изготовлена из однородного материала, имеет форму правильного многогранника и наличие очков не оказывает влияния на выпадение той или иной грани.

3.Вероятность является одним из основных понятий теории

вероятностей. Существует несколько определений этого понятия. здесь будет дано определение, которое называют классическим. Далее (п.5) мы укажем слабые стороны этого определения и приведем другие (статистическое и геометрическое) определения вероятности, позволяющее преодолеть недос-татки классического определения.

Рассмотрим пример. Пусть в урне содержится 6 одинаковых, тщательно перемешанных шаров, причем 2 из них — красные, 3 — синие и 1 — белый. очевидно, возможность вынуть наудачу из урны цветной шар (т. е. красный или синий) больше, чем возможность извлечь белый шар. Можно ли охарактеризовать эту возможность числом? Оказывается, можно. это число и называют вероятностью события. Таким образом, вероятность есть число, характеризующее возможность появления события.

Поставим своей задачей дать количественную оценку возможности того, что взятый наудачу шар будет цветным. Появление цветного шара будем рассматривать в качестве события A . Каждый из возможных результатов испытания (испытание состоит в извлечении шара из урны), т. е. каждое событие, которое может наступить в испытании, назовем элементарным

Page 8: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

8

исходом. Элементарные исходы обозначим через 321 ,, ωωω и т. д. В нашем примере возможны следующие 6 элементарных исходов: 1ω — появился белый

шар; 32 ,ωω — появился красный шар; 654 ,, ωωω — появился синий шар. Совокупность элементарных событий обозначается Ω и называется

пространством элементарных событий. Элементарные события взаимно исключают друг друга и в результате

данного опыта обязательно произойдёт одно из них. Пространство элементарных событий образует так называемую п о л н у ю г р у п п у

п о п а р н о н е с о в м е с т н ы х с о б ы т и й , так как появление хотя бы одного из событий полной группы есть достоверное событие.

Легко видеть, что эти исходы единственно возможные (обязательно появится один шар) и равновозможные (шар вынимают наудачу, шары одинаковы и тщательно перемешаны).

Те элементарные исходы, при которых интересующее нас событие наступает, назовем благоприятствующими этому событию.

В нашем примере благоприятствуют событию A (появлению цветного шара) следующие 5 исходов: 65432 ,,,, ωωωωω .

Отношение числа благоприятствующих событию A элементарных исходов к их общему числу называют вероятностью события A и обозначают ( )Ap .

В рассматриваемом примере всего элементарных исходов — 6, из них 5 благоприятствуют событию A . Следовательно, вероятность того, что взятый шар окажется цветным, равна

( )65

=Ap .

Найденное число (вероятность) и дает ту количественную оценку возможности появления цветного шара, которую мы поставили своей задачей найти.

Дадим теперь определение вероятности. Вероятностью события A называют отношение числа

благоприятствующих этому событию исходов к общему числу всех единственно возможных и равновозможных элементарных исходов испытания.

Таким образом, вероятность события A определяется формулой

( )

mnAp =

, где m —число элементарных исходов, благоприятствующих событию A ;

n — число всех возможных элементарных исходов испытания. Здесь предполагается, что элементарные исходы единственно возможные и равновозможные.

Page 9: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

9

Из определения вероятности вытекают следующие ее свойства: 1. Вероятность достоверного события равна единице. Действительно, если событие достоверно, то каждый элементарный исход

испытания благоприятствует событию. В этом случае nm = и, следовательно, ( ) 1===

nn

nmAp

2. Вероятность невозможного события равна нулю. Действительно, если событие невозможно, то ни один из элементарных

исходов испытания не благоприятствует событию. В этом случае m = 0 и, следовательно,

( ) 10===

nnmAp

3. Вероятность случайного события есть положительное число,

заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из

общего числа элементарных исходов испытания. В этом случае 0 < m < n , а,

значит, 10 <<

nm

и, следовательно,

1)(0 << Ap

Итак, вероятность любого события удовлетворяет неравенствам

1)(0 ≤≤ Ap

4.Относительная частота, наряду с вероятностью, принадлежит к

основным понятиям теории вероятностей. Относительной частотой события называют отношение числа

испытаний, в которых событие появилось, к общему числу фактически произведенных испытаний.

Таким образом, относительная частота события A определяется формулой

nmAW =)(

где m — число появлений события, n — общее число испытаний. Сопоставляя определения вероятности и относительной частоты, заклю-

чаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически. Другими словами, вероятность вычисляют до опыта, а относительную частоту — после опыта.

Пример 4.1. Отдел технического контроля обнаружил 3 нестандартных детали в партии из 80 случайно отобранных деталей. Относительная частота появления нестандартных деталей

Page 10: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

10

803)( =AW

. Пример 4.2. По цели произвели 24 выстрела, причем было

зарегистрировано 19 попаданий. Относительная частота поражения цели

2419)( =AW

. Длительные наблюдения показали, что если в одинаковых условиях

производятся опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свойство состоит в том, что в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Оказалось, что это постоянное число есть вероятность появления события.

Таким образом, если опытным путем установлена относительная частота, то полученное число можно принять за приближенное значение вероятности.

Подробнее и точнее связь между относительной частотой и вероятностью будет изложена далее. Теперь же проиллюстрируем свойство устойчивости на примерах.

Пример 4.3. По данным шведской статистики относительная частота рождения девочек за 1935 г. по месяцам характеризуется следующими числами (числа расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; 0,462; 0,484; 0,485; 0,491; 0,482; 0,473.

Относительная частота колеблется около числа 0,482, которое можно принять за приближенное значение вероятности рождения девочек.

Заметим, что статистические данные различных стран дают примерно то же значение относительной частоты.

Пример 4.4. Многократно проводились опыты бросания монеты, в которых подсчитывали число появления герба. Результаты нескольких опытов приведены в таблице 1.

Таблица 1 Число бросаний Число появлений

герба Относительная

частота 4040 2048 0,5069 12000 6019 0,5016 24000 12012 0,5005

Здесь относительные частоты незначительно отклоняются от числа 0,5,

причем тем меньше, чем больше число испытаний. Например, при 4040 испытаниях отклонение равно 0,0069, а при 24 000 испытаний — лишь 0,0005. Приняв во внимание, что вероятность появления герба при бросании монеты равна 0,5, мы вновь убеждаемся, что относительная частота колеблется около вероятности.

Page 11: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

11

5.«Классическое» определение вероятности предполагает, что число элементарных исходов испытания — конечно. На практике же весьма часто встречаются испытания, число возможных исходов которых — бесконечно. В таких случаях классическое определение неприменимо. Уже это обстоятельство указывает на ограниченность классического определения. Правда, указанный недостаток может быть преодолен путем соответствующего обобщения опре-деления вероятности, например, введением понятия геометрической вероятности.

Пусть, например, на плоскости имеется некоторая область G и в ней содержится другая область g . Требуется найти вероятность того, что точка взятая наудачу, попадает в область g . При этом выражению «точка, взятая наудачу в области G » придается следующий смысл: эта точка может попасть в любую точку области G . Вероятность попадания точки в какую-либо часть области G пропорционально мере ( mes ) этой части (длине, площади, объёму и т. д.) и не зависит от ее расположения и формы:

mesgmesGAp =)(

. Наиболее слабая сторона классического определения состоит в том, что

очень часто невозможно представить результат испытания в виде совокупности элементарных событий. Еще труднее указать основания, позволяющие считать элементарные события равновозможными. Обычно о равновозможности элементарных исходов испытания заключают из соображений симметрии. Так обстоит дело, например, при бросании игральной кости, когда предполагают, что кость имеет форму правильного многогранника (куба). Однако задачи, в которых можно исходить из соображений симметрии, на практике встречаются весьма редко.

По этой причине наряду с классическим определением пользуются также статистическим определением вероятности, принимая за вероятность события относительную частоту или число, близкое к ней. Например, если в результате достаточно большого числа испытаний оказалось, что относительная частота весьма близка к числу 0,4, то это число можно принять за статистическую вероятность события.

Вопросы для самопроверки 1.Что называется событием? 2.Какие бывают события? 3.Что является предметом теории вероятностей ? 3.Какие виды случайных событий бывают? Дайте их определения. 4.Что называется вероятностью события? Дайте классическое определение

вероятности. Приведите ее свойства. 5.Какие еще определения вероятности вы знаете? 6.В чем заключается ограниченность классического определения

вероятности?

Page 12: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

12

Упражнения 1. В урне имеются 10 шаров: 3 белых и 7 черных. Из урны наугад

вынимается один шар. Какова вероятность того, что этот шар: а) белый; б) черный?

2. Из слова «НАУГАД» выбирается наугад одна буква. Какова вероятность того, что это буква «Я»? Какова вероятность того, что это гласная?

3. Брошены три монеты. Найти вероятность того, что выпадут два «герба»? 4. Бросают игральную кость. Какова вероятность выпадения номера 4 на

верхней грани упавшей на стол кости? Какова вероятность выпадения номера, большего 4?

5. Брошены две игральные кости. Какова вероятность выпадения на двух костях в сумме не менее 9 очков? Какова вероятность выпадения единицы по крайней мере, на одной кости?

6. Из пяти карточек с буквами А, Б, В, Г, Д наугад одна за другой выбираются три и располагаются в ряд в порядке появления. Какова вероятность, что получится слово «ДВА»?

7. В урне 3 белых и 7 черных шаров. Какова вероятность того, что вынутые наугад два шара окажутся черными?

8. Ребенок играет с четырьмя буквами разрезной азбуки А, А, М, М. Какова вероятность того, что при случайном расположении букв в ряд он получит слово «МАМА»?

9. При наборе телефонного номера абонент забыл две последние цифры и набрал их наудачу, помня только, что эти цифры нечетные и разные. Найти вероятность того, что номер набран правильно?

10. А и В и еще 8 человек стоят в очереди. Определить вероятность того, что А и В отделены друг от друга тремя лицами?

11. Среди 25 экзаменационных билетов 5 «хороших». Два студента по очереди берут по одному билету. Найти вероятности следующих событий:

А={первый студент взял хороший билет}; В={второй студент взял хороший билет}; С={оба студента взяли хорошие билеты}. 12. (Задача о выборке.) В партии из 50 изделий 5 бракованных. Из партии

наугад выбираются 6 изделий. Определить вероятность того, что среди этих 6 изделий 2 окажутся бракованными.

13. При стрельбе была относительная частота попадания в цель оказалась равной 0,6. Сколько было сделано выстрелов, если получено 12 промахов?

14. В партии из 100 деталей обнаружено 5 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей?

15. При стрельбе из винтовки относительная частота пропадания в цель оказалась равной 0,85. Найти число попаданий, если всего было 120 выстрелов.

16. После бури на участке между 40-м и 70-м километрами телефонной линии произошел обрыв провода. Какова вероятность того, что разрыв произошел между 50-м и 55-м километрами линии?

Page 13: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

13

17. (Задача о встрече.) Два лица А и В условились встретиться в определенном месте между двумя и тремя часами дня. Пришедший первым ждет другого в течении10 мин., после чего уходит. Чему равна вероятность встречи этих лиц, если приход каждого из них в течение указанного часа может произойти в любое время?

18. Какой толщины должна быть монета, чтобы вероятность падения на

ребро была бы 31

. Литература: [1]: с.14-36; [2]: с.16-32, c.56-59; [3]: 10-18.

Page 14: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

14

ЛЕКЦИЯ №2 ТЕОРЕМА СЛОЖЕНИЯ И УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ.

УСЛОВНАЯ ВЕРОЯТНОСТЬ

П Л А Н: 1. Теорема сложения вероятностей несовместных событий. 2. Полная группа событий. 3.Противопожные события. 4.Теорема умножения вероятностей независимых событий. 5.Условная вероятность. 6. Теорема умножения вероятностей зависимых событий. 7. Теорема сложения вероятностей совместных событий. К Л Ю Ч Е В Ы Е С Л О В А: Полная группа событий, противоположные события, зависимые и

независимые события, условная вероятность, совместные события. В предыдущей лекции были введены способы непосредственного

определения вероятностей, а именно: классическое, геометрическое и статистическое определения вероятности. Однако не эти непосредственные способы являются основными в теории вероятностей: их применение не всегда удобно и не всегда возможно. Поэтому, как правило, для определения вероятностей событий применяются не непосредственные прямые методы, а косвенные, позволяющие по известным вероятностям одних событий определять вероятности других событий, с ними связанных.

Применения этих косвенных методов связаны со следующими основными теоремами теория вероятностей: теорема сложения вероятностей и теорема умножения вероятностей. Эта лекция посвящена этим теоремам.

Перед тем как формулировать и доказывать основные теоремы, введем некоторые вспомогательные понятия, а именно понятия о сумме событий и произведении событий.

1. Суммой A + B двух событий A и B называют событие, состоящее в

появлении события A или события B , или обоих этих событий. Например, если из орудия произведены два выстрела и A ={попадание при

первом выстреле}, B ={попадание при втором выстреле}, то A + B ={попадание при первом выстреле, или при втором, или в обоих выстрелах}.

В частности, если два события A и B - несовместные, то A + B -событие, состоящее в появлении одного из этих событий, безразлично какого.

Суммой нескольких событий называют событие, которое состоит в появлении хотя бы одного из этих событий.

Например, событие A + B +C состоит в появлении одного из следующих событий: A , B , C , A и B , A и C , B и C , A и B и C .

Page 15: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

15

Пусть события A и B — несовместные, причем вероятности этих событий даны. Как найти вероятность того, что наступит либо событие A , либо событие B ? Ответ на этот вопрос дает теорема сложения.

Т е о р е м а. Вероятность появления одного из двух несовместных событий, безразлично какого, равна сумме вероятностей этих событий:

( ) ( ) ( )BpApBAp +=+ . Доказательство. Введем обозначения: n - общее число возможных элементарных исходов испытания;

1m - число исходов, благоприятствующих событию A ; 2m - число исходов, благоприятствующих событию B .

Число элементарных исходов, благоприятствующих наступлению либо события A , либо события B , равно 1m

+ 2m . Следовательно,

( )

nm

nm

nmmBAp 2121 +=

+=+

.

Приняв во внимание, что ( )Ap

nm

=1

и ( )Bp

nm

=2

,окончательно получим ( ) ( ) ( )BpApBAp +=+ . СЛЕДСТВИЕ. Вероятность появления одного из нескольких попарно

несовместных событий, безразлично какого, равна сумме вероятностей этих событий:

( ) ( ) ( ) ( )nn ApApApAAAp +++=+++ ...... 2121 . Доказательство. Рассмотрим три события BA, иC .Так как

рассматриваемые события попарно несовместны, то появление одного из трех событий BA, и C , равносильно наступлению одного из двух событий BA + и C , поэтому, в силу указанной теоремы,

( ) ( )( ) ( ) ( ) ( ) ( ) ( )CpBpApCpBApCBApCBAp ++=++=++=++ . Для произвольного числа попарно несовместных событий

доказательство проводится методом математической индукции. Пример 1.1. В урне 30 шаров: 10 красных, 5 синих и 15 белых. Найти

вероятность появления цветного шара. Решение. Появление цветного шара означает появление либо красного,

либо синего шара. Вероятность A ={появление красного шара}

( )Ap = 310

= 31

. ВероятностьB ={появление синего шара}

( )Bp = 305

= 61

. События A и B несовместны (появление шара одного цвета

исключает появление шара другого цвета), поэтому теорема сложения применима.

Page 16: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

16

Искомая вероятность

( ) ( ) ( ) =+=+ BpApBAp 31

+ 61

= 21

. Пример 1.2. Стрелок стреляет по мишени, разделенной на 2 области.

Вероятность попадания в первую область равна 0,45 , во вторую – 0,35. Найти вероятность того, что стрелок при одном выстреле попадает либо в первую, либо во вторую область.

Решение. События A ={стрелок попал в первую область} и B = {стрелок попал во вторую область} — несовместны (попадание в одну область исключает попадание в другую), поэтому теорема сложения применима.

Искомая вероятность ( ) ( ) ( )BpApBAp +=+ =0,45+0,35=0,80. 2. Полной группой называют совокупность единственно возможных

событий испытания. Пример 2.1. Стрелок производит по мишени 2 выстрела. События

1A ={одно попадание}, 2A ={2 попадания} и 3A ={промах} образуют полную группу.

Т е о р е м а. Сумма вероятностей событий nAAA ,...,, 21 , образующих полную группу, равна единице:

( ) ( ) ( ) .1...21 =+++ nApApAp Доказательство. Так как появление одного из событий полной группы

достоверно, а вероятность достоверного события равна единице, то ( ) .1...21 =+++ nAAAp (1) Любые два события полной группы несовместны, поэтому можно

применить теорему сложения: ( ) ( ) ( ) ( )nn ApApApAAAp +++=+++ ...... 2121 (2) Сравнивая (1) и (2), получим ( ) ( ) ( ) .1...21 =+++ nApApAp Пример 2.2. Консультационный пункт института получает пакеты с

контрольными работами из городов BA, и C . Вероятность получения пакета из города A равна 0,7, из города B — 0,2. Найти вероятность того, что очередной пакет будет получен из города C .

Решение. События «пакет получен из города A », «пакет получен из города B » и «пакет получен из города C » образуют полную группу, поэтому сумма вероятностей этих событий равна единице:

0,7 + 0,2 + p =1. Отсюда искомая вероятность p = 1— 0,9 = 0,1. 3. Противоположными называют два единственно возможных события,

образующих полную группу. Если одно из двух противоположных событий обозначено через A , то другое принято обозначать A .

Page 17: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

17

Пример 3.1. Попадание и промах при выстреле по цели — противоположные события. Если A ={попадание}, то A ={промах}.

Пример 3.2. Из ящика наудачу взята деталь. События «появилась стандартная деталь» и «появилась нестандартная деталь» — противоположные.

ТЕОРЕМА. Сумма вероятностей противоположных событий равна

единице: ( ) ( ) .1=+ ApAp Доказательство. Противоположные события образуют полную группу, а

сумма вероятностей событий, образующих полную группу, равна единице (п. 2).

Замечание 1. Если вероятность одного из двух противоположных событий обозначена через p , то вероятность другого события обозначают через q . Таким образом, в силу предыдущей теоремы

.1=+ qp Пример 3.3. Вероятность того, что день будет дождливым p =0,7. Найти

вероятность того, что день будет ясным. Решение. События «день дождливый» и «день ясный» —

противоположные, поэтому искомая вероятность pq −= 1 =1- 0,7 = 0,3. Замечание 2. При решении задач на отыскание вероятности события A

часто выгодно сначала вычислить вероятность события A , а затем найти искомую вероятность по формуле:

( ) ( )ApAp −= 1 . 4. Два события называют независимыми, если вероятность одного из них

не зависит от появления или не появления другого. Пример 4.1. Монета брошена 2 раза. Вероятность появления герба в

первом испытании (событие A ) не зависит от появления или не появления герба во втором испытании (событие B ). В свою очередь, вероятность выпадения герба во втором испытании не зависит от результата первого ис-пытания. Таким образом, события A и B — независимые.

Пример 4.2. В урне 5 белых и 3 черных шара. Из нее наудачу берут один

шар. Очевидно, вероятность появления белого шара (событие A ) равна 85

. Взятый шар возвращают в урну и испытание повторяют. Вероятность появления белого шара при втором испытании (событие B ), по-прежнему,

равна 85

и не зависит от результата первого испытания. В свою очередь, вероятность извлечения белого шара при первом испытании не зависит от исхода второго испытания. Таким образом, события A и B — независимые.

Несколько событий называют попарно независимыми, если каждые два из них независимы

Page 18: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

18

Пример 4.3. Монета брошена 3 раза. Пусть CBA ,, — события, состоящие в появлении герба соответственно в первом, втором и третьем испытаниях. Ясно, что каждые два из рассматриваемых событий (т. е. A и B , A и C , B и C ) — независимы. Таким образом, события BA, и C — попарно независимые.

Два события называют зависимыми, если вероятность появления одного из них зависит от наступления или не наступления другого события.

Пример 4.4. В ящике 100 деталей: 80 стандартных и 20 нестандартных. Наудачу берут одну деталь, не возвращая ее в ящик. Если появилась стандартная деталь (событие A ), то вероятность извлечения стандартной детали

при втором испытании (событие B ) ( )Bp = 9979

; если же в первом испытании

вынута нестандартная деталь, то вероятность ( )Bp = 9980

. Таким образом, вероятность появления события B зависит от наступления

или не наступления события A . События A иB — зависимые. Произведением двух событий A и B называют событие AB , состоящее в

совместном появлении этих событий. Например, если в ящике содержатся детали, изготовленные заводами № 1

и № 2, и A ={появление стандартной детали}, B ={деталь изготовлена заводом № 1}, то AB ={появление стандартной детали завода № 1}.

Произведением нескольких событий называют событие, состоящее в совместном появлении всех этих событий.

Пусть события A иB независимые, причем вероятности этих событий известны. Как найти вероятность совмещения событий A и B ? Ответ на этот вопрос дает теорема умножения.

Т е о р е м а. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:

( ) ( ) ( ).BpApABp ⋅= Доказательство. Введем обозначения: n — число возможных элементарных исходов испытания, в которых

событие A наступает или не наступает; 1n — число исходов, благоприятствующих событию A ( )nn ≤1 ; m — число возможных элементарных исходов испытания, в

которых событие B наступает или не наступает; 1m — число исходов, благоприятствующих событию B ( )mm ≤1 . Общее число возможных элементарных исходов испытания (в которых

наступает и A и B , либо A и B , либо A и B , либо A и B ) равно nm . Действительно, каждый из n исходов, в которых событие A наступает или не наступает, может сочетаться с каждым из m исходов, в которых событие B появляется или не появляется.

Из этого числа 11mn исходов благоприятствуют совмещению событий A и B . Действительно, каждый из 1n

исходов, благоприятствующих событию A , может сочетаться с каждым из 1m

исходов, благоприятствующих событию B .

Page 19: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

19

Вероятность совместного наступления событий A и B

( )

mm

nn

nmmnABp 1111 ⋅==

Приняв во внимание, что ( )Ap

nn

=1

и ( )Bp

mm

=1

, окончательно получим: ( ) ( ) ( )BpApABp ⋅= . Для того чтобы обобщить теорему умножения на несколько событий,

введем понятие независимости событий в совокупности. Несколько событий называют независимыми в совокупности, если каждое

из них и любая комбинация остальных событий (содержащая либо все остальные события, либо часть из них) есть события независимые. Например, если события 21, AA

и 3A независимые в совокупности, то независимыми являются события: 1A и 2A , 1A и 3A , 2A и 3A , 21AA и 3A , 31AA

и 2A , 32 AA и 1A .

Подчеркнем, что если несколько событий независимы попарно, то отсюда еще не следует их независимость в совокупности. В этом смысле требование независимости событий в совокупности сильнее требования их по парной независимости. (см. упр. 6.)

Приведем теперь следствие из теоремы умножения. С л е д с т в и е. Вероятность совместного появления нескольких событий,

независимых в совокупности, равна произведению вероятностей этих событий: ( ) ( ) ( ) ( )nn ApApApAAAp ...... 2121 = Доказательство. Рассмотрим три события CBA ,, . Совмещение событий

BA, и С равносильно совмещению событий AB и C , поэтому ( ) ( )( )CABpABCp ⋅= Так как события BA, и С независимы в совокупности, то независимы, в

частности события BA, и С , а также A и B . По теореме умножения для двух независимых событий будем иметь:

( )( ) ( ) ( ) ( ) ( ) ( )CpBpApCpABpCABp ⋅⋅=⋅=⋅ . Итак, окончательно получим ( ) ( ) ( ) ( )CpBpApABCp ⋅⋅= . Для произвольного n доказательство проводится методом математической

индукции. Замечание. Если события nAAA ,...,, 21 независимы совокупности, то и

противоположные им события nAAA ,...,, 21 также независимы в совокупности. Пример 1. Найти вероятность совместного появления герба при одном

бросании двух монет. Решение. Вероятность появления герба первой монеты (событие A )

( )Ap = 21

. Вероятность появления герба второй монеты (событие B )

( )Bp = 21

.

Page 20: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

20

Так как события A и B независимые, то искомая вероятность по теореме умножения равна

( ) ( ) ( )BpApABp ⋅= = 21

· 21

= 41

. 5.Пусть события A и B зависимые. Из определения зависимых событий

следует, что вероятность одного из событий зависит от появления или не появления другого. Поэтому, если нас интересует вероятность, например события B , то важно знать, наступило ли событие A .

Условной вероятностью ( )BpA называют вероятность события B , вычисленную в предположении, что событие A уже наступило.

Пример 5.1. В урне содержится 3 белых и 3 черных шара. Из урны дважды вынимают наудачу по одному шару, не возвращая их в урну. Найти вероятность появления белого шара при втором испытании (событие B ), если при первом испытании был извлечен черный шар (событие A ).

Решение. После первого испытания в урне осталось всего 5 шаров, из них 3 белых. Искомая условная вероятность

( )BpA = 53

. Замечание. Из определения независимых событий следует, что появление

одного из них не изменяет вероятности наступления другого. Поэтому для независимых событий справедливы равенства:

( ) ( )BpBpA = и ( ) ( )ApApB = Таким образом, условные вероятности независимых событий равны их

безусловным вероятностям. 6. Пусть события A и B зависимые, причем вероятности ( )Ap и ( )BpA

известны. Как найти вероятность совмещения этих событий, т. е. вероятность того что появится и событие А и событие В ? Ответ на этот вопрос дает теорема умножения вероятностей зависимых событий.

Т е о р е м а . Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную вероятность другого вычисленную в предположении, что первое событие уже наступило:

( ) ( ) ( )BpApABp A⋅= . Доказательство. Введем обозначения: n — число возможных элементарных исходов испытания, в которых

событие A наступает или не наступает; 1n — число исходов, благоприятствующих событию A ( )nn ≤1 ; m — число элементарных исходов испытания, в которых наступает

событие B , в предположении, что событие A уже наступило, т.е. эти исходы благоприятствуют наступлению события ( )1nmAB ≤ .

Вероятность совместного наступления событий A и B

Page 21: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

21

( )

1

1

nm

nn

nmABp ⋅==

.

Приняв во внимание, что ( )Ap

nn

=1

и ( )Bp

mm

A=1

, окончательно получим: ( ) ( ) ( )BpApABp A⋅= . (3) Замечание. Применив формулу (3) к событию BA , имеем: ( ) ( ) ( )ApBpBAp B⋅= , или (поскольку событие BA не отличается от события AB ) ( ) ( ) ( )ApBpABp B⋅= (4) Сопоставляя формулы (3) и (4), заключаем о справедливости равенства ( ) ( ) ( ) ( )ApBpBpAp BA ⋅=⋅ СЛЕДСТВИЕ. Вероятность совместного появления нескольких зависимых

событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились:

( ) ( ) ( ) ( ) ( )nAAAAAAn ApApApApAAApn 121211 ...32121 ......−

⋅⋅= , где ( )nAAA Ap

n 121 ... − — вероятность события , вычисленная в предположении, что события 121 ,...,, −nAAA наступили.

В частности, для трех зависимых событий будем иметь: ( ) ( ) ( ) ( )CpBpApABCp ABA ⋅⋅= . Заметим, что порядок, в котором расположены события, может быть

выбран любым, т. е. безразлично, какое событие считать первым, вторым и т. д. Для произвольного n доказательство производится методом

математической индукции. Пример 6.1. У сборщика имеется 3 конусных и 7 эллиптических валиков.

Сборщик наудачу взял один валик, а затем второй. Найти вероятность того , что первый из взятых валиков – конусный, а второй – эллиптический.

Решение. Вероятность того, что первый из взятых валиков окажется конусным (событие A )

( )Ap =103

. Вероятность того, что второй из валиков окажется эллиптическим

(событие B ), вычисленная в предположении, что первый валик – конусный, т.е. условная вероятность равна

( )BpA = 97

. Искомая вероятность по теореме умножения вероятностей зависимых

событий равна

( ) ( ) ( )BpApABp A⋅= = 103

· 97

= 307

.

Page 22: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

22

Замечание. Выразим условную вероятность из соотношения ( ) ( ) ( )BpApABp A⋅= считая ( ) 0≠Ap :

( ) ( )

( )ApABpBpA =

7. Нами была рассмотрена (в п.1) теорема сложения для несовместных

событий. Здесь будет изложена теорема сложения для совместных событий. Два событий называют совместными, если появления одного из них не

исключает появления другого в одном и том же испытании. Пример7.1. A ={появление четырех очков} при бросании игральной

кости; B ={появление четного числа очков}. События A и B – совместные. Пусть события A и B совместны, причем даны вероятности этих

событий и вероятность их совместного появления. Как найти вероятность события A + B , состоящего в том что появится хотя бы одно из событий A и B ? Ответ на этот вопрос даёт теорема сложения вероятностей совместных событий.

Т е о р е м а . Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:

( ) ( ) ( ) ( )ABpBpApBAp −+=+ . Доказательство. Поскольку события A и B по условию совместны, то

событие BA + наступит, если наступит одно из следующих трех несовместных событий: BABA , или AB . По теореме сложения вероятностей несовместных событий

( ) ( ) ( ) ( )ABpBApBApBAp ++=+ (5) Событие A произойдет, если наступит одно из двух несовместных

событий: BA или AB . По теореме сложения вероятностей несовместных событий имеем:

( ) ( ) ( )ABpBApAp += Отсюда ( ) ( ) ( )ABpApBAp −= . Аналогично будем иметь: ( ) ( ) ( )ABpBpBAp −= Подставив полученные последние две формулы в (5) получим ( ) ( ) ( ) ( )ABpBpApBAp −+=+ . Замечание. При использовании полученной формулы следует иметь

ввиду, что события Aи B могут быть как независимыми так и зависимыми. Пример7.2. Вероятности попадания в цель при стрельбе первого и второго

орудий соответственно равны: 1p = 0,7 ; 2p = 0,8. Найти вероятность попадания при одном залпе (из обеих орудий) хотя бы одним из орудий.

Page 23: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

23

Решение. Вероятность попадания в цель каждым из орудий не зависит от результата стрельбы из другого орудия, поэтому события A ={попадания первого орудия} и B ={попадания второго орудия} независимы.

Вероятность события AB ={оба орудия дали попадания} ( ) ( ) ( )BpApABp ⋅= =0,7·0,8 = 0,56. Искомая вероятность ( ) ( ) ( ) ( )ABpBpApBAp −+=+ = 0,7 + 0,8 - 0,7·0,8 = 0,94. Вопросы для самопроверки 1.Что называется суммой: а) двух событий; б) двух несовместных событий;

в) нескольких событий? 2.Сформулируйте теорему сложения для: а) двух несовместных событий;

б) нескольких попарно несовместных событий; в) двух совместных событий. 3.Что называется полной группой событий? 4. Какие события называются противоположными? 5.Дайте определения: а) двух независимых и зависимых событий; б)

попарно независимых (нескольких) событий; в) независимых (нескольких) событий по совокупности.

6.Если несколько событий независимы попарно, то следует ли отсюда их независимость в совокупности?

7. Что называется произведением: а) двух событий; б) нескольких событий?

8.Сфромулируйте теорему умножения вероятностей для: а) двух независимых событий; б) нескольких событий, независимых по совокупности; в) двух и более зависимых событий.

9. Что называется условной вероятностью?

Page 24: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

24

Упражнения 1. Бросили монету и игральную кость. Определить, зависимы или

независимы события: A ={выпал «герб»}; B ={выпало четное число очков}. 2. Брошены последовательно три монеты. Определить зависимы или

независимы события: A ={выпадение «герба» на первой монете}; B ={выпадение хотя бы одной «цифры»}. 3. Доказать, что если A и B - независимые события с положительными

вероятностями, то они совместны. 4. Бросили игральную кость. Какова вероятность того, что выпало

простое число очков, если известно, что число выпавших очков нечетно? 5. В ящике лежат 12 красных, 8 зеленных и 10 синих шаров. Наудачу

вынимаются два шара. Какова вероятность, что вынутые шары разного цвета, если известно, что не вынут синий шар?

6. Привести пример, показывающий, что из по парной независимости событий A , B , C не следует их независимость в совокупности.

7. В одном ящике 5 белых и 10 красных шаров, в другом ящике 10 белых и 5 красных шаров. Найти вероятность того, что хотя бы из одного ящика будет вынут один белый шар, если из каждого ящика вынуто по одному шару.

8. Вероятность того, что в течение одной смены возник неполадка станка, равна 0,05. Какова вероятность того, что не произойдет ни одной неполадки за три смены?

9. Предположим, что для одной торпеды вероятность потопить

корабль равна 21

. Какова вероятность того, что 4 торпеды потопят корабль, если для потопления корабля достаточно одного попадания торпеды в цель?

10. В ящике 10 красных и 6 синих пуговиц. Вынимаются наудачу две пуговицы. Какова вероятность того, что пуговицы будут одноцветными?

11. Найти вероятность того, что наудачу взятое двузначное число окажется кратным 2, либо 5, либо тому, и другому одновременно.

12. Общество из n человек садится за круглый стол. Найти вероятность того, что два определенных лица окажутся рядом.

13. Студент пришел на зачет, зная из 30 вопросов только 24. Какова вероятность сдать зачет, если после отказа отвечать на вопрос преподаватель задает еще один вопрос?

14. В круг радиуса R вписан квадрат. Чему равна вероятность того, что поставленные наудачу внутри круга 2 точки окажутся внутри квадрата?

15. Сколько раз нужно бросить игральную кость, чтобы с ве-роятностью, не меньшей: а) 0,5; б) 0,9, хотя бы один раз выпала шестерка (шесть очков)?

16. Бросаются 4 игральные кости. Найти вероятность того, что на них выпадет по одинаковому числу очков.

Page 25: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

25

17. Два охотника стреляют в волка, причем каждый делает по одному выстрелу. Для первого охотника вероятность попадания в цель 0,7, для второго 0,8. Какова вероятность попадания в волка (хотя бы при одном выстреле) ? Как изменится результат, если охотники сделают по два выстрела?

18. Гардеробщица выдала одновременно номерки четырем лицам, сдавшим в гардероб свои шляпы. После этого она перепутала все шляпы и повесила их наугад. Найти вероятности следующих событий:

A = {каждому из четырех лиц гардеробщица выдаст его собственную шляпу};

B = {ровно три лица получат свои шляпы}; C = {ровно два лица получат свои шляпы}; D = {ровно одно лицо получит свою шляпу}; E = {ни одно из четырех лиц не получит своей шляпы}. Литература: [1]: c.37-52; [2]: c.33-51; [3]: c.19-21.

Page 26: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

26

Л Е К Ц И Я №3 ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ И ФОРМУЛЫ

БАЙЕСА

П Л А Н: 1. Формула полной вероятности. 2. Формулы Байеса. К Л Ю Ч Е В Ы Е С Л О В А: Полная вероятность, послеопытные (апостериорные ) и доопытные (апри-

орные) вероятности, гипотезы. Следствием основных теорем – теоремы сложения вероятностей и теоремы

умножения вероятностей – является так называемая формула полной вероятности. А следствием теоремы умножения и формулы полной вероятности является так называемая теорема гипотез или формула Байеса. Эта лекция посвящается этим формулам.

1. Одним из эффективных методов подсчета вероятностей является

формула полной вероятности, с помощью которой решается широкий круг задач.

Т е о р е м а (теорема о полной вероятности). Пусть nBBB ,...,, 21 — попарно не-совместные события, имеющие соответственно вероятности ( ) ( ) ( )nBpBpBp ,...,, 21 . Пусть событие A может наступить только вместе с одним из

событий nBBB ,...,, 21 , и ( ) ( ) ( )ApApApnBBB ,...,,

21 —условные вероятности события А при условии, что nBBB ,...,, 21 наступили. Тогда вероятность ( )Ap события A равна сумме произведений вероятностей событий nB

на условные вероятности ( )ApnB :

( ) ( ) ( ) ( ) ( ) ( ) ( )ApBpApBpApBpApnBnBB ⋅++⋅+⋅= ...

21 21 . (1) Доказательство. По условию, ( ) ABBBA n =+++ ...21 и AABABAB n =+++ ...21 .

Применяя сначала теорему сложения, а затем теорему ум-ножения вероятностей, получим

( ) ( ) ( ) ( ) =+++= nABpABpABpAp ...21 ( ) ( ) ( ) ( ) ( ) ( )ApBpApBpApBpnBnBB ⋅++⋅+⋅ ...

21 21 . Формула (1) называется формулой полной вероятности. Пример 1.1. Производится серия из четырех выстрелов по некоторому

объекту. Вероятности попадания в цель одного, двух, трех и четырех снарядов заданы таблицей

1 2 3 4

0,4 0,26 0,22 0,03 Вероятности разрушения объекта при условии попадания одного,

двух, трех и четырех снарядов даны в таблице

Page 27: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

27

1 2 3 4

0,5 0,7 0,8 0,99 Найти вероятность разрушения объекта. Решение. Первая таблица задает вероятности ( ) ( ) ( ) ( )4321 ,,, BpBpBpBp , а вторая

—вероятности ( ) ( ) ( ) ( )ApApApAp BBBB 4321,,, (событие iB состоит в попадании в

цель i ( i =1, 2, 3, 4) снарядов, событие A ={разрушение мишени}). По формуле (1) находим

( )Ap = 0,4 · 0,5 + 0,26 · 0,7 + 0,22 · 0,8 + 0,03 · 0,99 = 0,5877. 2. Теперь приступаем к обсуждению формул Байеса. ТЕОРЕМА (теорема Байеса). Пусть события nBBB ,...,, 21 попарно

несовместны и пусть событие A может наступить только вместе с одним из событий nBBB ,...,, 21 - Известны вероятности ( ) ( ) ( )nBpBpBp ,...,, 21 событий nBBB ,...,, 21 , и условные вероятности ( ) ( ) ( )ApApAp

nBBB ,...,,21 события A при условиях

nBBB ,...,, 21 .Известно также, что событие A наступило. Тогда вероятности собы-тий nBBB ,...,, 21 при условии, что событие A наступило, находятся по формулам

( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( ) ni

ApBpApBpApBpApBp

Bpn

i

BnBB

BiiA ,...,2,1,

...21 21

=⋅++⋅+⋅

⋅=

К о м м е н т а р и и к т е о р е м е . 1) Вероятности ( )iA Bp называются после опытными (апостериорными)

вероятностями событий iB , а вероятности ( )iBp — до опытными (априорными) вероятностями событий iB ). Эти вероятности различаются, как будет видно из примеров.

2) Знаменатель в правой части формулы (2) совпадает с правой частью формулы (1) и равен ( )Ap .

3) События nBBB ,...,, 21 называются часто гипотезами и формула (2) дает вероятности гипотезы iB , при которой наступило событие A .

Доказательство. Согласно теореме умножения вероятностей, имеем ( ) ( ) ( ) ( ) ( )ApBpApBpABp

iBiiAi ⋅=⋅= . Отсюда

( ) ( ) ( )

( )ApApBp

Bp iBiiA

⋅=

(3) Подставляя в знаменатель правой части равенства (3) вместо ( )Ap правую

часть формулы (1), получаем соотношение (2). Формулы (2) называются формулами Байеса (или формулами гипотез).

Page 28: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

28

Пример 2.1. Поломка прибора (событие A ) может быть вызвана одной из трех причин 321 ,, BBB , вероятности которых ( )1Bp = 0,7, ( )2Bp =0,2, ( )3Bp = 0,1. При наличии этих причин поломка прибора происходит с вероятностями ( )ApB1 = 0,1,

( )ApB2 =0,2, ( )ApB3 = 0,99. Известно, что прибор вышел из строя. Найти вероятности ( )1BpA , ( )2BpA , ( )3BpA .

Решение. Используя формулы (2), получим

( )1BpA

;137

13,007,0

2,01,02,02,01,07,01,07,0

==⋅+⋅+⋅

⋅=

( )2BpA =;

134

13,004,0

2,01,02,02,01,07,02,02,0

==⋅+⋅+⋅

( )3BpA =.

132

13,002,0

2,01,02,02,01,07,02,01,0

==⋅+⋅+⋅

Из результатов вычислений видно, что апостериорные вероятности

отличаются от априорных. Вопросы для самопроверки 1. Сформулируйте теорему о полной вероятности. 2. На чем основывается доказательство теоремы о полной

вероятности? 3. Сформулируйте теорему Байеса. 4. Что называется гипотезами?

Page 29: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

29

Упражнения 1. Имеются два одинаковых ящика с шарами. В первом ящике 2 белых и 1

черный шар, во втором - 1 белый и 4 черных шара.. Наудачу выбирают один ящик и вынимают из него шар. Какова вероятность, что вынутый шар окажется белым?

2. В группе спортсменов 20 лыжников, б велосипедистов и 4 бегуна. Вероятность выполнить квалификационную норму такова: для лыжника 0,9, для велосипедиста 0,8 и для бегуна 0,75. Найти вероятность того, что спортсмен выбранный наудачу, выполнит норму

3. Сборщик получил 3 коробки деталей, изготовленных заводом № 1, и 2 коробки деталей, изготовленных заводом № 2.Вероятность того, что деталь завода № 1 стандартна равна 0,8, а завода № 2 — 0,9. Сборщик наудачу извлек деталь из наудачу взятой коробки Найти вероятность того, что извлечена стандартная деталь.

4. В первом ящике содержится 20 деталей, из них 15 стандартных; во втором -30 деталей, из них 24 стандартных; в третьем -10 деталей, из них 6 стандартных. Найти вероятность того, что наудачу извлеченная деталь из наудачу взятого ящика — стандартная.

5. В телевизионном ателье имеется 4 кинескопа. Вероятности того, что кинескоп выдержит гарантийный срок службы, соответственно равны 0,8; 0,85; 0,9; 0,95. Найти вероятность того, что взятый наудачу кинескоп выдержит гарантийный срок службы.

6. В двух ящиках имеются радиолампы. В первом ящике содержится 12ламп, из них 1 нестандартная; во втором 10 ламп, из них 1 нестандартная. Из первого ящика наудачу взята лампа и переложена во второй. Найти вероятность того, что наудачу извлеченная из второго ящика лампа будет нестандартной.

7.В цехе работают 20 станков. Из них10 марки А, 6 марки В и марки С. Вероятность того, что качество детали окажется отличным, для этих станков соответственно равна: 0,9; 0,8 и 0,7. Какой процент отличных деталей выпускает цех в целом?

8. Имеются две урны: в первой 3 белых шара и 2 черных; во второй 4 белых и 4 черных. Из первой урны во вторую перекладывают, не глядя, два шара. После этого из второй урны берут один шар. Найти вероятность то-го, что этот шар будет белым.

9. Студент знает не все экзаменационные билеты. В каком случае вероятность вытащить неизвестный билет будет для него наименьшей, когда он тащит билет первым или последним?

10. Предположим, что 5% всех мужчин и 0,25% всех женщин дальтоники. Наугад выбранное лицо страдает дальтонизмом. Какова вероятность того, что это мужчина? (Считать, что мужчин и женщин одинаковое число.)

11. Два стрелка независимо один от другого стреляют по одной мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для

Page 30: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

30

первого стрелка 0,8, для второго 0,4. После стрельбы в мишени обнаружена одна пробоина. Найти вероятность того, что в мишень попал первый стрелок.

12. На фабрике, изготовляющей болты, первая машина производит 25%, вторая —35%, третья — 40% всех изделий. В их продукции брак составляет соответственно 5, 4 и 2%.

а) Какова вероятность того, что случайно выбранный болт дефектный?

б) Случайно выбранный из продукции болт оказался дефектным. Какова вероятность того, что он был произведен первой, второй, третьей машиной?

13. В ящик, содержащий 3 одинаковых детали, брошена стандартная деталь, а затем наудачу извлечена одна деталь. Найти вероятность того, что извлечена стандартная деталь, если равновероятны все возможные предположения о числе стандартных деталей первоначально находившихся в ящике.

14. При отклонении от нормального режима работы автомата срабатывает сигнализатор С-1 с вероятностью 0,8, а сигнализатор С-11 срабатывает с вероятностью 1. Вероятности того, что автомат снабжен сигнализатором С-1 или С-11 соответственно равны 0,6 и 0,4. Получен сигнал о разладке автомата Что вероятнее: автомат снабжен сигнализатором С-1 или С-11?

Литература: [1]: c.52-53; [2]: c.51-55; [3]: c.28-30

Page 31: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

31

Л Е К Ц И Я № 4 ПОСЛЕДОВАТЕЛЬНОСТЬ НЕЗАВИСИМЫХ ИСПЫТАНИЙ.

ФОРМУЛА БЕРНУЛЛИ

П Л А Н: 1. Последовательность независимых испытаний (схема Бернулли). 2.Формула Бернулли. 3.Наивероятнейшее число появлений события в независимых испытаниях. К Л Ю Ч Е В Ы Е С Л О В А: Последовательность независимых испытаний, схема Бернулли, формула

Бернулли, наивероятнейшее число. При практическом применении теории вероятностей часто приходится

встречаться с задачами, в которых одно и то же испытание или аналогичные испытания повторяются неоднократно. В результате каждого испытания может появиться или не появиться некоторое событие A , причем нас интересует не результат каждого отдельного испытания, а общее число появлений события A в результате испытаний. Например, если производится серия выстрелов по одной и той же цели, нас, как правило, интересует не результат каждого выстрела, а общее число попаданий. Такие задачи рассматриваются на этой и следующей лекциях. Оказываются, при определенных условиях, они решаются весьма просто.

1. Пусть производится серия из n испытаний, в каждом из которых

событие A может наступить, а может и не наступить. Пусть при этом выполнено следующее условие: вероятность p наступления события A в каждом испытании постоянна, т. е. не зависит ни от номера испытания, ни от результатов предыдущих испытаний.

Это условие означает, что последовательность испытаний независима (вероятность p не зависит от результатов предыдущих испытаний).

Последовательность испытаний, удовлетворяющих указанному условию, называется последовательностью независимых испытаний (или схемой Бернулли). Схема Бернулли полностью определяется двумя числами — натуральным числом n , означающим количество испытаний, и числом p ( 10 << p ), означающим вероятность наступления события A в одном испытании (безразлично, в каком по счету).

Примеры. Следующие серии опытов представляют собой конкретные модели схемы Бернулли:

1.1.Монету подбрасывают n раз; вероятность появления герба в одном

испытании есть 21=p .

Page 32: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

32

1.2.Производят n выстрелов по мишени. Предполагается, что вероятность попадания в мишень при каждом выстреле постоянна и равна p .

Отметим, однако, что если в процессе стрельбы стрелок пристрелялся и стал лучше поражать мишень, то такая последовательность испытаний не является схемой Бернулли.

2. Из кучи зерна отбирают n зерен для проверки их на всхожесть.

Вероятность того, что каждое зерно при проверке дает положительный результат, постоянна (так будет, например, в том случае, когда куча зерна большая, а зерна отбирают наугад после перемешивания).

В связи со схемой Бернулли рассматривают такие задачи: 1. Найти вероятность ( )kPn того, что в серии из n испытаний событие A

наступит ровно k раз. Решение этой задачи дает формула Бернулли (см. ниже, п.2).

2. Найти вероятность ( )21,kkPn того, что в серии из n испытаний количество k наступлений события A будет находиться в пределах 21 kkk ≤≤ .

3. Решить задачу 1 для больших чисел n и k с (формула Бернулли, дающая решение задачи 1, неудобна для вычислений при больших n и k ). Задача 3 решается с помощью локальной теоремы Муавра- Лапласа (следующая лекция).

4. Решить задачу 2 для больших чисел 21,, kkn (формула Бернулли мало пригодна для вычислений ( )21,kkPn при больших 21,, kkn ). Задача решается с помощью интегральной теоремы Муавра-Лапласа (следующая лекция).

2. Теорема. Вероятность ( )kPn того, что в последовательности из n испытаний в схеме Бернулли событие A наступит ровно n раз, выражается формулой

( ) knkknn qpCkP −=

где knС = !)!(

!kkn

n− число сочетании из n элементов по k ; p — вероятность

наступления события A в одном испытании; pq −= 1 — вероятность не наступления события A в одном испытании.

Доказательство. Рассмотрим последовательность из k плюсов и kn − минусов,

расположенных в произвольном, но фиксированном порядке. Каждая такая последовательность задает событие при « n -кратном испытании по схеме Бернулли: знак « + » или «-» на k -м месте последовательности означает соответственно наступление или не наступление события A при k -м испытании. Вероятность такого события (расположение k плюсов и kn − минусов в произвольном, но фиксированном порядке) в силу теоремы умножения вероятностей равна

knkqp − и не зависит от порядка плюсов и

минусов в рассматриваемой последовательности. При этом последовательности

Page 33: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

33

с различным расположением k плюсов и kn − минусов определяют различные попарно несовместные события. Количество последовательностей из k плюсов и kn − минусов равно числу сочетаний из n элементов по k . Действительно, последовательность будет полностью определена, если из множества номеров { }n,...,3,2,1 выбрано k штук и плюсы последовательности поставлены на места с номерами из выбранного множества.

Отсюда по теореме сложения вероятностей получаем ( ) knkk

nn qpCkP −= ,

где, как известно, число сочетаний из n элементов по k выражается формулой

knС = !)!(

!kkn

n− .

Примеры. 2.1. Найти вероятность того, что при 10-кратном бросании монеты

выпадет ровно 3 герба.

Решение. Здесь 21,3,10 === pkn

. Согласно формуле Бернулли, получим

( )

1024120

21

3218910

21

213

107331010 =⎟

⎠⎞

⎜⎝⎛

⋅⋅⋅⋅

=⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛= CP

.

2.2.Пусть вероятность поражения мишени при одном выстреле равна

31

.Найти вероятность того, что из 6 выстрелов три поразят мишень.

Решение. Используя формулу Бернулли при 32,

31,3,6 ==== qpkn

, находим

( )

729160

7298

321456

32

313

33366 =⋅

⋅⋅⋅⋅

=⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛= CP

.

2.3. Пусть вероятность того, что взятое наудачу из кучи зерно окажется всхожим, равна 0,9. Какова вероятность того, что из 7 отобранных зерен ровно 5 окажутся всхожими?

Решение. Имеем

( )57P = 57С 0, 95· 0, 12 = .5.4.3.2.1

3.4.5.6.7 = 21· 0, 0059049 = 0, 124.

2.4. В схеме Бернулли, связанной с бросанием монеты, вычислить вероятности ( )kP10 , где k =0, 1, 2, ..., 10 (т. е. вероятности того, что в 10 испытаниях герб выпадет ровно k раз).

Page 34: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

34

Рис.1. Рис.2.

Решение. Используя формулу Бернулли при == qp 21

, k = 10,...,2,1,0 , получим

( ) ( ) ( ) ( ) ( ) ,10242104,

10241203,

1024452,

1024101,

1024110 1010101010 ===== PPPPP

( ) ( ) ( ) ( ) ( ) ,

1024109,

1024458,

10241207,

10242106,

10242525 1010101010 ===== PPPPP

( )

102411010 =P

. Результаты вычислений иллюстрирует рис.1. Как видно из рисунка,

наибольшей из вероятностей ( )kP10 является ( ) 25,0510 ≈P . Сравнительно велики и значения ( )410P и ( ) ( )21,0610 ≈P ; в то же время «крайние» значения k дают

( ) ( ) 001,0100 1010 ≈= PP . Обратим внимание на характерный вид изображенной на рисунке ломаной,

имеющей пик в точке k =5. В дальнейшем нам часто придется иметь дело с

кривой y = π2

1

2

2x

e−

(рис.2.). Она называется гауссовой кривой (или кривой нормального распределения) и играет исключительно важную роль в теории вероятностей.

Тот факт, что ломаная на рис. 1 и кривая на рис. 2 имеют значительное сходство, не случаен. Причины этого явления раскрываются локальной теоремой Муавра-Лапласа.

Для вычисления вероятностей ( )21,kkPn того, что в схеме Бернулли из n испытаний количество m наступлений события A будет находиться в пределах

21 kmk <≤ , можно использовать формулу ( ) ( ) ( ) ( )1...1, 21121 −++++= kPkPkPkkP nnnn . (1) [Событие, о котором идет речь, является суммой попарно несовместных

событий )1,...,1,( 211 −+= kkkiBi , состоящих в том, что в n испытаниях событие A наступит ровно i раз; затем, используя теорему сложения вероятностей, получаем формулу (1).]

В частности, вероятность того, что в n испытаниях событие наступит: а) менее k раз; б) более k раз; в) не менее k раз; г) не более k раз, находят соответственно по формулам:

Page 35: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

35

( ) ( ) ( )( ) ( ) ( );...21

;1...10nPkPkP

kPPP

nnn

nnn

+++++−+++

( ) ( ) ( )( ) ( ) ( )....10

;...1kPPP

nPkPkP

nnn

nnn

+++++++

3. Число 0k (наступления события в независимых испытаниях, в каждом из

которых вероятность появления события равна p ) называют наивероятнейшим, если вероятность того, что событие наступит в этих испытаниях 0k раз, превышает (или, но крайней мере, не меньше) вероятности остальных возможных исходов испытаний.

Наивероятнейшее число 0k определяют из двойного неравенства pnpkqnp −<≤− 0 , причем: а)если число qnp − -дробное, то существует одно наивероятнейшее число

0k ; б)если число qnp − – целое, то существует два наивероятнейших числа, а

именно: 0k и 10 +k ; в)если число np - целое, то наивероятнейшее число npk =0 . Пример 3.1. Испытывается каждый из 15 элементов некоторого

устройства. Вероятность того, что элемент выдержит испытание, равна 0,9. Найти наивероятнейшее число элементов, которые выдержат испытание.

Решение. По условию, n =15, p = 0,9, q =0,1. Найдем наивероятнейшее число 0k из двойного неравенства

pnpkqnp −<≤− 0 . Подставив данные задачи, получим 15·0,9 – 0,1≤ 0k < 15·0,9 + 0,9, или 13,5< 0k < 14,4. Так как k0 — целое число и поскольку между числами 13,4 и 14,4

заключено одно целое число, а именно 14, то искомое наивероятнейшее число 0k =14.

Пример 3.2. Найти наивероятнейшее число появления герба в задаче 2.4. Решение. qnp − = 10· 0,5 – 0,5 = 4,5 – дробное число; существует одно

наивероятнейшее число 0k. Имеем 4,5< 0k < 5,5. Следовательно, 0k =5.Нетрудно

заметить, что расчеты проведенные в п.2. это подтверждает, т.е. , наибольшей из вероятностей ( )kP10 является ( ) 25,0510 ≈P .

Page 36: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

36

Вопросы для самопроверки 1.Что называется схемой Бернулли? 2. Приведите примеры последовательности испытаний, которые не

образуют схему Бернулли. 3. Какие задачи рассматриваются в связи со схемой Бернулли? 4. Сформулируйте теорему Бернулли. 5. На чем основывается доказательство теоремы Бернулли? 6. Что называется наивероятнейшим числом?

Page 37: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

37

Упражнения 1. Вероятность малому предприятию быть банкротом за время t равна 0,2.

Найти вероятность того, что из восьми малых предприятий за время t сохранятся: а) два; б) более двух.

2. В среднем пятая часть поступающих в продажу автомобилей некомплектны. Найти вероятность того, что среди десяти автомобилей имеют некомплектность: а) три автомобиля; б) менее трех.

3. Производится залп из шести орудий по некоторому объекту. Вероятность попадания в объект из каждого орудия равна 0,6. Найти вероятность ликвидации объекта, если для этого необходимо не менее четырех по паданий.

4. В среднем по 15% договоров страховая компания выплачивает страховую сумму. Найти вероятность того, что из десяти договоров с наступлением страхового случая будет связано с выплатой страховой суммы: а) три договора; б) менее двух договоров.

5. Предполагается, что 10% открывающихся новых малых предприятий прекращают свою деятельность в течение года. Какова вероятность того, что из шести малых предприятий не более двух в течение года прекратят свою деятельность?

6. В семье десять детей. Считая вероятности рождения мальчика и девочки равными между собой, определить вероятность того, что в данной семье: а) не менее трех мальчиков; б) не более трех мальчиков.

7. Два равносильных противника играют в шахматы. Что более вероятно: а) выиграть 2 партии из 4 или 3 партии из 6?; б) не менее 2 партий из 6 или не менее 3 партий из 6? (Ничьи в расчет не принимаются).

8. В цехе 6 моторов. Для каждого мотора вероятность того, что он в данный момент включен, равна 0,8. Найти вероятность того, что в данный момент; а) включено 4 мотора, б) включены все моторы, в) выключены все моторы.

9. Найти вероятность того, что событие А появится в пяти не-зависимых испытаниях не менее двух раз, если в каждом испытании вероятность появления события А равна 0,3.

10. Событие В появится в случае, если событие А появится не менее двух раз. Найти вероятность того, что наступит событие В, если будет произведено 6 независимых испытаний, в каждом из которых вероятность появления события А равна 0,4.

11. Произведено 8 независимых испытаний, в каждом из которых вероятность появления события А равна 0,1.Найти вероятность того, что событие А появится хотя бы 2 раза.

12. Монету бросают 6 раз. Найти вероятность того, что герб выпадет: а) менее двух раз, б) не менее двух раз.

Page 38: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

38

13. Наблюдениями установлено, что в некоторой местности в сентябре в среднем бывает 12 дождливых дней. Какова вероятность, что из случайно взятых в этом месяце 8 дней 3 дня окажутся дождливыми?

14. Что вероятнее выиграть у равносильного противника (ничейный исход партии исключен): три партии из четырех или пять из восьми?

15. Изделия некоторого производства содержат 5% брака. Найти вероятность того, что среди пяти взятых наугад изделий:

а) нет ни одного испорченного; б) будут два испорченных. 16. Для прядения смешаны поровну белый и окрашенный хлопок: Какова

вероятность среди пяти случайно выбранных волокон смеси обнаружить менее двух окрашенных?

17. Вероятность получения удачного результата при производстве сложного химического опыта равна 2/3. Найти наивероятнейшее число удачных опытов, если общее их количество равно 7.

18. Батарея дала 14 выстрелов но объекту, вероятность попадания в который равна 0,2. Найти наивероятнейшее число попаданий и вероятность этого числа попаданий.

19. Вероятность попадания в цель при каждом выстреле и орудия равна 0,8. Сколько нужно произвести выстрелов, чтобы: наивероятнейшее число попаданий было равно 20?

20.Всхожесть семян данного сорта растений оценивается с вероятностью, равной 0,8. Какова вероятность того, что из пяти посеянных семян взойдут не менее четырех?

21. (Задача Банаха.) Некий курящий математик носит с собой две коробки спичек. Каждый раз, когда он хочет достать спичку, он выбирает наугад одну из коробок. Найти вероятность того, что когда математик вынет в первый раз пустую коробку, в другой коробке окажутся r спичек (r = 0,1,2,…,n; n – число спичек, бывших первоначально в каждой из коробок).

Литература: [1]: c.55-56; [2]: c.67-70; [3]: c.30-35.

Page 39: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

39

Л Е К Ц И Я №5 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ МУАВРА-ЛАПЛАСА.ТЕОРЕМА

ПУАССОНА

П Л А Н:

1. Локальная теорема Муавра - Лапласа. 2. Интегральная теорема Муавра-Лапласа. 3. Правило «трёх сигм» в схеме Бернулли. 4. Теорема Пуассона. К Л Ю Ч Е В Ы Е С Л О В А: Локальная теорема Муавра – Лапласа, интегральная теорема Муавра-

Лапласа, правило, «трёх сигм», практически достоверные события, теорема Пуассона.

1. Формула Бернулли ( ) =kPnknС

kp knq −, выражающая ( )kPn через n и p в

схеме Бернулли, становится неудобной при больших n: в этом случае затруд-нение вызывает вычисление

knС .

Существует удобный в практическом отношении способ вычисления вероятностей ( )kPn -приближенный, но достаточно точный при больших n . Его описание дано в следующей теореме.

Т е о р е м а 1 (локальная теорема Муавра - Лапласа). При больших значениях n в схеме Бернулли справедливо приближенное равенство

( )kPn ≈ npq1

ϕ ( )x , (1)

где x = npqnpk −

, а ϕ ( )x = π21

2

2x

e−

. Комментарий к теореме 1. 1) Локальная теорема Муавра-Лапласа является глубоким математическим

фактом, ее доказательство связано с использованием нетривиальных и тонких построений.

2) Функция ϕ ( )x , упоминаемая в теореме, табулирована: таблицы значений этой функции приведены в каждом учебнике по теории вероятностей. Эта функция четная; ее график называется нормальной или гауссовой кривой и изображен на рис. 1.

3) Заметим, что ( )kPn стремится к нулю при n ∞→ . Наибольшая из вероятностей ( )kPn достигается при npk ≈ ( k -ближайшее к np целое число). В этом случае

( )kPn ≈ npq1

ϕ ( )x = npq1

21π .

Page 40: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

40

Пример1.1 Вычислить вероятность того, что при 100-кратном бросании монеты герб выпадет: а) ровно 50 раз; б) ровно 60 раз.

Решение. а) Здесь n =100, k = 50, p = 0,5, q = 0,5. Используя формулу (1),

получим ( )50100P =)()(

5,05,01001 хх ϕϕ =

⋅⋅ · 51

, где x = 5,05,01001005,050⋅⋅⋅−

=0.

Следовательно, ( )50100P =ϕ

51

(0)= 51

0,3989=0,079 (значение ϕ ( )0 найдено по таблице).

б) Аналогично находим ( )60100P =ϕ

51

( )x , где x = 5,0,01001005,060⋅⋅⋅−

= 510

=2. Таким

образом, ( )60100P =ϕ

51

( )2 = 51

0,0540 = 0,0108.

Рис.1.

Из формулы (1) вытекает, что график функции ( )kPn приближенно

совпадает с графиком функции f = npqх)(ϕ

, где x = npqnpk −

, k -целое число. Это означает, что график функции ( )kPn приближенно совпадает с гауссовской

кривой y =ϕ ( )x = π21

2

2x

e−

,сдвинутой вправо на np и сжатой по вертикали

в npq раз. При этом график ( )kPn обладает характерной чертой — наличием пика в точке npk ≈ (рис. 1). В учебниках по теории вероятностей можно встретить более строгую формулировку локальной теоремы Муавра - Лап-ласа.

2. Вычисление вероятностей ( )21,kkPn в схеме Бернулли по формуле ( )kPn = knC kp knq −

при больших n является еще более затруднительным, чем исполь-зование формулы Бернулли для вычисления ( )kPn . Заметим, что в практическом отношении вероятности ( )21,kkPn имеют большее значение, чем ( )kPn . Действительно, при больших n часто бывает не столь существенным знать то обстоятельство, что событие A произойдет ровно k раз, но важно знать, что количество наступлений этого события будет находиться в заданных пределах. Так, при проверке семян на всхожесть не столь важно знать, что из выбранных

Page 41: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

41

1000 семян ровно 907 окажутся всхожими, но важно знать, что всхожесть семян находится в пределах от 900 до 950.

Как отмечалось выше, вероятности ( )kPn при больших n малы. Вероятности ( )21,kkPn могут быть сколь угодно близки к единице.

Удобный приближенный способ вычисления вероятностей ( )21,kkPn в схеме Бернулли дает следующая теорема.

Т е о р е м а 2 (интегральная теорема Муавра - Лапласа). При больших значениях n в схеме Бернулли имеет место приближенное равенство

( )21,kkPn ( ) ( )/1

/2 kk Φ−Φ≈ (2)

где /

1k = npqnpk −1

, /2k = npq

npk −2

, Φ ( )x = π21

∫х

0 2

2x

e−

dx . Комментарий к теореме 2. 1) Функция Φ ( )x называется функцией Лапласа; она табулирована.

Таблицы функции Φ ( )x даны в каждом учебнике по теории вероятностей. Эта функция нечетная.

2) Отметим, что ( ) 00 =Φ , ( ) 3413,01 =Φ , ( ) 4772,02 =Φ , ( ) 4986,03 =Φ , ( ) 5,0=∞Φ . Таким образом, если в формуле (2) положить

/2k =3,

/1k =- 3, то получим

( )21,kkPn =0,9973. Существует более строгая формулировка интегральной теоремы Муавра —

Лапласа (см. например,[6].) Пример 2.1. Вычислить вероятность того, что при 100-кратном бросании

монеты количество гербов будет находиться в следующих пределах: а)[45;55]; б) [40;60]; в)[35;65].

Решение: Здесь p =0,5, q =0,5, n =100, 5,0.5,0.100=npq =5.

а) /

1k = 55045 −

=-1, /2k = 5

5055 − =1; Р100 (45,55)≈Φ (1) -Φ (-1)= 2Φ (1)=0,6826.

б) /

1k = 55040 −

=-2, /2k = 5

5060 − =2; Р100 (40,60)≈Φ (2) -Φ (-2)=2Φ (2)=0,9545.

в) /

1k = 55035 −

=-3; /2k = 5

5065 − =3; Р100 (35,65)≈Φ (3) -Φ (-3)= 2Φ (3)=0,9973.

Из результатов вычислений видно, что вероятности рассматриваемых событий достаточно велики, в особенности последняя вероятность, равняя 0,9973.

События, имеющие большую вероятность, называются практически достоверными.

В этом случае считается, что в результате опыта событие обязательно наступит. Насколько должна быть велика вероятность, чтобы событие считать практически достоверным? Это зависит от характера задачи: во всякой задаче замена случайного события практически достоверным? Это зависит от характера задачи: во всякой задаче замена случайного события практически достоверным содержит «элемент риска». Ясно, что в различных

Page 42: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

42

условиях допустимый риск различен. Все же часто останавливаются на вероятности 0,9973. Мы также примем за определение практически достоверного события такое случайное событие, вероятность которого не меньше, чем 2Ф(3)= 0,9973.

3. Рассмотрим схему Бернулли с большим количеством n испытаний;

обозначим через σ число npq . Из интегральной теоремы Муавра — Лапласа вытекает, что

( ) 9973,03,3 =+− σσ npnpPn (3) Действительно, при σ31 −= npk , σ32 += npk

имеем /

1k = -3, /2k = 3 и

( )21,kkPn ≈Φ (3) -Φ (-3) = 2Φ (3) = 0,9973. Формула (3) позволяет для каждой схемы Бернулли указать интервал ( )21,kk

такой, что количество наступлений события A принадлежит этому интервалу с вероятностью 0,9973; иными словами, событие 21 kmk <≤ практически до-стоверно. Формула (3) называется правилом «трех сигм», а интервал ( )21,kk , где

−= npk1 3 npq , npk =2 + 3 npq — трехсигмовым интервалом. Заметим, что трехсигмовый интервал оказывается удивительно узким.

Если любому здравомыслящему человеку, не знакомому с теорией вероятностей, предложить угадать интервал, в который с практической достоверностью попадет количество наступлений событий при последовательных испытаниях, то, как правило, в ответе будет дан гораздо более широкий интервал.

Пример 3.1. Некоторая система состоит из 10000 (независимых) элементов. Вероятность выхода из строя одного элемента равна 0,5. Пусть n — количество вышедших из строя элементов системы. Найти трехсигмовый интервал.

Решение. Имеем n =10000, p =0,5, q = 0, σ = 5,0.5,0.10000 =50, σ31 −= npk = 5000 -150, σ32 += npk = 5000+150. Итак, с вероятностью 0,9973

можно утверждать, что количество вышедших из строя элементов находится в пределах 5000+150 (событие практически достоверное).

В частности, если взять запас в 5000 элементов для замены вышедших из строя, то в 50% случаев этого запаса не хватит. Если же увеличить этот запас всего на 3%, т. е. взять 5150 элементов, то его хватит наверняка (т. е. с вероятностью большей, чем 0,9973). Оценка трехсигмового интервала этого примера «на глаз», «по здравому смыслу» приводит, как правило, к большому преувеличению истинного значения.

С помощью интегральной теоремы Муавра - Лапласа можно пояснить, почему и в каком смысле вероятность p события A в одном испытании

совпадает (приближенно) с частотой nm

наступления события A в n испытаниях. Действительно, с вероятностью 0,9973 выполняется неравенство

Page 43: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

43

np - 3 npq ≤ m < np +3 npq , откуда после деления всех его частей на n получим

p -3 npqp

nm

npq 3+<≤

.

Так как 3∞→

npq

при n ∞→ , то частота nm

с практической достоверностью при больших n так угодно мало отличается от p .

Следствие. Вообще говоря, используя интегральную теорему Муавра-Лапласа легко

можно получить вероятность отклонения относительной частоты от постоянной вероятности в n независимых испытаниях в более общем случае т.е. формулу

⎟⎟⎠

⎞⎜⎜⎝

⎛Φ≈⎟⎟

⎞⎜⎜⎝

⎛≤−

pqnp

nmP εε 2

. Пример 3.2.Вероятность того, что деталь не стандартна, 1,0=p . Найти

вероятность того, что среди случайно отобранных 400 деталей относительная частота появления нестандартных деталей отклонится от вероятности 1,0=p по абсолютной величине не более, чем на 0,03.

Решение. По условию .03,0;9,0;1,0;400 ==== εqpn

Требуется найти вероятность .03,01,0

400 ⎟⎟⎠

⎞⎜⎜⎝

⎛≤−

mP Пользуясь формулой

⎟⎟⎠

⎞⎜⎜⎝

⎛Φ≈⎟⎟

⎞⎜⎜⎝

⎛≤−

pqnp

nmP εε 2

, имеем: ⎟⎟⎠

⎞⎜⎜⎝

⋅Φ≈⎟⎟

⎞⎜⎜⎝

⎛≤−

9,01,040003,0203,01,0

400mP

( )22Φ= .По таблице значений функции Лапласа находим ( ) 9544,022 =Φ .

Итак, искомая вероятность приближенно равна 0,9544. Смысл полученного результата таков: если взять достаточно большое

число проб по 400 деталей в каждой, то примерно в 95,44% этих проб отклонение относительной частоты от постоянной вероятности 1,0=p по абсолютной величине не превысит 0,03.

Пример 3.3. Вероятность того, что деталь не стандартна, 1,0=p . Найти, сколько деталей надо отобрать, чтобы с вероятностью равной 0,9544 можно было утверждать, что относительная частота появления нестандартных деталей (среди отобранных) отклонится от постоянной вероятности p по абсолютной величине не более, чем на 0,03.

Решение. По условию 03,0;9,0;1,0 === εqp ;

9544,003,01,0 =⎟⎟⎠

⎞⎜⎜⎝

⎛≤−

nmP

. Требуется найти n .

Воспользуемся формулой ⎟⎟⎠

⎞⎜⎜⎝

⎛Φ≈⎟⎟

⎞⎜⎜⎝

⎛≤−

pqnp

nmP εε 2

. В силу условия,

Page 44: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

44

( ) .9544,01,02

9,01,003,02 =Φ=⎟

⎟⎠

⎞⎜⎜⎝

⋅Φ nn

Следовательно, ( ) 4772,01,0 =Φ n =0,4772. По таблице значений функции

Лап-ласа находим ( ) 4772,02 =Φ . Для отыскания числа n получаем уравнение .21,0 =n Отсюда искомое число деталей n =400. Смысл полученного результата таков: если взять достаточно большое

число проб по 400 деталей, то в 95, 44% этих проб относительная частота появления нестандартных деталей будет отличаться от постоянной вероятности p = 0,1 по абсолютной величине не более, чем на 0,03, т. е. относительная частота будет заключена в границах от 0,07 (0,1—0,03=0,07) до 0,13 (0,1+0,03=0,13).

Другими словами, число нестандартных деталей в 95,44% проб будет заключено от 28 (7% от 400) до 52 (13% от 400).

Если взять лишь одну пробу из 400 деталей, то с большой уверенностью можно ожидать, что в этой пробе будет нестандартных деталей не менее 28 и не более 52. Возможно, хотя и маловероятно, что нестандартных деталей окажется меньше 28, либо больше 52.

Более строгая формулировка утверждения о близости частоты и вероятности дана в теореме Бернулли (один из вариантов закона больших чисел), которую рассмотрим в последующих лекциях.

4. Представляет интерес схема Бернулли с малой вероятностью p появления события A в одном испытании и с большим количеством n испытаний. Пусть при большом n малая вероятность p такова, что np =λ , где λ — некоторое число. Вероятность ( )kPn в такой схеме Бернулли описывается следующей теоремой.

Т е о р е м а 3 (теорема Пуассона). Пусть n ∞→ , λ >0 постоянно и p = nλ

. Тогда в схеме Бернулли из n независимых испытаний, в каждом из которых вероятность наступления события A равна p , имеет место приближенное равенство

( )kPn = ( )kP ≈ λ−e !k

. (4) Комментарий к теореме 3. Обратим внимание на следующее

обстоятельство: вероятность наступления события A ровно k : раз не зависит от n , что выглядит неправдоподобно. Это можно объяснить так. Пусть n велико; увеличивая n в μ раз и уменьшая p во столько же раз (так что np не

изменяется), мы в самом деле имеем ( )pkPn , ≈ nРμ ( k , μp

) - Таким образом,

Page 45: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

45

независимость вероятности рассматриваемого события от n объясняется тем, что она вычислена в разных схемах Бернулли.

Теорему примем без доказательства. Пример. Учебник издан тиражом 100000 экземпляров. Вероятность того,

что учебник сброшюрован неправильно, равна 0,0001.Найти вероятность того, что тираж содержит ровно 5 бракованных книг.

Решение. По условию, n =100000, p =0,0001, k =5. События, состоящие в том, что книги сброшюрованы неправильно, независимы, число n велико, а вероятность p мала, поэтому воспользуемся формулой (4). Найдём λ :

λ = np =100000·0,0001=10.

P100000(5) = 5105

10−e = 510 · 120

000045,0 = 0,0375.

Вопросы для самопроверки 1.В чем заключаются затруднения возникающие при вычислении

вероятностей в схеме Бернулли при больших n? 2.Сформулируйте локальную теорему Муавра-Лапласа (теорему 1). 3.Приведите свойства функции ( )xϕ , которая упоминается в теореме 1. 4. Исходя из теоремы 1 прокомментируйте поведения вероятностей ( )kPn ,

при ∞→n и npk ≈ . 5.Напишите вид гауссовской функции. 6.В чем заключается сходство функции ( )kPn и гауссовской функции? 7.Сформулируйте интегральную теорему Муавра-Лапласа (теорему 2). 8.Как называется функция ( )xΦ , упоминаемая в теореме 2? Назовите ее

свойства. 9.Что представляет собой «трехсигмовый интервал»? 10.Сформулируйте теорему Пуассона. Прокомментируйте теорему.

Page 46: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

46

Упражнения 1.Вероятность появления успеха в каждом испытании равна

0,25. Какова вероятность, что при 300 испытаниях успех наступит: а) ровно 75 раз? б) ровно 85 раз?

2.В первые классы должно быть принято 200 детей. Определить вероятность того, что среди них окажется 100 девочек, если вероятность рождения мальчика равна 0,515.

3.Какова вероятность того, что в столбике из 100 наугад отобранных монет число монет, расположенных «гербом» вверх, будет от 45 до 55?

4.Производство дает 1% брака. Какова вероятность того, что из взятых на исследование 1100 изделий выбраковано будет на больше 17?

5.Всхожесть семян данного растения равна 0,9. Найти вероятность то-го, что из 900 посаженных семян число проросших будет заключено между 790 и 830.

6.Вероятность появления успеха в каждом из 625 независимых испытаний равна 0,8. Найти вероятность того, что частота появления успеха отклонится по абсолютной величине от его вероятности не более чем на 0,04.

7.Сколько нужно произвести опытов с бросанием монеты чтобы с вероятностью 0,92 можно было ожидать отклонение частоты выпадения «герба» от теоретической вероятности 0,5 на абсолютную величину, меньшую чем 0,01.

8.Вероятность появления успеха в каждом из 400 независимых испытаний равна 0,8. Найти такое положительное число ε , что с вероятностью 0,9876 абсолютная величина отклонения частоты появления успеха от его вероятности 0,8 не превысит ε .

9.Игральную кость бросают 80 раз. Найти приближенно границы, в которых число m , выпадений шестерки будет заключен с вероятностью 0,9973.

10.В банк отправлено 4000 пакетов денежных знаков. Вероятность того, что пакет содержит недостаточное или избыточное число денежных знаков, равна 0,0001. Найти вероятность того, что при проверке будет обнаружено: а) три ошибочно укомплектованных пакета; б) не более трех пакетов.

11.Строительная фирма, занимающаяся установкой летних коттеджей, раскладывает рекламные листки по почтовым ящикам. Прежний опыт работы компании показывает, что примерно в одном случае из двух тысяч следует заказ. Найти вероятность того, что при размещении 100тыс. листков число заказов будет: а) равно 48; б) находиться в границах от 45 до 55.

12.В вузе обучаются 3650 студентов. Вероятность того, что день рождения студента приходится на определенный день года, равна 1/365. Найти: а) наиболее вероятное число студентов, родившихся 1 мая, и вероятность такого события; б) вероятность того, что по крайней мере 3 студента имеют один и тот же день рождения.

Page 47: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

47

13.Учебник издан тиражом 10000 экземпляров. Вероятность того, что экземпляр учебника сброшюрован неправильно, равна 0,0001. Найти вероятность того, что: а) тираж содержит 5 бракованных книг; б) по крайней мере 9998 книг сброшюрованы правильно.

14.Известно, что в среднем 60% всего числа изготовляемых заводом телефонных аппаратов является продукцией первого сорта. Чему равна вероятность того, что в изготовленной партии окажется: а) 6 аппаратов первого сорта, если партия содержит 10 аппаратов; б) 120 аппаратов первого сорта, если партия содержит 200 аппаратов?

15.Вероятность того, что перфокарта набита оператором неверно, равна 0,1. Найти вероятность того, что: а) из 200 перфокарт правильно набитых будет не меньше 180; б) у того же оператора из десяти перфокарт будет неверно набитых не более двух.

16.Аудиторную работу по теории вероятностей с первого раза успешно выполняют 50% студентов. Найти вероятность того, что из 400 студентов работу успешно выполнят: а). 180 студентов, б) не менее 180 студентов.

17.При обследовании уставных фондов банков установлено, что пятая часть банков имеют уставный фонд свыше 100 млн. д.е.. Найти вероятность того, что среди 1800 банков имеют уставный фонд свыше 100 млн. д.е..: а) не менее 300; б) от 300 до 400 включительно.

18.Сколько нужно взять деталей, чтобы наивероятнейшее число годных деталей было равно 50, если вероятность того, что наудачу взятая деталь будет бракованной, равна 0,1?

19.Вероятность того, что пассажир опоздает к отправлению поезда, равна 0,01. Найти наиболее вероятное число опоздавших из 800 пассажиров и вероятность такого числа опоздавших.

Литература: [1]: c.57-63; [2]: c.70-75; [3]: c.96-98.

Page 48: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

48

Л Е К Ц И Я №6 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ВИДЫ. РАСПРЕДЕЛЕНИЕ

ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

П Л А Н:

1. Случайная величина. Дискретные и непрерывные случайные величины. 2. Биномиальное и пуассоновское распределения. 3. Операции над случайными величинами. К Л Ю Ч Е В Ы Е С Л О В А: Случайная величина, дискретная случайная величина, непрерывная

случайная величина, биномиальное распределение, пуассоновское распределение, зависимые и независимые случайные величины, степень, сумма, разность и произведения случайных величин.

Случайные события могут быть представлены через случайные величины.

Понятия «случайная величина» расширяет область применения методов теория вероятностей в решении практических задач. Поэтому понятие «случайной величины» является одним из важнейших понятий теории вероятностей.

1.Случайной величиной называется величина, которая в результате

испытания принимает то или иное значение. При этом заранее неизвестно, какое именно значение случайная величина примет в результате опыта.

Изучая случайную величину, прежде всего интересуются множеством ее возможных значений. Это может быть конечное множество чисел или счетное множество чисел, не имеющее предельной точки (например, множество Z целых чисел). Такие случайные величины называются дискретными.

Возможно, что множество значений случайной величины содержит целый отрезок числовой оси. Такие случайные величины называются непрерывными.

Примеры случайных величин: 1.1. Количество очков, выпавшее при бросании игральной кости;

множество значений {1, 2, 3, 4, 5, 6 }. 1.2. Количество наступлений события A в схеме Бернулли;

множество значений { 0, 1, 2, ..., n }. 1.3. Количество элементов, вышедших из строя в системе из n

элементов; множество значений { 0, 1, 2. ..., n }. 1.4. Время безотказной работы электролампы; множество значений [0 ,

T], где Т—максимальное время безотказной работы. 1.5. Расстояние между центром мишени и точкой попадания; множество

значений [0, L], где L — максимальное отклонение точки попадания от центра мишени.

1.6. Угол между начальным направлением и направлением остановившейся стрелки рулетки; множество значений [0, 2π ].

Page 49: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

49

Случайные величины в примерах 1-3 являются дискретными, а в примерах 4 - 6 - непрерывными.

Наиболее удобными для изучения являются дискретные случайные величины.

Определение 1.Распределением (законом распределения) дискретной случайной величины называется функция, сопоставляющая каждому возможному значению kх случайной величины её вероятность kр (0≤ kр ≤ 1),

причем ∑ kр = 1. Заметим, что « kp есть вероятность kх » означает то же самое, что « kp есть

вероятность события kxX = ». Соотношение ∑ kр = 1 вытекает из того факта,

что события ,...,...,, 21 nxXxXxX === (*) попарно несовместны, а их сумма есть событие достоверное (при каждом

осуществлении опыта величина X принимает одно и только из своих значений, т.е.наступает одно и только одно из событий (*), т.е.

( )∑ ∑ === .1kk pxXp ) Распределение дискретной случайной величины с конечным числом n

возможных значений удобно задавать таблицей

х1 х2 х3 х4 … xn

p1 p2 p3 p4 … pn Так, для случайной величины из примера 1 таблица

распределения имеет вид

1 2 3 4 5 6 1/6 1/6 1/6 1/6 1/6 1/6

Для случайной величины из примера 2 при n = 10, р = 1/2 таблица

распределения такова (см. пример 2. 4 из лекции № 4 ): Распределение полностью характеризует случайную величину, указывая

возможные значения и вероятности, с которыми эти значения появляются в результате испытаний. Для первого из рассмотренных распределений все

0

1

2

3

4

5

6

7

8

9

10

10241

102410

102445

1024120

1024210

1024252

1024210

1024120

1024

45 1024

10

1024

1

Page 50: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

50

значения равновероятны, а для второго значения резко различаются по своим вероятностям: значение 10 имеет вероятность, в 252 раза меньшую, чем значение 5. Это, в частности, означает, что случайная величина принимает значение 5 в 252 раза чаще, чем 10.

Отметим, что если при рассмотрении дискретных случайных величин мы могли ограничиться событиями, представляющимися в виде суммы конечного или счетного множества элементарных событий kxX = то при переходе к непрерывным случайным величинам нам следует прежде всего расширить класс событий. В необходимости такого расширения можно убедиться на примере. Пусть с испытательной целью определяется полное время работы электрической лампы; для этого выпущенную заводом лампу эксплуатируют без перерыва до выхода ее из строя. Результатом такого испытания является величина X -срок службы лампы. Очевидно, эта величина является случайной – предсказать заранее ее значение невозможно. Элементарным событием в данном примере будет любое событие вида aX = , где a - неотрицательное число. Однако в отличие от дискретного случая каждое отдельно взятое элементарное событие не представляет теперь большого интереса. Действительно возможных значений для X существует несчетное множество, между тем в любой серии испытаний мы имеем дело всегда с конечным числом ламп. Поэтому ясно, что данное фиксированное значение a в серии испытаний, как правило, не будет встречаться вообще или же будет наблюдаться чрезвычайно редко. Другими словами, вероятность события aX = , будет равна нулю.

В то же время события, выражаемые при помощи неравенств скажем, 1000<X (лампа перегорела, не прослужив 1000 часов), представляются

значительно более важными. Вероятности таких событий дают существенную информацию о распределении значений величины X и тем самым – о качестве ламп. Разумеется, вслед за событиями такого рода мы должны привлечь к рассмотрению и их комбинации, получаемые при помощи конечного или счетного числа операций сложения, умножения и перехода к противоположному событию. В первую очередь, с помощью такого рода событий можно ввести понятия распределения непрерывной случайной величины. Рассматривают два вида распределений непрерывной случайной величины: интегральное и дифференциальное; их называют также интегральной и дифференциальной функциями распределения, интегральным и дифференциальным законами распределения.

Обсуждению понятия распределения непрерывной функции посвящена лекция №8.

2. В этом пункте ознакомимся с двумя важными примерами дискретных

случайных величин. Соответствующие им законы носят названия: биномиальное распределение, пуассоновское распределение.

Page 51: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

51

Определение 2. Распределение случайной величины X , равной количеству наступлений события A в схеме Бернулли из n испытаний, называется биномиальным распределением.

В этом распределении значению k ∈{0, 1, 2, ..., n } случайной величины X соответствует вероятность ( )kPn =

knС knkqp −

, где p — вероятность наступления события A в одном испытании, pq −= 1 .

Комментарий к определению 2. Биномиальное распределение дискретно (т. е. является распределением

дискретной случайной величины X ). Биномиальное распределение широко используется в теории и практике

статистического контроля продукции, при описания функционирования систем массового обслуживания, в теории стельбы и в других областях.

Примером биномиального распределения служит последняя таблица на стр.2. Здесь n =10, p =1/2.

Определение 3. Распределение случайной величины X , принимающей

значения k ∈{0, 1, 2, ...} с вероятностями !kak

ae− , где a >0 - некоторый пара-метр, называется пуассоновским распределением (или распределением Пуассона}.

Комментарий к определению 3. Пуассоновское распределение дискретно (т. е. является распределением

дискретной случайной величины. По пуассоновскому распределены, например, число рождения четверней,

число сбоев на автоматической линии, число отказов сложной системы в «нормальном режиме», число «требований на обслуживание», поступивших в единицу времени в системах массового обслуживания и др.

3. Операции над случайными величинами. Вначале введем понятие независимости случайных величин. Две случайные величины называются независимыми, если закон

распределения одной из них не меняется от того, какие возможные значения приняла другая величина.

Так, если дискретная случайная величина X может принимать значения ix ( )ni ,...,2,1= , а случайная величина Y - значения jy ( )mj ,...,2,1= , то независимость дискретных случайных величин X и Y означает независимость событий ixX = и jyY = при любых ni ,...,2,1= и mj ,...,2,1= . В противном случае случайные величины называются зависимыми.

Например, если имеются билеты двух различных денежных лотерей, то случайные величины X и Y , выражающие соответственно выигрыш по каждому билету (в денежных единицах), будут независимыми, так как при любом выигрыше по билету одной лотереи (например, при ixX = ) закон распределения выигрыша по другому билету (Y ) не изменится. Если же

Page 52: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

52

случайные величины X и Y выражают выигрыш по билетам одной денежной лотереи, то в этом случае X и Y являются зависимыми, ибо любой выигрыш по одному билету ( ixX = ) приводит к изменению вероятностей выигрыша по другому билету (Y ), т.е. к изменению закона распределения Y .

Определим математические операции над дискретными случайными величинами.

Пусть даны две случайные величины - X и Y :

х1 х2 х3 х4 … xn

p1 p2 p3 p4 … pn

y1 y2 y3 y4 … ym

p1 p2 p3 p4 … pm Произведением kX случайной величины X на постоянную величину k

называется случайная величина, которая принимает значения ikx с теми же вероятностями ip .

−m й степенью случайной величины ,X т.е. mX , называется случайная величина, которая принимает значения

mix с теми же вероятностями ip .

Пример3.1. Дана случайная величина X :

ix -2 1 2 ip 0,5 0,3 0,2

Найти закон распределения случайных величин: а) ;3XY = б) 2XZ = . Решение. а) Значения случайной величины Y будут: 3(-2)=-6; 3·1=3; 3·2=6

с теми вероятностями 0,5; 0,3; 0,2, т.е.

iy -6 3 6 ip 0,5 0,3 0,2

б) Значения случайной величины Z будут: (-2)2=4, 12=1, 22=4 с теми же

вероятностями 0,5; 0,3; 0,2. Так как значение Z = 4 может быть получено возведением в квадрат значений (-2) с вероятностью 0,5 и (+2) с вероятностью 0,2, то по теореме сложения ( ) == 4ZP 0,5+0,2 - 0,7. Итак, закон распределения случайной величины Z :

Page 53: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

53

iz 1 4

ip 0,3 0,7

Суммой (разностью или произведением) случайных величин X и Y

называется случайная величина, которая принимает все возможные значения вида ji yx + ( )jiji yxилиyx ⋅− где ni ,...,2,1= ; mj ,...,2,1= , с вероятностями ijp того, что случайная величина X примет значение ix , а Y — значение jy :

ijp = ( )( )[ ]ji yYxXP == Если случайные величины X и Y независимы, т.е. независимы любые

события ixX = , jyY = , то по теореме умножения вероятностей для независимых событий

ijp = ( ) ( ) jiji ppyYPxXP ⋅==⋅= . Замечание. Приведенные выше определения операций над дискретными

случайными величинами нуждаются в уточнении, так как в ряде случаев одни и

те же значения jijimi yxyxx ,, ± могут получаться разными способами при раз-

личных значениях ix , jy , вообще говоря, с различными вероятностями ji pp , . Замечание. Выше ввели понятие независимости случайных величин X и Y ,

основанное на независимости связанных с ними событий ixX = и jyY = при любых i и j . Ниже можно дать общее определение независимых непрерывных случайных величин, основанное на независимости событий xX < и yY < . Напомним, что необходимость введения события такого рода мы обсудили в конце п.1.

Определение 4. Непрерывные величины X и Y независимы, если независимы события

xX < и yY < где x и y две любые действительные числа. Иначе говоря, величины X и Y независимы, если при любых x и y

справедливо равенство ( ) ( ) ( )yYPXXPyYxXP <⋅<=<< , Здесь ограничимся только этим определением. В дальнейшем после

введения понятия функции распределения можно будет возвращаться к дальнейшему обсуждения этого и других вопросов.

Page 54: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

54

Вопросы для самопроверки. 1.Что называется случайной величиной? 2.Приведите примеры случайных величин. 3.Какие бывают случайные величины? 4.Что представляют возможные значения: а) дискретной случайной

величины?; б) непрерывной случайной величины? 5.Что называется распределением (законом распределения) дискретной

случайной величины? 6.В чем заключается необходимость расширения класса событий вида kxX = , при рассмотрении непрерывных случайных величин? 7.Что представляет собой биномиальное распределение? 8. Что представляет собой пуассоновское распределение? 9.Дайте определения зависимости и независимости: а) дискретных

случайных событий; б) непрерывных случайных событий. 10.Какие операции можно ввести над дискретными случайными

событиями? Дайте определение каждой операции.

Page 55: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

55

Упражнения 1. Вероятность поражения вирусным заболеванием куста земляники

равна 0,2. Составить закон распределения числа кустов земляники, зараженных вирусом, из четырех посаженных кустов.

2. Стрелок ведет стрельбу по цели с вероятностью попадания при каждом выстреле 0,2. За каждое попадание он получает 5 очков, а в случае промаха очков ему не начисляют. Составить закон распределения числа очков, полученных стрелком за 3 выстрела.

3. Возможные значения случайной величины таковы: 8,5,2 321 === xxx . Известны вероятности первых двух возможных значений: 1p = 0,4, 2p = 0,15. Найти вероятность 3x .

4. Игральная кость брошена 3 раза. Написать закон распределения числа появлений шестерки.

5. Составить закон распределения вероятностей числа появлений события Aв трех независимых испытаниях, если вероятность появления события в каждом испытании равна 0,6.

6. Прядильщица обслуживает 1000 веретен. Вероятность обрыва нити на одном веретене в течение одной минуты равна 0,004. Найти вероятность того, что в течение одной минуты обрыв произойдет в пяти веретенах.

7. Найти среднее число опечаток на странице рукописи, если вероятность того, что страница рукописи содержит хотя бы одну опечатку, равна 0,95. Предполагается, что число опечаток распределено по закону Пуассона.

Указание: задача сводится к отысканию параметра λ из уравнения 5=−λe . 8. Коммутатор учреждения обслуживает 100 абонентов. Вероятность

того, что в течение одной минуты абонент позвонит на коммутатор, равна 0,02. Какое из двух событий вероятнее: в течение одной минуты позвонит 3 абонента; позвонит 4 абонента?

9. Рукопись объемом в 1000 страниц машинописного текста содержит 1000 опечаток. Найти вероятность того, что наудачу взятая страница содержит: а) хотя бы одну опечатку, б) ровно 2 опечатки, в) не менее двух опечаток. Предполагается, что число опечаток распределено по закону Пуассона.

10.В рекламных целях торговая фирма вкладывает в каждую десятую единицу товара денежный приз размером 1 тыс. д.е.. Составить закон распределения случайной величины-размера выигрыша при пяти сделанных покупках.

11.Клиенты банка, не связанные друг с другом, не возвращают кредиты в срок с вероятностью 0,1. Составить закон распределения числа возвращенных в срок кредитов из 5 выданных.

Page 56: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

56

12.Контрольная работа состоит из трех вопросов. На каждый вопрос приведено 4 ответа, один из которых правильный. Составить закон распределения числа правильных ответов при простом угадывании.

13.В среднем по 10% договоров страховая компания выплачивает страховые суммы в связи с наступлением страхового случая. Составить закон распределения числа таких договоров среди наудачу выбранных четырех.

14.В билете три задачи. Вероятность правильного решения первой задачи равна 0,9, второй — 0,8, третьей —0,7. Составить закон распределения числа правильно решенных задач в билете.

15.Вероятность попадания в цель при одном выстреле равна 0,8 и уменьшается с каждым выстрелом на 0,1.Составить закон распределения числа попаданий в цель, если сделано три выстрела.

16.Произведено два выстрела в мишень. Вероятность попадания в мишень первым стрелком равна 0,8, вторым —0,7, Составить закон распределения числа попаданий в мишень. (Каждый стрелок делает по одному выстрелу).

17.Найти закон распределения числа пакетов трех акций, по которым владельцем будет получен доход, если вероятность получения дохода по каждому из них равна соответственно 0,5, 0,6, 0,7.

18.Из пяти гвоздик две белые. Составить закон распределения и найти функцию распределения случайной величины, выражающей число белых гвоздик среди двух одновременно взятых.

19.Из 10 телевизоров на выставке 4 оказались фирмы «Сони». Наудачу для осмотра выбрано 3. Составить закон распределения числа телевизоров фирмы «Сони» среди 3 отобранных.

20.Среди 15 собранных агрегатов 6 нуждаются в дополнительной смазке. Составить закон распределения числа агрегатов, нуждающихся в дополнительной смазке, среди пяти наудачу отобранных из общего числа.

Литература: [1]: c.64-74; [2]: c.86-94, c.140-150; [3]: c.37-42.

Page 57: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

57

Л Е К Ц И Я №7 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ДИСКРЕТНОЙ

СЛУЧАЙНОЙ ВЕЛИЧИНЫ

П Л А Н:

1.Математическое ожидание и дисперсия случайной величины. 2. Математические ожидания и дисперсии биномиального и

пуассоновского распределений. 3. Свойства математического ожидания, дисперсии и

среднеквадратического отклонения. 4. Ковариация и коэффициент корреляции. К Л Ю Ч Е В Ы Е С Л О В А: Математическое ожидание, дисперсия, среднеквадратическое отклонение,

ковариация, коэффициент корреляции. Из предыдущей лекции знаем, что исчерпывающей характеристикой

дискретной случайной величины является ее закон распределения. Но далеко не в каждой задаче нужно знать весь закон распределения. В ряде случаев можно обойтись одним или несколькими числами, отражающими наиболее важные особенности закона распределения: например, числом имеющим смысл «среднего значения» случайной величины, или же числом, характеризующим средний размер отклонения случайной величины от своего среднего значения, и т.д. Такого рода числа называют числовыми характеристиками дискретной случайной величины (или соответствующего закона распределения). Их роль в теории вероятностей чрезвычайно велика; многие задачи удается решить до конца, оставляя в стороне законы распределения и оперируя только числовыми характеристиками.

1.Наиболее важное среди числовых характеристик занимает так

называемое математическое ожидание Определение 1.Пусть Х- дискретная случайная величина, закон

распределения которой имеет вид

x1 х2 … хn р1 р2 … рn

(1) (хi — значения величины X, а pi - соответствующие вероятности; i = 1, 2,

..., n). Математическим ожиданием дискретной случайной величины X называется число

MX = ∑=

n

k 1 xkpk = x1p1 + x2p2 + … + xnpn. (2) Математическое ожидание дискретной случайной величины X имеет

следующий вероятностный смысл.

Page 58: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

58

Пусть проведено N испытаний случайной величины X, в результате чего получены значения х1, х2,...,хN. Среднее арифметическое этих чисел

Nxxx N+++ ...21

(3) при больших n близко к МХ. Строгая формулировка и доказательство

этого утверждения приведем в лекции №.9 (теорема Чебышева). Здесь мы приведем нестрогое рассуждение, поясняющее причины такого

явления. Если величина X дискретна и ее распределение имеет вид (1), то в результате N испытаний мы получим р1N - раз значение х1, р2N раз — значение х2 ,..., рnN раз — значение хn; действительно, если вероятность события А равна р, то в N испытаниях событие А наступит примерно Nр раз (согласно статистическому определению вероятности; см. лек.№1). После N испытаний сумма значений будет приближенно равна x1р1N+x2р2N+ ... +xnрnN. Среднее арифметическое полученных в результате испытаний значений равно

∑=

=+++ n

kkk

nn pxN

NpxNpxNpx1

2211 ...

, что совпадает с (2). В связи с этим математическое ожидание называют также средним

значением случайной величины. Отметим еще раз, что математическое ожидание является (постоянным, не

зависящим от опыта) числом, характеризующим определенное свойство случайной величины, а именно — устойчивость среднего арифметического полученных в результате испытаний значений.

Эта характеристика является важной, но далеко не полной. Следующее понятие также сопоставляет случайной величине некоторое

число, характеризующее определенное свойство этой величины. Определение 2. Пусть X—дискретная случайная величина с

распределением (1). Дисперсией дискретной случайной величины X называется число

DX = ∑=

−n

kkk pMXx

1

2)(, (4)

где МХ—математическое ожидание случайной величины X. Комментарии к определению 2 . 1) Данное выше определения можно представить следующим образом:

дисперсия случайной величины X есть математическое ожидание случайной величины

2)( MXX − . Действительно, для дискретной случайной величины X с распределением

(1) случайная величина 2)( MXX − принимает значения

222

21 )(,...,)(,)( MXXMXXMXX n −−− с вероятностями р1, р2, ..., рn. Таким образом,

правая часть равенства (4) представляет собой математическое ожидание величины

2)( MXX − .

Page 59: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

59

2) Истолкование дисперсии случайной величины как математического ожидания квадрата отклонения X от МХ позволяет описать вероятностный смысл дисперсий следующим образом.

Дисперсия характеризует среднее значение квадрата отклонения значений X от ее математического ожидания. Чем больше эти отклонения по абсолютной величине, тем больше дисперсия, и обратно. Дисперсия измеряет меру рассеяния значений случайной величины относительно математического ожидания X.

3) Справедливы следующие формулы, упрощающие вычисление дисперсии:

( )∑ ∑−=22

kkkk pxpxDX , (5) В формуле (5) X — дискретная случайная величина с распределением

(1).. 4) Квадратный корень из дисперсии называется среднеквадратическим

отклонением и обозначается Xσ ; таким образом, DXX =σ . Среднеквадратическое отклонение, как и дисперсия, является мерой рассеяния значений случайной величины относительно математического ожидания. Среднеквадратическое отклонение измеряется в тех же единицах, что и X, в то время как дисперсия имеет измерение 2X . Поэтому иногда предпочтительнее иметь дело с Xσ , а не с DX .

Примеры 1.1. Пусть m количество очков при бросании игральной кости. Распределение этой величины имеет вид

m 1 2 3 4 5 6

p 61

61

61

61

61

61

27

616

615

614

613

612

611 =⋅+⋅+⋅+⋅+⋅+⋅=Mm

. Дисперсию величины m вычислим по формуле (7):

( )1235

12147182

27

691

6136

6125

6116

619

614

611

22 =

−=⎟

⎠⎞

⎜⎝⎛−=−⋅+⋅+⋅+⋅+⋅+⋅= MmDm

. 2. Пусть l—количество угаданных цифр при игре в спортлото.

Распределение этой величины таково:

l

0

1

2

3

4

5

6

p

p0 p1 p2 p3 p4 p5 p6

где p0 = 0,4006, p1 = 0,4241, p2 = 0,1515, p3 = 0,0224, p4 = 0,0014, p5 =

0,00003 ,p6= 0,0000001.

Page 60: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

60

Согласно формуле (2), математическое ожидание величины l составляет Ml = 0,4006·0+0,4241·1+0,1515·2+ 0,0224·3+= 0,0014·4+ 0,00003·5+

0,0000001·6= 0,7999. Используя формулу (5), вычислим дисперсию величины DX=0,4006·0+0,4241·1+0,1515·4+ 0,0224·9+= 0,0014·16+ 0,00003·25+

+0,0000001·36 - (0,799)2=0,6143 2. 1.Биномиальное распределение (см. лек.№6);X=k-количество

наступлений события А в схеме Бернулли из n испытаний, р – вероятность наступления события А в одном испытании, q=1-р.

Справедливы формулы .,, npqqnpqDknpmk === σ (6)

2. Пуассоновское распределение (см.лек.№6); значение X=s, ,...}2,1,0{∈s

принимается с вероятностью !)(

saesP

sa−=

. Справедливы формулы

∑∞

=

− ==0 !s

sa a

saseMs

; (7)

∑∞

=

− =−=0

22 )(!s

sa aMs

saesDs

; as =σ . (8) Таким образом, параметр а пуассоновского распределения равен

математическому ожиданию и дисперсии пуассоновской случайной величины. 3. Свойства математического ожидания. 1°. MYMXYXM +=+ )( для произвольных случайных величин X,Y

(зависимых или независимых). 2°. MXXM λλ =)( для любой случайной величины X и произвольного

числаλ . 3 °. М (ХY) = МХ · М Y для независимых случайных величин Х и Y. Свойства дисперсии. 1°. ,0=DC т. е. дисперсия постоянной равна нулю (постоянное число

формально можно рассматривать как случайную величину, принимающую единственное значение С с вероятностью единица).

2°. DXXD 2)( λλ = для любой случайной величины X и произвольного числаλ .

3°. DYDXYXD +=+ )( для независимых случайных величин X иY. Свойства среднеквадратического отклонения. 1°. 0=Сσ , т. е. среднеквадратическое отклонение постоянной равно нулю.

2°. XX σλλσ =)( для любой случайной величины X и произвольного числа λ .

Page 61: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

61

3°. 22 )()()( YXYX σσσ +=+ для независимых случайных величин X и

Y. Эти свойства непосредственно вытекают из свойств дисперсии и

определения среднеквадратического отклонения. Комментарий к свойствам МХ, XDX σ, . 1) Свойство 1° математического ожидания является на первый взгляд

удивительным. Это свойство справедливо для произвольной пары случайных величин X, Y (безразлично, зависимых или независимых). Как известно, в случае зависимых величин совместное распределение пары не определяется распределением слагаемых. Формула М(Х+Y)=M(Х) + М(Y) определяет М(Х+Y) без использования закона распределения Х+Y (он в принципе неизвестен). Оказывается, что для вычисления М(X+Y) достаточно иметь (неполную) информацию о распределении Х+Y, которую дают распределения X и Y.

2) Свойство 3° математического ожидания справедливо лишь для независимых случайных величин. Естественно измерять «степень зависимости» между X и Y разностью М(ХY) - MX·MY (которая равна нулю в том случае, когда величины независимы). На этой идее основаны понятия ковариации и коэффициента корреляции (см. ниже п.4).

3) Из свойства математического ожидания и дисперсии в качестве следствия вытекает важный теоретико-вероятностный факт, лежащий в основе законов больших чисел (см.лекцию №9, теорема Чебышева).

Пусть nXXX ,...,, 21 — независимые случайные величины с одинаковыми математическими ожиданиями МХ1 = а и среднеквадратическим отклонением

σσ =iX т.е. 2σ=iDX . Тогда для случайной величины

( )nXXXn

X ,...,,121=

справедливы равенства

MX=a, DX=D( )⎟

⎠⎞

⎜⎝⎛

nXXXn

,...,,121

= ∑ ==

nnnDX

n i

2

2

2

2

1 σσ

, .

nX σσ =

Таким образом, дисперсия случайной величины X уменьшается с ростом n ,

рассеяние значений X относительно МХ уменьшается, сама величина X теряет случайный характер.

4. Как уже было отмечено, с помощью числа k(X,Y)=М(ХY)-MX·MY (9) можно измерять степень зависимости случайных величин X и Y. Свойство

3° математического ожидания означает, что k(X,Y)=0 для независимых случайных величин. Естественно считать, что чем больше k(X,Y) по абсолютной величине, тем больше степень зависимости. Так как k(X,Y) имеет размерность ХY, то при изменении единицы масштаба его значение будет подвержено изменению. Чтобы избежать этого, введем коэффициент

YXMYMXXYM

YXYXkYXr

σσσσ ⋅⋅−

=⋅

=)(),(),(

(10)где YX σσ , —среднеквадратические отклонения случайных величин X, Y.

Page 62: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

62

Коэффициент ( )YXk , является безразмерным: он не зависит от единиц измерения величин X и Y.

Определение 3. Пусть X, Y—случайные величины, ХY- их произведение, МХ, МY, М(ХY) — математические ожидания этих величин, σ Х, σ Y—среднеквадратические отклонения величин X и Y. Коэффициент k(X,Y), определенный формулой (9), называется коэффициентом корреляции, а ко-эффициент r(Х,Y), определенный формулой (10),- коэффициентом корреляции.

Для теории вероятностей и ее приложений большее значение имеет коэффициент корреляции (основная причина этого — его безразмерность).

Свойства коэффициента корреляции 1°. r(Х,Y) = 0 для независимых случайных величин X и Y. 2°. -1≤ r(Х,Y)≤ 1 для любых двух случайных величин X и Y.

3°. Если ),( YXr = 1, то случайные величины X и Y связаны соотношением Y=аХ+b, (11) где а и b — некоторые постоянные.

Обратно, если X и Y связаны условием (11), то ),( YXr =0(r(Х,Y) =0 при а<0 и r(Х,Y)=1 при а>0).

Комментарий к свойствам коэффициента корреляции. Свойства 1°— 3° означают, что коэффициент корреляции измеряет степень

зависимости случайных величин X, Y в следующем смысле. Для независимых величин X и Y коэффициент корреляции r(Х,Y) равен нулю, а крайние воз-можные значения r(X, Y), равные 1 и - 1 , соответствуют функциональной зависимости между X и Y, имеющей вид Y=аХ+b; функциональная зависимость между X и Y — самый тесный вид зависимости. В общем случае независимость величин X и Y означает, что условное распределение величины Y при заданном значении Х=Х0 совпадает с безусловным распределением Y; если же Y является функцией от X, то при Х=Х0 она принимает вполне определенное значение, так что при условии Х=Х0 величина Y даже не является случайной.

Зависимостям, близким к зависимости вида Y=аХ+b соответствуют значения r(Х,Y) близкие к 1 или — 1 (при а>0 или a<0 соответственно). Если величины X и Y слабо зависимы, то значения r(Х,Y) близки к нулю.

Следует иметь в виду, что существуют зависимые величины X и Y, коэффициент корреляции которых равен нулю; их называют некоррелированными.

Если величины X и Y связаны нелинейной функциональной зависимостью, то r(Х,Y) может отличаться от 1 и -1.

Итак, коэффициент корреляции измеряет степень линейной зависимости между случайными величинами X и Y.

Page 63: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

63

Вопросы для самопроверки 1. Разъясните необходимость введения числовых характеристик для

случайных величин. 2. Дайте определение понятия математического ожидания. 3. Какой вероятностный смысл имеет математическое ожидание? 4. Дайте определение дисперсии. 5. Какой вероятностный смысл имеет дисперсия? 6. Что называется среднеквадратичным отклонением? 7. Чему равны числовые характеристики: а) биномиального

распределения? б) пуассоновского распределения? 8. Приведите свойства математического ожидания и

прокомментируйте их. 9. Приведите свойства математической дисперсии и

прокомментируйте их. 10. Приведите свойства среднеквадратического отклонения и

прокомментируйте их. 11. Что представляет собой коэффициент корреляции? 12. Приведите свойства коэффициента корреляции и

прокомментируйте их.

Page 64: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

64

Упражнения 1.Найти математическое ожидание и дисперсию случайных величин из

упражнений 2, 10-16 лекции №5. 2.Вероятность того, что в библиотеке необходимая студенту книга

свободна, равна 0,3. Составить закон распределения числа библиотек, которые посетит студент, если в городе 4 библиотеки. Найти математическое ожидание и дисперсию этой случайной величины.

3.Экзаменатор задает студенту вопросы, пока тот правильно отвечает. Как только число правильных ответов достигнет четырех либо студент ответит неправильно, экзаменатор прекращает задавать вопросы. Вероятность правильного ответа на один вопрос равна 2/3. Составить закон распределения числа заданных студенту вопросов.

4. Торговый агент имеет 5 телефонных номеров потенциальных покупателей и звонит им до тех пор, пока не получит заказ на покупку товара. Вероятность того, что потенциальный покупатель сделает заказ, равна 0,4. Составить закон распределения числа телефонных разговоров, которые предстоит провести агенту. Найти математическое ожидание и дисперсию этой случайной величины.

5.Каждый поступающий в институт должен сдать 3 экзамена. Вероятность успешной сдачи первого экзамена 0,9, второго — 0,8, третьего — 0,7. Следующий экзамен поступающий сдает только в случае успешной сдачи предыдущего. Составить закон распределения числа экзаменов, сдававшихся поступающим в институт. Найти математическое ожидание этой случайной величины.

6.Охотник, имеющий 4 патрона, стреляет по дичи до первого попадания или до израсходования всех патронов. Вероятность попадания при первом выстреле равна 0,6, при каждом последующем — уменьшается на 0,1. Необходимо: а) составить закон распределения числа патронов, израсходованных охотником; б) найти математическое ожидание и дисперсию этой случайной величины.

7.Из поступивших в ремонт 10 часов 7 нуждаются в общей чистке механизма. Часы не рассортированы по виду ремонта. Мастер, желая найти часы, нуждающиеся в чистке, рассматривает их поочередно и, найдя такие часы, прекращает дальнейший просмотр. Составить закон распределения числа просмотренных часов. Найти математическое ожидание и дисперсию этой случайной величины.

8.Имеются 4 ключа, из которых только один подходит к замку. Составить закон распределения числа попыток открывания замка, если испробованный ключ в последующих попытках не участвует. Найти математическое ожидание, дисперсию и среднеквадратическое отклонение этой случайной величины.

9.Одна из случайных величин задана законом распределения

Page 65: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

65

xi 1 0 1

pi 0,1 0,8 0,1 а другая имеет биномиальное распределение с параметрами n=2, р=0,6.

Составить закон распределения их суммы и найти математическое ожидание этой случайной величины.

10.Случайные величины X ИY независимы и имеют один и тот же закон распределения:

Значение 1 2 4

Вероятность 0,2 0,3 0,5

Составить закон распределения случайных величин 2X и Х+ Y. Убедиться в том, что 2Х≠ Х+Y, но М(2Х) = М(Х+Y).

11.Два стрелка сделали по два выстрела по мишени. Вероятность попадания в мишень для первого стрелка равна 0,6, для второго — 0,7. Необходимо: а) составить закон распределения общего числа попаданий; б) найти математическое ожидание и дисперсию этой случайной величины.

12.Пусть X, Y, Z - случайные величины: X – выручка фирмы, Y - ее затраты, Z=X-Y - прибыль. Найти распределение прибыли Z, если затраты и выручка не зависимы и заданы распределениями:

X:

Y:

13.Пусть X - выручка фирмы в долларах. Найти распределение выручки в

cумах Z=Х·Y в пересчете по курсу доллара Y,если выручка X не зависит от курса Y, а распределения Х и Y имеют вид X:

14.Сделано два высокорисковых вклада: в 15 тыс.д.е.- в компанию В. Компания А обещает 50% годовых, но может «лопнуть» с вероятностью 0,2. Компания В обещает 40% годовых, но может «лопнуть» с вероятностью 0,15. Составить закон распределения случайной величины — общей суммы прибыли

xi 1000 2000 pi 0,7 0,3

Y: xi 890 976 pi 0,4 0,6

Page 66: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

66

(убытка), полученной от двух компаний через год, и найти ее математическое ожидание.

15.Дискретная случайная величина X задана рядом распределения X: Найти условную вероятность события Х<5 при условии, что Х>2. 16.Случайные величины Х1, X2 независимы и имеют одинаковое

распределение

xi 0 1 2 3 pi 1/4 1/4 1/4 1/4

Найти вероятность события Х1+ X2 > 2. Литература: [1]: c .75-95; [2]: c.94-103, c.140-150; [3]: c.42-51.

xi 1 2 3 4 5 pi 0,2 0,3 0,3 0,1 0,1

Page 67: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

67

Л Е К Ц И Я №8 ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНОЙ

ВЕЛИЧИНЫ.ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

П Л А Н:

1. Интегральная и дифференциальная функции распределения. 2.Числовые характеристики непрерывных случайных величин. 3.Числовые характеристики некоторых основных непрерывных

случайных величин. К Л Ю Ч Е В Ы Е С Л О В А: Непрерывная случайная величина, интегральная функция распределения,

дифференциальная функция распределения (дифференциальный закон распределения), плотность вероятности случайной величины, нормальное, равномерное и показательное распределения.

В лекции №6 мы обсуждали вопрос о необходимости введения событий вида aX < и с помощью примеров убедились, что вероятности таких событий дают существенную информацию о распределении значений непрерывных величин X .

1.Теперь перейдем к обсуждению понятия распределения непрерывной

случайной величины. Рассматривают два вида распределений непрерывной случайной

величины: интегральное и дифференциальное; их называют также интегральной и дифференциальной функциями распределения, интегральным и дифференциальным законами распределения.

Определение 1. Интегральной функцией распределения непрерывной случайной величины X называется функция переменной t , выражающая вероятность того, что X в результате испытания примет значение, меньшее, чем число t .

Комментарии к определению 1. 1) Если вероятность того, что случайная величина X примет значение,

меньшее чем t, обозначить через P ( X < t ), то интегральная функция распреде-ления есть функция F ( t ) переменной t , определенная равенством

F ( t ) = P ( X < t ). (1) 2) Для непрерывной случайной величины X невозможно задать

распределение по аналогии с дискретной случайной величиной. Действительно, для каждой непрерывной случайной величины X вероятность того, что X примет заданное значение x , как правило, равна нулю. Это видно из следующих рассуждений. Пусть все значения случайной величины принадлежат отрезку [ ]ba, . Разобьем этот отрезок на nравных частей iΔ { i =1, 2, … , n , n —велико) и обозначим через ip вероятность того, что случайная

Page 68: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

68

величина X примет значение в интервале iΔ .Будем предполагать, что близкие значения величины X имеют близкие вероятности. При этом предположении каждое значение, принадлежащее интервалу iΔ (I =1, 2, ..., n), имеет вероятность, равную нулю. Действительно, разделим интервал iΔ на N частей

jΔ′ (j = 1, 2, ..., N ); тогда вероятность того, что случайная величина X примет

значение из jΔ′ , равна (приближенно) Nрi

, а вероятность P (х) того, что

случайная величина X примет значение, равное x, меньше чем Np j

при любом N. Отсюда следует, что Р(х) = 0.

Бессодержательно говорить о вероятности появления данного конкретного значения случайной величины (такие вероятности для всех непрерывных случайных величин, как правило, равны нулю и поэтому не дают никакой информации о случайной величине).

Имеет смысл рассматривать и изучать вероятности P ( ≤α х< β ) того, что значение непрерывной случайной величины X попадет в заданный интервал [α , β ). Такие вероятности, как правило, не равны нулю и содержат нужную информацию о случайной величине. Функция F ( t ) выражает вероятность того, что случайная величина X примет значение на множестве (-∞, t ). Отсюда легко получить вероятности вида P ( ≤α X < β ).

Свойства интегральной функции распределения 1°. Справедливы равенства F (-∞) = 0, F (+∞) = 1. (2) В самом деле, событие X < -∞ невозможно, его вероятность F (-∞) = 0;

событие X <+ ∞ достоверно, его вероятность F (+∞) = 1. 2°. Функция F ( t )- монотонно неубывающая, т. е. F ( t 1) ≤ F( t 2) при t 1<

t 2. 3°. Вероятность P ( t 1≤ X < t 2) того, что случайная величина X примет

значение в полуинтервале [ t 1, t 2), равна F ( t 1) - F ( t 2) , т.е. P ( t 1≤Х< t 2) = F( t 1) - F( t 2) . (3) Действительно, очевидно, что (-∞, t 1]∪ ( t 1,t2]=(-∞, t 2] (рис.1). Согласно

теореме сложения вероятностей, имеем F (t1)+ P ( t 1≤ X < t 2)= F ( t 2), (4) где, F ( t 1) и F ( t 2) по определению равны вероятностям того, что X

примет значение соответственно в (-∞, t 1] и (-∞, t 2]. Отсюда непосредственно вытекает равенство (3).

Page 69: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

69

Pис.1 Определение 2. Пусть X -непрерывная случайная величина и F ( t )-ее

интегральная функция распределения; пусть, кроме того, F (t) дифференцируема всюду, за исключением, быть может, конечного числа точек.

Производная ( )tF /

интегральной функции распределения называется дифференциальной функцией распределения (дифференциальным законом распределения) непрерывной случайной величины X .

Комментарии к определению 2.

1) Значения функции ( )tf = ( )tF /

называются плотностью вероятности случайной величины X .Такое название объясняется следующими обсто-ятельствами.

По определению производной,

( )tf = 0lim→Δt t

tFttFΔ

−Δ+ )()(

(5) Выражение F ( t + Δ t ) - F ( t ) в силу (3) равно вероятности того, что

X примет значение в интервале [ t , t + Δ t ); отношение

ttFttF

Δ−Δ+ )()(

есть «средняя вероятность», т. е. вероятность P ( t ≤ X < t +Δ t ),

отнесенная к единице длины. Предел этого отношения естественно назвать плотностью вероятности.

2) Из формулы (5) вытекает, что F ( t +Δ t )– F ( t )≈ ( )tf Δ t (6) (если в равенстве (5) опустить знак предела, то при малом Δ t оно из

точного станет приближенным и в качестве следствия даст (6)). Равенство (6) означает, что выражение ( )tf Δ t приближенно равно

вероятности P ( t ≤ X < t +Δ t ), того, что случайная величина X примет значение в (малом) интервале [ t , t + Δ t ), т.е.

P ( t 1≤ X < t 2) ≈ ( )tf Δ t . (7) 3) Полезно иметь в виду прием, позволяющий преобразовать непрерывную

случайную величину X в дискретную случайную величину X с помощью малого изменения.

Page 70: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

70

Разобьем числовую ось на равные малые отрезки точками ti (i = 0, ±1, ±2, ...); пусть Δ t = ti+1- ti. По данной непрерывной случайной величине X построим дискретную случайную величину Х

~ следующим образом. В качестве значений

случайной величины Х~ возьмем числа t i ( i = 0, ±1, ±2, ... ); вероятность значения ix~ положим равной вероятности того, что непрерывная случайная величина X примет значение в интервале [ t i, t i+1 )т. е.

P ( t i≤ X < t i+1) = P ( t i≤ X < t i+Δ t ) =f(ti)Δ t . (8) Таким образом, таблица распределения дискретной случайной величины

Х~ в первой строке содержит числа t i, а во второй - соответствующие им вероятности f(ti)Δ tОчевидно, что соответствующие значения случайных величин X и Х~ вида мало отличаются. Также мало отличаются и вероятности вида P ( ≤α X < β ) и вида P ( ≤α Х~ < β ).

Свойства дифференциальной функции распределения 1°. ( )tf ≥0 в точках t , где существует F '(t). В самом деле, так как F(t) является неубывающей функцией, то

( )tf = F '(t)≥0. 2°. Справедливо равенство

P ( ≤α X < β ) = ∫β

α

dttf )(. (9)

Действительно, если ( )tf непрерывна на [α , β ), то, вычисляя определенный интеграл по формуле Ньютона — Лейбница, получим

∫β

α

dttf )(= )()( αβ FF − = P ( ≤α X < β ). (10)

Здесь учтено, что F ( t )- первообразная функция для ( )tf , а также равенство (3).

3°. Справедливо равенство

∫+∞

∞−

dttf )(=1. (11)

Оно вытекает из соотношений (9) и (2). Геометрический смысл дифференциальной функции распределения иллюстрирует рис. 2: вероятность

Рис. 2.

Page 71: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

71

P ( ≤α X < β ) численно равна площади заштрихованной криволинейной трапеции.

Определение 3. Распределение непрерывной случайной величины X , заданное дифференциальной функцией распределения

( )tf = πσ 21

2

2

2

)(

σ

at

e−−

называется нормальным распределением; здесь a ∈(-∞,+∞) и σ >0-

некоторые параметры. Комментарии к определению 3. 1) График функции (12) изображен на рис. 3. Его можно получить из

«стандартного графика» нормального распределения ( )tf = π21

2

2t

e−

Рис. 3. ( a =6, σ =1) сдвигом на a единиц вправо, последующим растяжением по

горизонтали относительно оси симметрии в σ раз. Напомним, что функция

2

2

21 x

ey−

=π табулирована.

Эта функция упоминается в формулировке локальной теоремы Муавра-Лапласа.

Кривая ( )tf = πσ 21

2

2

2)(

σ

at

e−−

симметрична относительно прямой х = a . Зависимость графика ( )tf от параметров a и σ такова: a является абсциссой максимума функции; малым а соответствует крутой горб кривой, большим a - пологий горб. Точки с абсциссами a - σ и a + σ являются точками перегиба.

2) Интегральный закон распределения, соответствующий

дифференциальному закону ( )tf = πσ 21

2

2

2)(

σ

at

e−−

имеет вид

F ( t ) = ∫∞−

t

πσ 21

2

2

2

)(

σ

at

e−−

dt (13) Последний интеграл нельзя вычислить по формуле Ньютона - Лейбница,

поскольку первообразная функция для πσ 21

2

2

2)(

σ

at

e−−

не выражается через

Page 72: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

72

элементарные функции. Однако удобно выразить F ( t ) через (табулированную)

функцию Лапласа Ф( t )= ∫t

0 21π 2

2t

e−

dt. Именно,

F ( t ) = 21

+ )(

σat −

Φ (14)

3) Вероятность P ( ≤α X < β ) того, что случайная величина X примет значение в интервале [α , β ), выражается через интегральную F(t) и дифференциальную ( )tf функции распределения следующим образом:

P ( ≤α X < β ) = )()( αβ FF − , 15)

P ( ≤α X < β ) = ∫β

α

dttf )( (16)

[ср. с формулами (9) и (10)]. Правые части равенств (15) и (16) можно выразить через

(табулированные) функции )(tϕ = πσ 21

2

2

2σt

e−

и Φ ( t ) =

∫∞−

t

πσ 21

2

2

2

)(

σ

at

e−−

dt. Тогда получим

P ( ≤α X < β )= )(

σβ а−

Φ =

)(σ

α а−Φ

, (17)

P ( ≤α X < β ) = ∫β

α πσ 21

2

2

2

)(

σ

at

e−−

dt = ∫

σβ

σα πσ

а

а 21

2

2u

e−

du = ∫

σβ

σα

ϕ

a

a

t)(

dt. (18) Пример. Величина X распределена нормально с параметрами a =5, σ =1.

Найти вероятность того, что X примет значение в интервале [4, 7). Решение. Согласно формуле (17), получим

P (4≤ X <7) = ⎟⎠⎞

⎜⎝⎛ −

Φ1

57

- ⎟⎠⎞

⎜⎝⎛ −

Φ1

54

= Ф (2)+Ф(1) = 0,4772 + 0,3413 = 0,8 185 [напомним, что функция Лапласа Ф( t ) нечетная, т. е. Ф(- t ) = -Ф( t )]

4) Функция у= ( )tf быстро убывает при t ±∞→ . Площадь под всей кривой равна 1 [это вытекает из соотношения (11)]. Площади криволинейных трапеций над интервалами [ σσ +− аа , ), [ σσ 2,2 +− аа ), [ σσ 3,3 +− аа ) равны соответст-венно 0,6827; 0,9545; 0,9973. Таким образом, почти вся площадь под кривой сосредоточена над интервалом [ σσ 3,3 +− аа ). Поскольку площадь криволинейной трапеции численно равна вероятности того, что случайная величина примет значение в соответствующем интервале, имеем

P ( +<≤− aХа σ3 σ3 ) = 0,9973. (19)

Page 73: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

73

Это утверждение составляет содержание правила «трех сигм» для нормального распределения: практически достоверно, что нормальная случайная величина (т. е. случайная величина, имеющая нормальное распределение) с параметрами а, σ принимает значения в интервале [ σσ 3,3 +− аа ). Слова «практически достоверно» означают — с вероятностью 0,9973.

5) Нормальное распределение (нормальная случайная величина) играет исключительно важную роль в теории вероятностей и в приложениях теории вероятностей к практическим задачам.

Эта роль объясняется тем, что нормальное распределение часто возникает следующим образом. Пусть некоторая случайная величина X складывается из большого количества «мелких» случайных величин. При выполнении некоторых (не очень ограничительных условий) вне зависимости от того, как распределены слагаемые, их сумма, т. е. величина X , оказывается нормально распределенной. Главным условием этого, как уже было отмечено, является то обстоятельство, что X есть сумма большого количества «мелких» случайных величин. Соответствующее строгое математическое утверждение носит название центральной предельной теоремы (рассмотрим в лек.№9; теорема Ляпунова).

Если известно, что изучаемая случайная величина складывается из большого количества случайных слагаемых, каждое из которых оказывает лишь небольшое влияние на всю сумму, то можно считать, что X распределена нормально.

Например, ошибка, допускаемая при изменении какой-либо физической величины, складывается, по-видимому, из большого числа ошибок, вызванных многочисленными причинами. Поэтому, как правило, случайная ошибка измерения имеет нормальное распределение.

6) Вероятностный смысл параметров a и σ будет установлен в 3.п. Определение4.Распределение непрерывной случайной величины, заданное дифференциальной функцией распределения

( )tf = ( ) ( )⎪

⎪⎩

⎪⎪⎨

+∞∪∞−

≤≤−

,,0

1

baпри

btaприab

(20) называется равномерным распределением на отрезке [ ba, ]. Комментарии к определению 4. 1) Интегральный закон равномерного распределения имеет следующий

вид:

F ( t ) = ⎪⎩

⎪⎨

>

<<−−

<

.1

,

,0

btпри

btaприabat

atпри

Page 74: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

74

3) Вероятность P ( βα <≤ Х ) того, что равномерная случайная величина (т. е. случайная величина, имеющая равномерное распределение) примет значение в интервале [ βα , ), принадлежащем [ ba, ], выражается формулой

P ( abX

−−

=<≤αββα )

) (22) Таким образом, вероятность попадания значений равномерной случайной

величины в интервал [ ba,[), ⊂βα ] зависит только от длины интервала [ ),βα и не зависит от положения этого интервала внутри [ ba, ].

Определение 5. Распределение непрерывной случайной величины X ,

заданное дифференциальной функцией распределения

( )tf = ⎪⎩

⎪⎨

<

>−

,00

0

tпри

tприae at

(23) называется показательным (экспоненциальным) распределением;

здесь a>0 — некоторый параметр. Комментарии к определению 5. 1) Функция у= ( )tf быстро убывает при t→∞. Величина X принимает

только неотрицательные значения. 2) Интегральная функция распределения F ( t ) показательной

случайной величины X имеет вид

F ( t ) = ⎪⎩

⎪⎨

<

>− −

.00

,01

tпри

tприe at

Действительно,

F ( t ) = ∫∞−

t

f(t)dt = ∫ −t

atae0 dt = 1- ate− , t >0

3) Если α >0, β >0, то вероятность того, что случайная величина X примет значение в интервале [ βα , ), такова:

P ( βα <≤ Х ) = ∫β

β

)(tfdt = F ( β ) – F (α ) = 1 - ate− (25)

Если же α <0, β >0, то P ( βα <≤ Х ) = P ( β<≤ Х0 ) = 1- αβe (26) Наконец, если a <0, β <0, то P ( βα <≤ Х ) = 0. 4) В случае а>0, β >0 вероятность P ( βα <≤ Х ) численно равна площади

области, заштрихованной на рис. 4,а, а в случае a <0, β >0 — площади области, заштрихованной на рис. 4,б.

Page 75: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

75

Рис.4 5) Вероятностный смысл параметра a , будет установлен в п.3. 2. Определение 6.Пусть X -непрерывная случайная величина и ( )tf -ее

дифференциальная функция распределения. Математическим ожиданием непрерывной случайной величины X называется число

MX = ∫+∞

∞−

dtttf )( (27)

(если этот интеграл сходится). Математическое ожидание непрерывной случайной величины имеет

такой же вероятностный смысл, что и математическое ожидание дискретной случайной величины.

Определение 7. Пусть X —непрерывная случайная величина и ( )tf — ее дифференциальная функция распределения. Дисперсией непрерывной случайной величины X называется число

∫+∞

∞−

−= dttfMXtDX )()( 2

(28) (если интеграл сходится); МX означает математическое ожидание

случайной величины X. Комментарии к определению 7. 1) Дисперсия случайной величины X есть математическое ожидание

случайной величины 2)( MXX − .

2) Истолкование дисперсии случайной величины как математического ожидания квадрата отклонения X от МХ позволяет описать вероятностный смысл дисперсий следующим образом.

Дисперсия характеризует среднее значение квадрата отклонения значений X от ее математического ожидания. Чем больше эти отклонения по абсолютной величине, тем больше дисперсия, и обратно. Дисперсия измеряет меру рассеяния значений случайной величины относительно математического ожидания X .

3) Справедлива следующая формула, упрощающие вычисление дисперсии:

∫ ∫+∞

∞−

+∞

∞−⎟⎟⎠

⎞⎜⎜⎝

⎛−=

2

2 )()( dtttfdttftDX. (29)

В формуле (29) X —непрерывная случайная величина и ( )tf — ее дифференциальная функция распределения.

Page 76: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

76

4) Квадратный корень из дисперсии называется среднеквадратическим отклонением и обозначается Xσ ; таким образом, DXX =σ . Среднеквадратическое отклонение, как и дисперсия, является мерой рассеяния значений случайной величины относительно математического ожидания. Среднеквадратическое отклонение измеряется в тех же единицах, что и X, в то время как дисперсия имеет измерение 2X . Поэтому иногда предпочтительнее иметь дело с Xσ , а не с DX .

3. 1. Нормальное распределение (см.п.1); дифференциальная функция

нормального распределения случайной величины X имеет вид 2

2

2)(

21)( σ

πσ

at

etf−−

=.

Можно доказать, что

∫+∞

∞−

−−

== adtetMXat2

2

2)(

21 σ

πσ , (30)

σσ =Х . (31)

Таким образом, вероятностный смысл параметров нормального распределения состоит в следующем: а есть математическое ожидание нормальной случайной величины; 2σ —дисперсия;σ -среднеквадратическое отклонение.

2. Равномерное распределение (см.п.1); дифференциальная функция распределения равномерной случайной величины X имеет вид

В этом случае справедливы формулы

∫+∞

∞−

+== ,

2)( badtttfMX

(32)

∫ ∫+∞

∞−

+∞

∞−

−=⎟⎟

⎞⎜⎜⎝

⎛−=

12)()()(

22

2 badtttfdttftDX; 32

baХ

−=σ

. (33) 3. Показательное распределение (см.п.1.); дифференциальная функция

распределения показательной случайной величины X имеет вид

⎪⎩

⎪⎨

>

<=

− .0

,00)(

tприe

tприtf

tλλ Можно показать, что

∫ ∫+∞

∞−

∞− ===

0

,1)(λ

λ λ dtetdtttfMX t

(34)

∫+∞

∞−

−−

== ,2

1 22)(

2 2

2

σπσ

σ dtetDXat

Page 77: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

77

∫ ∫+∞

∞−

∞− =−=−=

022

22

2 ,111)(λλ

λλ

λ dtetdttftDX t

.1

λσ =X

(35)

Формулы (34) и (35) устанавливают вероятностный смысл параметра λλ 1:

есть математическое ожидание показательной случайной величины; 2

1λ —

дисперсия; λ1

— среднеквадратическое отклонение. Свойства математического ожидания и дисперсии непрерывной случайной

величины аналогичны свойствам математического ожидания и дисперсии дискретной случайной величины (см. лек.№7).

Как уже ранее отметили (см. лек.№7) из свойства математического ожидания и дисперсии в качестве следствия вытекает важный теоретико-вероятностный факт, лежащий в основе законов больших чисел (см..лек.№9, теорема Чебышева).

Вопросы для самопроверки 1.Дайте определение интегральной функции распределения. 2.Приведите свойства интегральной функции распределения. 3.Дайте определение дифференциальной функции распределения. 4.Приведите свойства дифференциальной функции распределения. 5.Дайте определение нормального распределения. Какую роль играет

нормальное распределение в теории вероятностей и на практике? 6.Дайте определение равномерного распределения. 7.Дайте определение показательного распределения. 8.Как определяются числовые характеристики непрерывной случайной

величины? 9.Чему равны числовые характеристики: а) нормального распределения; б)

равномерного распределения; в)показательного распределения?

Page 78: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

78

Упражнения

1.Цена деления шкалы измерительного прибора равна 0,2. Показания прибора округляют до ближайшего целого числа. Полагая, что при отсчете ошибка округления распределена по равномерному закону, найти:1)математическое ожидание, дисперсию и среднеквадратическое отклонение этой случайной величины;

2) вероятность того, что ошибка округления: а) меньше 0,04; б) больше 0,05.

2.Среднее время безотказной работы прибора равно 80 ч. Полагая, что время безотказной работы прибора имеет показательный закон распределения, найти: а)выражение его плотности вероятности и функции распределения; б) вероятность того, что в течение 100 ч прибор не выйдет из строя.

3.Текущая цена акции может быть смоделирована с помощью нормального закона распределения с математическим ожиданием 15 ден. ед . и средним квадратичным отклонением 0,2 ден. ед. 1. Найти вероятность того, что цена акции: а) не выше 15,3 ден. ед.; б) не ниже 15,4 ден. ед.; в) от 14,9 до 15,3 ден. ед. 2.С помощью правила трех сигм найти границы, в которых будет находиться текущая цена акции.

4.Цена некой ценной бумаги нормально распределена. В течение последнего года 20% рабочих дней она была ниже 88 ден. ед., а 75% — выше 90 ден.ед. Найти: а) математическое ожидание и среднеквадратическое отклонение цены ценной бумаги; б) вероятность того, что в день покупки цена будет заключена в пределах от 83 до 96 ден. ед.; в) с надежностью 0,95 определить максимальное отклонение цены ценной бумаги от среднего (прогнозного) значения (по абсолютной величине).

5.Случайная величина X имеет нормальное распределение с математическим ожиданием а = 25. Вероятность попадания А в интервал (10; 15) равна 0,09. Чему равна вероятность попадания X в интервал: а) (35;40);б) (30;35)?

6.20%-ная точка нормально распределенной случайной величины равна 50, а 40%-ная точка равна 35. Найти вероятность того, что случайная величина примет значение в интервале (25;45).

7.Коробки с шоколадом упаковываются автоматически: их средняя масса равна 1,06 кг. Найти стандартное отклонение, если 5% коробок имеют массу меньше 1 кг. Предполагается, что масса коробок распределена по нормальному закону.

8.Доказать, что если случайная величина X имеет нормальное распределение, то линейная функция Y= АX+В, (А≠ 0) также имеет нормальное распределение.

9.(Логарифмически нормальное распределение). Плотность вероятности случайной величины X равна

Page 79: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

79

( )( )

⎪⎪⎪

⎪⎪⎪

>

≤=

−−

02

1

0,0

2

2

2ln

xприex

xприxf

axσ

πσ Найти математическое ожидания и дисперсию. 10. Распределением

2χ («хи-квадрат») с n степенями свободы называется распределение случайной величины

222

21

2 ... nXXX +++=χ , где nXXX ,...,, 21 — независимые случайные величины, распределенные нормально с параметрами 0 и 1. Найти: а) плотность вероятности случайной величины

21X ; б)

математическое ожидание и дисперсию случайной величины 2χ .

11.Месячный доход семей можно рассматривать как случайную величину, распределенную по логнормальному закону. Полагая, что математическое ожидание этой случайной величины равно 1000 ден. ед., а среднеквадратическое отклонение 800 ден. ед., найти долю семей, имеющих доход: а) не менее 1000 ден. ед.; б) менее 500 ден. ед.

Литература: [1]: c.111-134; [2]: c.103-125, c.151-168; [3]: c.51-68

Page 80: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

80

Л Е К Ц И Я №9 ЗАКОН БОЛЬШИХ ЧИСЕЛ. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ

ТЕОРЕМА

П Л А Н :

1.Закон больших чисел. Неравенство Чебышева. Теорема Бернулли. Тео-рема Чебышева.

2. Предельные теоремы. Центральная предельная теорема Ляпунова. К Л Ю Ч Е В Ы Е С Л О В А : Закон больших чисел, неравенство Чебышева, теорема Бернулли,

теорема Чебышева, предельная теорема, центральная предельная теорема Ляпунова, характеристическая функция, преобразования Фурье.

1. Из повседневного опыта известно, что массовые случайные явления

обладают свойствами устойчивости средних. Это означает, что при независимых испытаниях случайной величины X среднее арифметическое

nxxx n+⋅⋅⋅++ 21

полученных значений при больших n стабилизируется. Случайные колебания значений каждого испытания взаимно компенсируются и

случайная величина nxxx n+⋅⋅⋅++ 21

, где iX есть i-е испытание величины X (i=1, 2, ...., n), при больших n теряет свой случайный характер. Теоремы, описывающие такие ситуации. называются законами больших чисел.

Мы строго сформулируем и докажем два варианта закона больших чисел — теоремы Бернулли и Чебышева.

В основе доказательства этих теорем лежит неравенство Чебышева, составляющего содержание следующей леммы.

Лемма (неравенство Чебышева). Пусть X—произвольная случайная величина; МХ и DХ—соответственно ее математическое ожидание и дисперсия,ε >0 — произвольное число. Тогда справедливо неравенство

21)(ε

ε DXMXXP −><−, (1)

где )( ε<− MXXP означает вероятность того, что отклонение случайной величины X от своего математического ожидания меньше, чем ε .

Комментарий к лемме. Неравенство (1) и теорема об устойчивости среднего арифметического (см. ниже) доказаны П. Л. Чебышевым.

Доказательство. Пусть X -дискретная случайная величина, распределение, которой задано таблицей

1x 2x … nx 1p 2p … np

Page 81: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

81

Имеем

( ) ( ) ( )∑ ∑ ∑

=

−+−=−=n

iiiiii pMXxpMXxpMXxDX

1

/ // 222

,

где ( )∑ −/ 2

ii pMXx означает сумму всех слагаемых вида ( ) ii pMXx 2− таких,

что ( ) 22 ε<− MXxi , а ( )∑ −// 2

ii pMXx -сумму всех слагаемых вида ( ) ii pMXx 2− таких,

что ( ) 22 ε≥− MXxi . При этих условиях ( )∑ −// 2

ii pMXx ≥ ( )∑ −/ 2

ii pMXx , ( )∑ −

/ 2ii pMXx ≥0, откуда

∑≥//2

ipDX ε ,

где под знаком ∑//

собраны вероятности всех тех значений ix , для

которых ( ) 22 ε≥− MXxi . Поэтому ( )∑ ≥−=// εMXxPp ii и следовательно,

( ) ( )[ ]εεεε <−−=≥−≥ MXXPMXXPDX 122

Из последнего соотношения получим

21)(ε

ε DXMXXP −><−.

Аналогично доказывается неравенство Чебышева для непрерывной случай-ной величины X с дифференциальной функцией распределения ( )tf .

Замечание. Неравенство Чебышева 21)(ε

ε DXMXXP −><− можно

записать в другом виде

( ) 2ε

ε DXMXXP ≥≥−

Теорема 1 (теорема Бернулли). Пусть k — количество наступлений события А в серии из n испытаний схемы Бернулли, р—вероятность наступления события А в одном испытании. Тогда

( ) .1lim =<−

∞→εp

nkP

n (2) Комментарий к теореме 1. Теорема Бернулли утверждает, что вероятность

малого (меньшего, чем ε ) отклонения вероятности р от частоты nk

велика (при большом n). Иными словами, почти всегда будет наблюдаться малое отклонение частоты наступления события А в n испытаниях от вероятности наступления А в одном испытании.

В частности, теорема объясняет, почему при многократном бросании монеты количество гербов составляет примерно половину от числа бросаний.

Теорема Бернулли была исторически первым строго доказанным математическим фактом из числа тех утверждений, которые носят название закона больших чисел. Доказательство дано швейцарским математиком Я. Бернулли.

Page 82: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

82

Доказательство теоремы 1. Как известно для биномиального

распределения npqDknpMk == , ,поэтому npqnpq

nnkDp

nkM =⋅=⎟

⎠⎞

⎜⎝⎛=⎟

⎠⎞

⎜⎝⎛

2

1, (здесь

использованы свойства математического ожидания и дисперсии: ).)(,)( 2DXXDMXXM λλλλ ==

Запишем неравенство Чебышева для nkX =

:

.1 2ε

εnpqp

nkP −>⎟⎟

⎞⎜⎜⎝

⎛<−

(3)

Правая часть неравенства (3) при ∞→n стремится к единице, поэтому и ( ) .1lim =<−

∞→εp

nkP

n Теорема 2 (теорема Чебышева). Пусть ),...,2,1( niX i = — попарно

независимые случайные величины, имеющие одинаковые распределения: ., 2σ== ii DXaMX Тогда имеет место соотношение

1lim 21 →⎟⎟

⎞⎜⎜⎝

⎛<−

+⋅⋅⋅++∞→

εan

XXXP n

n (4)

Комментарий к теореме 2. Можно считать, что дана одна случайная величина X, которая

(независимо) испытывается n раз; случайное значение i-го испытания определяет случайную величину iX . Теорема Чебышева утверждает, что малое

(меньшее, чем ε ) отклонение среднего арифметического nXXX n+⋅⋅⋅++ 21

от математического ожидания а весьма вероятно. Иными словами, почти всегда будет наблюдаться малое отклонение (при больших n).

Доказательство теоремы 2. Имеем ,1)(1)(1

2121 nan

MXMXMXn

XXXn

M nn =+⋅⋅⋅++=+⋅⋅⋅++

nn

nDXDXDX

nXXX

nD nn

22

2212211)(1)(1 σσ ==+⋅⋅⋅++=+⋅⋅⋅++

(здесь использованы формулы ).)(,)( 2DXXDMXXM λλλλ ==

Неравенство Чебышева для Х= nXXX n+⋅⋅⋅++ 21

дает

.1 2

221

εσεnn

XXXP n −>⎟⎟⎠

⎞⎜⎜⎝

⎛<

+⋅⋅⋅++

(5) Правая часть неравенства (5) при ∞→n стремится к единице; отсюда и

следует утверждение (4).

Page 83: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

83

Теорему Бернулли можно рассматривать как частный случай теоремы Чебышева, если считать, что )(ii kX = ( i=1,2,…,n), где )(ik -количество наступлений события А в i- м испытании схемы Бернулли. Тогда частота

наступления события А есть nXXX n+⋅⋅⋅++ 21

nkkkk

n n =+⋅⋅⋅++= )(1)()2()1( и

nppa == 2,σ . Пример 1.1.Для определения средней продолжительности горения

электроламп в партии из 200 одинаковых ящиков было взято на выборку по одной лампе из каждого ящика. Оценить вероятность того, что средняя продолжительность горения отобранных 200 электроламп отличается от средней продолжительности горения ламп во всей партии не более чем на 5 ч (по абсолютной величине), если известно, что среднее квадратическое отклонение продолжительности горения ламп в каждом ящике меньше 7 ч.

Решение. Пусть IX — продолжительность горения электролампы, взятой из i -го ящика (ч). По условию дисперсия 4972 =<iDX . Очевидно, что

средняя продолжительность горения отобранных ламп равна 200... 20021 XXX +++

, а

средняя продолжительность горения ламп во всей партии 200... 20021 MXMXMX +++

. Тогда вероятность искомого события:

9902,05200

4915200

...200

...2

2002120021 ≈⋅

−>⎟⎟⎠

⎞⎜⎜⎝

⎛<

+++−

+++ MXMXMXXXXP, т.е. не

менее, чем 0,9902. Пример1.2.Сколько надо провести измерений данной величины, чтобы с

вероятностью не менее 0,95 гарантировать отклонение средней арифметической этих измерений от истинного значения величины не более, чем на 1 (по абсолютной величине), если среднеквадратическое отклонение каждого из измерений не превосходит 5?

Решение. Пусть IX , - результат i-го измерения (i =1,2,...,n) — истинное значение величины, т.е. М( IX )=а при любом i .

Необходимо найти n, при котором

.95,01...21 >⎟⎟

⎞⎜⎜⎝

⎛<−

+++ an

XXXP n

Данное неравенство выполняется, если

95,0

1511 2

2

2 >⋅

−=−nn

DXε , откуда

05,025<

n и 500

05,025

=>n,

т.е.потребуется не менее 501 измерений. 2. Кроме законов больших чисел, описывающих устойчивость средних

значений и изложенных в п.1, в теории вероятностей имеет место еще одно замечательное явление. Как и законы больших чисел, это явление заключается в том, что при большом количестве случайных слагаемых, каждое

Page 84: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

84

из которых вносит лишь небольшой вклад в общую сумму, распределение каждого из слагаемых не влияет на суммарный результат. Точнее, при указанных условиях вид распределения суммы не зависит от распределения слагаемых.

Более строгое утверждение сформулировано в следующей теореме. Теорема (центральная предельная теорема Ляпунова). Пусть Х1, Х2,…,

Хn,...— одинаково распределенные независимые случайные величины с математическим ожиданием МХ=а и дисперсией

2σ=iDX . Тогда при большом n распределение суммы nXXXY +⋅⋅⋅++= 21 близко к нормальному рас-пределению.

Комментарии к теореме. 1) Когда говорят, что последовательность распределений nZZZ ,...,, 21 стремится к некоторому распределению Z, имеют в виду, что (дифференциальные) функции )(tfi распределений iZ стремятся к функции )(tf распределения Z.

2) Так как ∑ == naMXMY i и ∑ == 2σnDXDY i , то величины nMXa =

,

nMX

=2σ малы при больших n. Величины Хi вносят «равномерно малый

вклад», о чем шла речь выше. 3) Утверждение о нормальном законе распределения суммы Х1 + Х2 + ...

+Хn справедливо при менее ограничительных условиях, чем те, которые фигурируют в условии теоремы. В частности, справедлив более сильный вариант теоремы Ляпунова, устанавливающий, что сумма Х1 + Х2 + ... +Хn имеет нормальное распределение при весьма общих предположениях относительно величин nXXX ,...,, 21 .

Доказательство центральной предельной теоремы использует аппарат характеристических функций и в общих чертах следует такой схеме. Каждой случайной величине соответствует характеристическая функция, сумме случайных величин соответствует произведение характеристических функций. Это произведение при неограниченном увеличении числа n слагаемых стремится к некоторой функции, которая оказывается характеристической функцией нормального распределения. Отсюда и следует утверждение центральной предельной теоремы. (Впрочем, важным обстоятельством, про-пущенным в вышеуказанных рассуждениях, является тот факт, что если последовательность характеристических функций )(tfi сходится к функции

)(tf , то последовательность распределений, соответствующих функциям )(tfi , сходится к распределению, соответствующему функции )(tf . В действительности именно доказательство этого факта является самым трудным местом в доказательстве предельной теоремы.)

Понятие характеристической функции распределения, играющее столь важную роль в доказательстве центральной теоремы, является сложным понятием математики. Оно связано с важным общематематическим понятием

Page 85: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

85

преобразования Фурье. Это выходит за рамки математического образования студентов-экономистов. Поэтому выше вместо строгого доказательства теоремы мы ограничиваемся приведением схемы доказательства в общих чертах.

Вопросы для самопроверки 1.Сформулируйте лемму - неравенства Чебышева. 2.Приведите обе формы записи неравенства Чебышева. 3.Сформулируйте теорему Чебышева и прокомментируйте ее. 4.Сформулируйте теорему Бернулли. 5.Сформулируйте центральную предельную теорему Ляпунова и

прокомментируйте ее. 6. На чем основывается доказательство центральной предельной теоремы

Ляпунова.

Page 86: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

86

Упражнения 1.(Правило «трех сигм».) Используя неравенство Чебышева, оценить

вероятность того, что любая случайная величина X отклонится от своего математического ожидания менее чем на три средних квадратичных отклонения этой величины.

2.Длина изготовляемых изделий представляет случайную величину, среднее значение которой (математическое ожидание) равно 90 см. Дисперсия этой величины равна 0,0225. Используя неравенство Чебышева, оценить вероятность того, что: а) отклонение длины изготовленного изделия от ее среднего значения по абсолютной величине не превзойдет 0,4; б) длина изделия выразится числом, заключенным между 89,7 и 90,3 см.

3.Устройство состоит из 10 независимо работающих элемен- тов. Вероятность отказа каждого элемента за время t равна 0,05. Используя неравенство Чебышева, оценить вероятность того, что абсолютная величина разности между числом отказавших элементов и средним числом (математическим ожиданием) отказов за время t окажется меньше двух.

4.Дискретная случайная величина X задана законом распределения X : 0,3 0,6 p: 0,2 0,8 Используя неравенство Чебышева, оценить вероятность того, что

.2,0<− MXX 5.Дана последовательность независимых случайных величин

,...,...,, 21 nXXX Случайная величина ( ),...2,1, =iX i может принимать только три

значения: nn ,0,− с вероятностями, равными соответственно

nnn1,21,1

−. Применима ли к этой последовательности теорема Чебышева?

6.Последовательность независимых случайных величин ,...,...,, 21 nXXX задана законом распределения:

121

12::

++−

− nn

a

nna

pXi

Применима ли к этой последовательности теорема Чебышева? 7.Среднее изменение курса акции компании в течение одних

биржевых торгов составляет 0,3%. Оценить вероятность того, что на ближайших торгах курс изменится более, чем на 3%.

8.Отделение банка обслуживает в среднем 100 клиентов в день. Оценить вероятность того, что сегодня в отделении банка будет обслужено: а) не более 200 клиентов; б) более 150 клиентов.

9.Электростанция обслуживает сеть на 1600 электроламп, вероятность включения каждой из которых вечером равна 0,9. Оценить с помощью неравенства Чебышева вероятность того, что число ламп, включенных в сеть

Page 87: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

87

вечером, отличается от своего математического ожидания не более чем на 100 (по абсолютной величине). Найти вероятность того же события, используя следствие из интегральной теоремы Муавра—Лапласа.

10. Вероятность того, что акции, переданные на депозит, будут востребованы, равны 0,08. Оценить с помощью неравенства Чебышева вероятность то-го, что среди 1000 клиентов от 70 до 90 востребуют свои акции.

11.Среднее значение длины детали 50 см, а дисперсия -0,1. Используя неравенство Чебышева, оценить вероятность того, что случайно взятая деталь окажется по длине не менее 49,5 и не более 50,5 см. Уточнить вероятность того же события, если известно, что длина случайно взятой детали имеет нормальный закон распределения.

12.Оценить вероятность того, что отклонение любой случайной величины от ее математического ожидания будет не более двух средних квадратичных отклонений (по абсолютной величине).

13.В течение времени t эксплуатируются 500 приборов. Каждый прибор имеет надежность 0,98 и выходит из строя независимо от других. Оценить с помощью неравенства Чебышева вероятность того, что доля надеж-ных приборов отличается от 0,98 не более чем на 0,1 (по абсолютной величине).

14.Вероятность сдачи в срок всех экзаменов студентом факультета равна 0,7. С помощью неравенства Чебышева оценить вероятность того, что доля сдавших в срок все экзамены из 2000 студентов заключена в границах от 0,66 до 0,74.

15.Бензоколонка N заправляет легковые и грузовые автомобили. Вероятность того, что проезжающий легковой автомобиль подъедет на заправку, равна 0,3. С помощью неравенства Чебышева найти границы, в которых с вероятностью, не меньшей 0,79, находится доля заправившихся в течение 2 ч легковых автомобилей, если за это время всего заправилось 100 автомобилей.

16.В среднем 10% работоспособного населения некоторого региона — безработные. Оценить с помощью неравенства Чебышева вероятность того, что уровень безработицы среди обследованных 10 000 работоспособных жителей города будет в пределах от 9 до 11 % (включительно).

17.Выход цыплят в инкубаторе составляет в среднем 70% числа заложенных яиц. Сколько нужно заложить яиц, чтобы с вероятностью, не меньшей 0,95, ожидать, что отклонение числа вылупившихся цыплят от математического ожидания их не превышало 50 (по абсолютной величине)? Решить задачу с помощью: а) неравенства Чебышева; б) интегральной теоремы Муавра-Лапласа.

18.Опыт работы страховой компании показывает, что страховой случай приходится примерно на каждый пятый договор. Оценить с помощью неравенства Чебышева необходимое количество договоров, которые следует заключить, чтобы с вероятностью 0,9 можно было утверждать, что доля страховых случаев отклонится от 0,1 не более чем на 0,01 (по абсолютной

Page 88: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

88

величине). Уточнить ответ с помощью следствия из интегральной теоремы Муавра - Лапласа.

19.В целях контроля из партии в 100 ящиков взяли по одной детали из каждого ящика и измерили их длину. Требуется оценить вероятность того, что вычисленная по данным выборки средняя длина детали отличается от средней длины детали во всей партии не более чем на 0,3 мм, если известно, что среднее квадратичное отклонение не превышает 0,8 мм.

20.Сколько нужно произвести измерений, чтобы с вероятностью, равной 0,9973, утверждать, что погрешность средней арифметической результатов этих измерений не превысит 0,01, если измерение характеризуется средним квадратичным отклонением, равным 0,03?

Литература: [1]: c.101-110, c.135-137; [2]: c.215-236; [3]: c.89-99.

Page 89: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

89

Л Е К Ц И Я №10 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ.

ВЫБОРОЧНЫЙ МЕТОД

ПЛАН: 1. Задача математической статистики. 2. Генеральная и выборочная совокупности. 3. Повторная и бесповторная выборки. Репрезентативная выборка. 4. Способы отбора. 5. Статистическое распределение выборки. 6. Эмпирическая функция распределения. 7. Полигон и гистограмма К Л Ю Ч Е В Ы Е С Л ОВ А: Генеральная совокупность, выборочная совокупность,. повторная и

бесповторная выборки, репрезентативная выборка, статистическое распределение выборки, эмпирическая функция распределения, полигон , гистограмма.

1. Задача математической статистики Установление закономерностей, которым подчинены массовые случайные

явления, основано на изучении статистических данных — результатах наблюдений. Первая задача математической статистики — указать способы сбора и группировки (если данных очень много) статистических сведений.

Вторая задача математической статистики — разработать методы анализа статистических данных, в зависимости от целей исследования.

Изучение тех или иных явлений методами математической статистики служит средством решения многих вопросов, выдвигаемых наукой и практикой (правильная организация технологического процесса, наиболее целесообразное планирование и др.).

Итак, задача математической статистики состоит в создании методов сбора и обработки статистических данных для получения научных и практических выводов

2. Генеральная и выборочная совокупности Пусть требуется изучить совокупность однородных объектов относительно

некоторого качественного или количественного признака, характеризующего эти объекты. Например, если имеется партия деталей, то качественным признаком может служить стандартность детали, а количественным — контролируемый размер детали.

Иногда проводят сплошное обследование, т. е. обследуют каждый из объектов совокупности относительно признака, которым интересуются. На практике, однако, сплошное обследование применяется сравнительно редко. Например, если совокупность содержит очень большое число объектов, то

Page 90: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

90

провести сплошное обследование физически невозможно. Если обследование объекта связано с его уничтожением или требует больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно отбирают из всей совокупности ограниченное число объектов и подвергают их изучению.

Выборочной совокупностью, или просто выборкой, называют совокупность случайно отобранных объектов.

Генеральной совокупностью называют совокупность объектов, из которых производится выборка.

Объемом совокупности (выборочной или генеральной) называют число объектов этой совокупности. Например, если из 1000 деталей отобрано для обследования 100 деталей, то объем генеральной совокупности N = 1000, а объем выборки n=100.

Замечание. Часто генеральная совокупность содержит конечное число объектов. Однако, если это число достаточно велико, то иногда в целях упрощения вычислений, или для облегчения теоретических выводов, допускают, что генеральная совокупность состоит из бесчисленного множества объектов. Такое допущение оправдывается тем, что увеличение объема генеральной совокупности (достаточно большого объема) практически не сказывается на результатах обработки данных выборки.

3. Повторная и бесповторная выборки. Репрезентативная выборка При составлении выборки можно поступать двояко: после того, как объект

отобран и над ним произведено наблюдение, он может быть возвращен, либо не возвращен в генеральную совокупность. В соответствии со сказанным, выборки подразделяют на повторные и бесповторные.

Повторной называют выборку, при которой отобранный объект (перед отбором следующего) возвращается в генеральную совокупность.

Бесповторной называют выборку, при которой отобранный объект в генеральную совокупность не возвращается.

На практике обычно пользуются бесповторным случайным отбором. Для того чтобы по данным выборки можно было достаточно уверенно

судить об интересующем нас признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его представляли. Это требование коротко формулируют так: выборка должна быть репрезентативной (представительной).

В силу закона больших чисел можно утверждать, что выборка будет репрезентативной, если ее осуществить случайно: каждый объект выборки отобран случайно из генеральной совокупности, если все объекты имеют одинаковую вероятность попасть в выборку.

Если объем генеральной совокупности достаточно велик, а выборка составляет лишь незначительную часть этой совокупности, то различие между повторной и бесповторной выборками стирается; в предельном случае, когда рассматривается бесконечная генеральная совокупность, а выборка имеет конечный объем, это различие исчезает.

4. Способы отбора

Page 91: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

91

На практике применяются различные способы отбора. Принципиально эти способы можно подразделить на два вида:

1.Отбор, не требующий расчленения генеральной совокупности на части, сюда относятся:

а) простой случайный бесповторный отбор; б) простой случайный повторный отбор. 2. Отбор, при котором генеральная совокупность разбивается на части,

сюда относятся: а) типический отбор; б) механический отбор; в) серийный отбор. Простым случайным называют такой отбор, при котором объекты

извлекают по одному из всей генеральной совокупности. Осуществить простой отбор можно различными способами. Например, для извлечения n объектов из генеральной совокупности объема N поступают так: выписывают номера от 1до N на карточках, которые тщательно перемешивают и наугад вынимают одну карточку; объект, имеющий одинаковый номер с извлеченной карточкой, подвергают обследованию; затем карточка возвращается в пачку и процесс повторяется, т. е. карточки перемешиваются, наугад вынимают одну из них и т. д. Так поступают n раз; в итоге получают простую случайную повторную выборку объема п.

Если извлеченные карточки не возвращать в пачку, то выборка будет простой случайной бесповторной.

При большом объеме генеральной совокупности описанный процесс оказывается очень трудоемким. В этом случае пользуются готовыми таблицами «случайных чисел», в которых числа расположены в случайном порядке. Для того чтобы отобрать, например 50 объектов из пронумерованной генеральной совокупности, открывают любую страницу таблицы случайных чисел и выписывают подряд 50 чисел; в выборку попадают те объекты, номера которых совпадают с выписанными случайными числами. Если бы оказалось, что случайное число таблицы превышает число N, то такое случайное число пропускают. При осуществлении бесповторной выборки случайные числа таблицы, уже встречавшиеся ранее, следует также пропустить.

Типическим называют отбор, при котором объекты отбираются не из всей генеральной совокупности, а из каждой ее «типической»части. Например, если детали изготовляют на нескольких станках, то отбор производят не из всей совокупности деталей, произведенных всеми станками, а из продукции каждого станка в отдельности. Типическим отбором пользуются тогда, когда обследуемый признак заметно колеблется в различных типических частях гене-ральной совокупности. Например, если продукция изготовляется на нескольких машинах, среди которых есть более и менее изношенные, то здесь типический отбор целесообразен.

Механическим называют отбор, при котором генеральная совокупность «механически» делится на столько групп, сколько объектов должно войти в выборку, и из каждой группы отбирается один объект.

Page 92: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

92

Например, если нужно отобрать 20% изготовленных станком деталей, то отбирают каждую пятую деталь; если требуется отобрать 5% деталей, то отбирают каждую двадцатую деталь и т. д.

Следует указать, что иногда механический отбор может не обеспечить репрезентативности выборки. Например, если отбирается каждый двадцатый обтачиваемый валик, причем сразу же после отбора производят замену резца, то отобранными окажутся все валики, обточенные затупленными резцами. В таком случае надо устранить совпадение ритма отбора с ритмом замены резца, для чего надо отбирать, скажем, каждый десятый валик из двадцати обто-ченных.

Серийным называют отбор, при котором объекты отбирают из генеральной совокупности не по одному, а «сериями», которые подвергаются сплошному обследованию. Например, если изделия изготовляются большой группой станков-автоматов, то подвергают сплошному обследованию продукцию только нескольких станков. Серийным отбором пользуются тогда, когда обследуемый признак колеблется в различных сериях незначительно.

Подчеркнем, что на практике часто применяется комбинированный отбор, при котором сочетаются указанные выше способы.

Например, иногда разбивают генеральную совокупность на серии одинакового объема, затем простым случайным отбором выбирают несколько серий и, наконец, из каждой серии простым случайным отбором извлекают отдельные объекты.

5. Статистическое распределение выборки Пусть из генеральной совокупности извлечена выборка, причем x1

наблюдалось n1 раз, х2 — n2 раз, хk— nk раз и∑ = nni —объем выборки. Наблюдаемые значения хi называют вариантами, а последовательность вариант, записанных в возрастающем порядке – вариационным рядом. Числа

наблюдений называют частотами, а их отношения к объему выборки ii W

nn

= -

относительными частотами. Статическим распределением выборки называют перечень вариант и

соответствующих им частот или относительных частот. Статистическое распределение можно задать также в виде последовательности интервалов и соответствующих им частот (в качестве частоты, соответствующей интервалу, принимают сумму частот, попавших в этот интервал).

Заметим, что в теории вероятностей под распределением понимают соответствие между возможными значениями случайной величины и их вероятностями, а в математической статистике — соответствие между наблюдаемыми вариантами и их частотами, или относительными частотами.

Пример. Задано распределение частот выборки объема равное20:

712

10362

i

i

nx

Написать распределение относительных частот.

Page 93: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

93

Решение. Найдем относительные частоты, для чего разделим частоты на объем выборки:

.35,0

207,50,0

2010,15,0

203

321 ====== WWW

Напишем распределение относительных частот:

35,05,0126

15,02

i

i

Wx

Контроль: 0,15+0,5+0,35 = 1 6. Эмпирическая функция распределения Пусть известно статистическое распределение частот количественного

признака X. Введем обозначения: xn — число наблюдений, при которых наблюдалось значение признака

меньшее х,, n— общее число наблюдений (объем выборки).

Ясно, что относительная частота события Х<х равна nnx

— Если х будет изменяться, то вообще говоря, будет изменятся и относительная частота, т. е. относительная частота — есть функция от х. Так как эта функция находится эмпирическим (опытным) путем, то ее называют эмпирической.

Эмпирической функцией распределения (функцией распределения выборки) называют функцию F*(х), определяющую для каждого значения х относительную частоту события Х<х.

Итак, по определению

F*(х )= nnx

, где xn — число вариант, меньших х, n — объем выборки. Таким образом, для того чтобы найти, например F*(х2), надо число

вариант, меньших х2, разделить на объем выборки:

F*(х) nnx2=

. В отличие от эмпирической функции распределения выборки,

интегральную функцию F(х) распределения генеральной совокупности называют теоретической функцией распределения. Различие между эмпирической и теоретической функциями состоит в том, что теоретическая функция F(х) определяет вероятность события Х<х, а эмпирическая функция F*(х) определяет относительную частоту этого же события. Из теоремы Бернулли следует, что относительная частота события Х<х, т. е. F*(х) стре-мится по вероятности к вероятности F(х) этого события. Другими словами, числа F*(х) и F(х) мало отличаются одно от другого. Уже отсюда следует целесообразность использования эмпирической функции распределения выборки для приближенного представления теоретической (интегральной) функции распределения генеральной совокупности.

Page 94: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

94

Такое заключение подтверждается и тем, что F*(х) обладает всеми свойствами F(х) . Действительно, из определения функции F*(х) вытекают следующие ее свойства:

1) значения эмпирической функции принадлежат от резку [0,1];

2) F*(х) — неубывающая функция; 3) если x1— наименьшая варианта, то F*(х)=0 при х< x1; если xk— наибольшая варианта, то F*(х)=1 при x> xk. Итак, эмпирическая функция распределения выборки служит для оценки

теоретической функции распределения генеральной совокупности. Пример. Построить эмпирическую функцию по данному распределению

выборки; варианты xi 2 6 10 частоты ni 12 18 30. Решение. Найдем объем выборки: 12+18+30=60. Наименьшая

варианта равна 2, следовательно, F*(х)=0 при x≤2. Значение X≤6, а именно x1=2 наблюдалось 12 раз; следовательно

F*(х)= 6012

при 2< x≤6. Значения X≤10, а именно x1 =2 и x1=6 набдюдались 12 + 18 =30 раз;

следовательно,

F*(х)= 6030

при 6< x≤10. Так как x=10 –наибольшая варианта, то F*(х)= 1 при x>10. Искомая эмпирическая функция

F*(х)= 101,1065,0,622,0

,20

>≤<≤<

⎪⎪⎩

⎪⎪⎨

xприxприxпри

xпри

График этой функции изображен на рис. 1.

Рис.1.

Page 95: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

95

7. Полигон и гистограмма В целях наглядности строят различные графики статистического

распределения и, в частности, полигон и гистограмму. Полигоном частот называют ломаную, отрезки которой соединяют точки

(x1; n1), (x2; n2), …,(xk; nk), Для построения полигона частот на оси абсцисс откладывают варианты xk, а на оси ординат — соответствующие им частоты ni. Точки (xi; ni), соединяют отрезками прямых и получают полигон частот.

Полигоном относительных частот называют ломаную, отрезки которой соединяют точки (x1; W1), (x2;W2), …,(xk;Wk) . Для построения полигона относительных частот на оси абсцисс откладывают варианты xk, а на оси ординат соответствующие им относительные частоты Wi. Точки (xi;Wi), соединяют отрезками прямых и получают полигон относительных частот.

В случае непрерывного признака целесообразно строить гистограмму, для чего интервал, в котором заключены все наблюдаемые значения признака, разбивают на несколько частичных интервалов длиною h и находят для каждого частичного интервала ni.— сумму частот вариант, попавших в i-й интервал.

На рис. 2 изображен полигон относительных частот следующего распределения:

3,05,7

4,05,5

2,05,3

1,05,1

WX

Гистограммой частот называют ступенчатую фигуру, состоящую из

прямоугольников, основаниями которых служат частичные интервалы длиною

h, а высоты равны отношению hni

(плотность частоты). Для построения гистограммы частот на оси абсцисс откладывают

частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс

на расстоянии hni

.

Рис. 2.

Площадь (i-го частичного прямоугольника равна h· hni

=ni— сумме частот вариант i-го интервала; следовательно, площадь гистограммы частот равна cумме всех частот, т. е. объему выборки.

Page 96: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

96

На рис. 3 изображена гистограмма частот распределения объема n=100,

приведенного в таблице 1. Гистограммой относительных частот называют ступенчатую фигуру,

состоящую из прямоугольников, основаниями которых служат частичные

интервалы длиною h, а высоты равны отношению hWi

(плотность относитель-ной частоты).

Для построения гистограммы относительных частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки,

параллельные оси абсцисс на расстоянии hWi

. Площадь i-го частичного

прямоугольника равна h· hWi

=Wi - относительной частоте, попавших в i-й интервал. Следовательно, площадь гистограммы относительных частот равна сумме всех относительных частот, т, е. единице.

Рис.3.

Частичный интервал длиною h=5

Сумма астот вариант

Часичного интервала hni

ni

Плотность частоты hni

5-10 4 0,8 10-15 6 1,2 15-20 16 3,2 20-25 36 7,2 25-30 24 4,8 30-35 10 2,0 35-40 4 0,8

Page 97: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

97

Вопросы для самопроверки 1.Назовите задачи математической статистики? 2.Что называется генеральной совокупностью? 3.Что называется выборочной совокупностью? 4.Какие способы отбора применяются на практике? Поясните способы отбора. 5.Что представляет собой статистическое распределение? 6.Что называется эмпирической функцией распределения? Приведите

пример построения эмпирической функции распределения. 7.Приведите свойства эмпирической функции распределения. 8.Что называется теоретической функцией распределения? В чем различие между эмпирической и теоретической функциями? 9.Что называется полигоном? 10.Что называется гистограммой? В каких случаях целесообразно строить гистограмму?

Page 98: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

98

Упражнения 1.Записать выборку 5, 3, 7, 10, 5, 5, 2, 10, 7, 2, 7, 7, 4, 2, 4

в виде: а) вариационного, ряда; б) статистического ряда. 2.Построить полигон частот выборки, представленной в виде

статистического распределения:

а) 67

145

104

20:1:

i

i

nx

б) 210

47

35

24

13

32

::

i

i

nx

3.Найти эмпирическую функцию распределения для выборки,

представленной статистическим распределением:

256

154

10:1:

i

i

nx

4.Найти эмпирическую функцию распределения для выборки,

представленной статистическим распределением:

а) 48

27

35

1:2:

i

i

nx

б) 38

27

5:4:

i

i

nx

5.Построить гистограмму выборки, представленной в виде таблицы

частот. Объем выборки n = 55.,

Номер Границы Число элементов выборки, интервала интервала попавших в интервал

i 1+− ii xx in 1 10-12 2

2 12—14 4 3 14—16 8 4 16—18 12 5 18—20 16 6 20—22 10 7 22—24 3

Page 99: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

99

6. Построить график эмпирической функции распределения

715

810

37

2:5:

i

i

nx

7.Построить полигоны частот и относительных частот распределения

129

337

305

153

10:1:

i

i

nx

Литература: [1]: c.187-196; [2]: c.264-288; [3]: c.124-140.

Page 100: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

100

Л Е К Ц И Я №11 СТАТИСТИЧЕСКИЕ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ

П Л А Н:

1.Статистические оценки параметров распределения. 2.Несмещенные, эффективные и состоятельные оценки. 3. Генеральная средняя. 4. Выборочная средняя. 5.Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних. 6.Генеральная дисперсия. 7.Выборочная дисперсия. 8.Формула для вычисления дисперсии. 9.Оценка генеральной дисперсии по исправленной выборочной. 10.Другие характеристики вариационного ряда. К Л Ю Ч Е В Ы Е С Л О В А: Статистическая оценка, несмещенная оценка, эффективная оценка,

состоятельная оценка, генеральная средняя, выборочная средняя, генеральная дисперсия, исправленная дисперсия, мода, медиана, размах, среднее абсолю-тное отклонение, коэффициентом вариации.

1. Статистические оценки параметров распределения Пусть требуется изучить количественный признак генеральной

совокупности Допустим, что из теоретических соображений удалось установить, какое именно распределение имеет признак. Естественно возникает задача оценки параметров, которыми определяется это распределение. Например, если наперед известно, что изучаемый признак распределен в генеральной совокупности нормально, то необходимо оценить (приближенно найти) математическое ожидание и среднеквадратическое отклонение, так как эти два параметра полностью определяют нормальное распределение; если же есть основания считать, что признак имеет, например распределение Пуассона, то необходимо оценить параметр λ , которым это распределение определяется.

Обычно в распоряжении исследователя имеются лишь данные выборки, например, значения количественного признака nxxx ,...,, ,21 полученные в результате n наблюдений (здесь и далее наблюдения предполагаются незави-симыми), Через эти данные и выражают оцениваемый параметр.

Рассматривая nxxx ,...,, ,21 как независимые случайные величины nXXX ,...,, 21 , можно сказать, что найти статистическую оценку неизвестного параметра теоретического распределения — это значит найти функцию от наблюдаемых случайных величин, которая и дает приближенное значение оцениваемого параметра Например, как будет показано далее, для оценки математического

Page 101: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

101

ожидания нормального распределения служит функция (среднее ариф-метическое наблюдаемых значений признака):

nXXXX n+++

=...21

Итак, статистической оценкой неизвестного параметра теоретического

распределения называют функцию от наблюдаемых случайных величин. 2. Несмещенные, эффективные и состоятельные оценки Для того чтобы статистические оценки давали «хорошие» приближения

оцениваемых параметров, они должны удовлетворять определенным требованиям. Ниже указаны эти требования,

Пусть Θ * есть статистическая оценка неизвестного параметра Θ теоретического распределения. Допустим, что по выборке объема n найдена оценка Θ 1* . Повторим опыт, т, е. извлечем из генеральной совокупности другую выборку того же объема и по ее данным найдем оценкуΘ 2* Повторяя опыт многократно, получим числа Θ1*,Θ 2*,…,Θ k*, которые, вообще говоря, будут различны между собой. Таким образом, оценкуΘ * можно рассматривать как случайную величину, а числаΘ 1*,Θ 2*,…,Θ k* , — как ее возможные значения.

Представим себе, что оценка Θ * дает приближенное значение Θ с из-бытком; тогда каждое, найденное по данным выборок, число Θ i* (i = 1, 2, ..., k) будет больше истинного значения Θ . Ясно, что в этом случае и математическое ожидание (среднее значение) случайной величины Θ * будет больше, чем Θ*, т. е. М (Θ *)>Θ . Очевидно, что если Θ * дает оценку с недостатком, то

М (Θ *)<Θ . Таким образом, использование статистической оценки, математическое

ожидание которой не равно оцениваемому параметру, привело бы к систематическим (одного знака) ошибкам. По этой причине естественно потребовать, чтобы математическое ожидание оценки Θ * было равно оценива-емому параметру. Хотя соблюдение этого требования не устранит ошибок (одни значения Θ * больше, а другие меньше Θ ), однако ошибки разных знаков будут встречаться одинаково часто. Иными словами, соблюдение требований М (Θ *)=Θ . гарантирует от получения систематических ошибок.

Несмещенной называют статистическую ошибку Θ *, математическое ожидание которой равно оцениваемому параметру Θ при любом объеме выборки, т. е.

М (Θ *)=Θ . Смещенной называют оценку, математическое ожидание которой не равно

оцениваемому параметру. Однако было бы ошибочным считать, что несмещенная оценка всегда дает

хорошее приближение оцениваемого параметра. Действительно, возможные значения Θ * могут быть сильно рассеяны вокруг своего среднего значения, т. е. дисперсия D(Θ *) может быть значительной. В этом случае, найденная по

Page 102: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

102

данным одной выборки оценка, например Θ 1* , может оказаться весьма удаленной от среднего значения Θ *, а значит, и от самого оцениваемого параметра Θ ; приняв Θ 1* в качестве приближенного значения Θ , мы допустили бы большую ошибку. Если же потребовать, чтобы дисперсия Θ* была малой, то возможность допустить большую ошибку будет исключена. По этой причине к статистической оценке предъявляется требование эффективности.

Эффективной называют статистическую оценку, которая (при заданном объеме выборки n) имеет наименьшую возможную дисперсию.

При рассмотрении выборок большого объема (n велико!) к статистическим оценкам предъявляется требование состоятельности.

Состоятельной называют статистическую оценку, которая при ∞→n стремится по вероятности к оцениваемому параметру. Например, если дисперсия несмещенной оценки при ∞→n со стремится к нулю, то такая оценка оказывается и состоятельной.

3. Генеральная средняя. Пусть изучается дискретная генеральная совокупность относительно

количественного признака X.

Генеральной средней гx называют среднее арифметическое значений признака генеральной совокупности.

Если все значения Nxxx ,...,, 21 признака генеральной совокупности объема N различны, то

Nxxxx N

г+++

=...21

Если же значения признака kxxx ,...,, 21 имеют соответственно частоты

KNNN ,...,, 21 , причем NNNN k =+++ ...21

NNxNxNxx kk

г+++

=...2211

т. е. генеральная средняя есть средняя взвешенная значений признака с

весами, равными соответствующим частотам. 4. Выборочная средняя. Пусть для изучения генеральной совокупности относительно

количественного признака X извлечена выборка объема n.

Выборочной средней вx называют среднее арифметическое значение признака выборочной совокупности.

Если все значения nxxx ,...,, ,21 признака выборки объема n различны, то

nxxxx n

в+++

=...21

Page 103: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

103

Если же значения признака kxxx ,...,, 21 имеют соответственно частоты knnn ,...,, 21 , причем ,...21 nnnn k =+++

nxnxnxnx kk

в+++

=...2211

или

n

xnx

k

iii

в

∑== 1

т. е. выборочная средняя есть средняя взвешенная значений признака с

весами, равными соответствующим частотам. Замечание. Выборочная средняя, найденная по данным одной выборки,

есть, очевидно, определенное число. Если же извлекать другие выборки того же объема из той же генеральной совокупности, то выборочная средняя будет изменяться от выборки к выборке. Таким образом, выборочную среднюю можно рассматривать как случайную величину, а следовательно, можно говорить о распределениях (теоретическом и эмпирическом) выборочной средней и о числовых характеристиках этого распределения (его называют выборочным), в частности, о математическом ожидании и дисперсии выборочного распределения.

Заметим, что в теоретических рассуждениях выборочные значения nxxx ,...,, ,21 признака X, полученные в итоге независимых

наблюдений, также рассматривают как случайные величины nxxx ,...,, ,21 ,имеющие то же распределения и, следовательно, те же числовые

характеристики, которые имеют X. 5. Оценка генеральной средней по выборочной средней. Устойчивость

выборочных средних Пусть из генеральной совокупности (в результате независимых

наблюдений над количественным признаком X) извлечена повторная выборка объема n со значениями признака nxxx ,...,, ,21 . Не уменьшая общности рассуждений, будем считать эти значения признака различными. Пусть генеральная средняя xг неизвестна и требуется оценить ее по данным выборки. В качестве оценки генеральной средней принимают выборочную среднюю

nxxxx n

в+++

=...21

Убедимся, что вx есть несмещенная оценка, т. е. покажем, что

математическое ожидание этой оценки равно гx . Будем рассматривать ха как случайную величину и nxxx ,...,, ,21 , как независимые, одинаково распределенные случайные величины nXXX ,...,, 21 . Поскольку эти величины одинаково распределены, то они имеют одинаковые числовые характеристики, в частности, одинаковое математическое ожидание, которое обозначим через а.

Page 104: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

104

Так как математическое ожидание среднего арифметического одинаково распределенных случайных величин равно математическому ожиданию каждой из величин, то

( ) ....21 a

nXXXMXM n

В =⎟⎠⎞

⎜⎝⎛ +++

= (*)

Приняв во внимание, что каждая из величин nXXX ,...,, 21 имеет то же распределение, что и генеральная совокупность (которую мы также рассматриваем как случайную величину), заключаем, что и числовые харак-теристики этих величин и генеральной совокупности одинаковы. В частности, математическое ожидание а каждой из величин равно математическому ожиданию признака X генеральной совокупности, т. е.

М (X) = вx = а.

Заменив в формуле (*) математическое ожидание а через гx окончательно получим

( ) =вXM гx . Тем самым доказано, что выборочная средняя есть несмещенная оценка

генеральной средней. Легко показать, что выборочная средняя является и состоятельной оценкой

генеральной средней. Действительно, допустим, что случайные величины nXXX ,...,, 21 имеют ограниченные дисперсии, мы вправе применить к этим вели-

чинам теорему Чебышева (частный случай), в силу которой при увеличении n

среднее арифметическое рассматриваемых величин, т. е. вX стремится по вероятности к математическому ожиданию а каждой из величин, или, что то же,

к генеральной средней гx . (так как гx =а). Итак, при увеличении объема выборки n выборочная средняя стремится по

вероятности к генеральной средней, а это и означает, что выборочная средняя есть состоятельная оценка генеральной средней.

Из сказанного следует также, что если по нескольким выборкам достаточно большого объема из одной и той же генеральной совокупности будут найдены выборочные средние, то они будут приближенно равны между собой. В этом и состоит свойство устойчивости выборочных средних.

Заметим, что если дисперсии двух совокупностей одинаковы, то близость выборочных средних к генеральным не зависит от отношения объема выборки к объему генеральной совокупности. Она зависит от объема выборки: чем объем выборки больше, тем меньше выборочная средняя отличается от генеральной. Например, если из одной совокупности отобран 1 % объектов, а из другой совокупности отобрано 4% объектов, причем объем первой выборки оказался большим, чем второй, то первая выборочная средняя будет меньше отличаться от соответствующей генеральной средней, чем вторая.

Замечание. Мы предполагали выборку повторной. Однако полученные выводы применимы и для бесповторной выборки, если ее объем значительно

Page 105: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

105

меньше объема генеральной совокупности. Это положение часто используется на практике.

6. Генеральная дисперсия Для того чтобы охарактеризовать рассеяние значений количественного

признака X генеральной совокупности вокруг своего среднего значения, вводят сводную характеристику — генеральную дисперсию.

Генеральной дисперсией Dг называют среднее арифметическое квадратов отклонений значений признака генеральной совокупности от их среднего

значения гx . Если все значения Nxxx ,...,, 21 признака генеральной совокупности объема N

различны, то

( )N

xxD

N

iгi

г

∑=

−= 1

2

Если же значения признака kxxx ,...,, 21 имеют соответственно частоты

KNNN ,...,, 21 , причем NNNN k =+++ ...21 , то

( )N

xxND

k

iгii

г

∑=

−= 1

2

, т. е. генеральная дисперсия есть средняя взвешенная квадратов

отклонений с весами, равными соответствующим частотам. Пример. Генеральная совокупность задана таблицей распределения: xi 2 4 5 6 Ni 8 9 10 3. Найти генеральную дисперсию. Решение. Найдем генеральную среднюю (п. 3):

гx =.4

30120

31098635104928

==+++

⋅+⋅+⋅+⋅

Найдем генеральную дисперсию:

Dг=8,1

3054

30)46(3)45(10)44(9)42(8 2222

==−+−+−+−

Кроме дисперсии, для характеристики рассеяния значений признака

генеральной совокупности вокруг своего среднего значения пользуются сводной характеристикой — средним квадратическим отклонением.

Генеральным средним квадратическим отклонением (стандартом)

называют квадратный корень из генеральной дисперсии:

гг D=σ

Page 106: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

106

7. Выборочная дисперсия Для того чтобы охарактеризовать рассеяние наблюдаемых значений

количественного признака выборки вокруг своего среднего значения вx вводят сводную характеристику — выборочную дисперсию.

Выборочной дисперсией Dв называют среднее арифметическое квадратов

отклонения наблюдаемых значений признака от их среднего значения вx .Если все значения nxxx ,...,, ,21 признака выборки объема n различны, то

( )

n

xxD

n

iвi

в

∑=

−= 1

2

Если же значения признака kxxx ,...,, 21 имеют соответственно частоты

knnn ,...,, 21 , причем ,...21 nnnn k =+++ то

( )

n

xxnD

k

iвii

в

∑=

−= 1

2

т. е. выборочная дисперсия есть средняя взвешенная квадратов

отклонений с весами, равными соответствующим частотам. Пример. Выборочная совокупность задана таблицей распределения ix 1 2 3 4 in 20 15 10 5. Найти выборочную дисперсию. Решение. Найдем выборочную среднюю (4):

.2

2100

510152045310215120

==+++

⋅+⋅+⋅+⋅=вx

Найдем выборочную дисперсию:

.1

5050

50)24(5)23(10)22(15)21(20 2222

==−+−+−+−

=вD

Кроме дисперсии, для характеристики рассеяния значений признака выборочной совокупности вокруг своего среднего значения пользуются сводной характеристикой — средним квадратическим отклонением.

Выборочным средним квадратическим отклонением (стандартом) называют квадратный корень из выборочной дисперсии:

.вв D=σ 8. Формула для вычисления дисперсии Вычисление дисперсии, безразлично, выборочной или генеральной, можно

упростить, используя следующую теорему. Теорема. Дисперсия равна среднему квадратов значений признака минус

квадрат общей средней

[ ] .22

xxD −=

Page 107: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

107

Доказательство. Справедливость теоремы вытекает из элементарных преобразований.

9. Оценка генеральной дисперсии по исправленной выборочной Пусть из генеральной совокупности в результате n независимых

наблюдений над количественным признаком X извлечена повторная выборка объема n:

значения признака kxxx ,...,, 21 частоты knnn ,...,, 21 , причем ,...21 nnnn k =+++ Требуется по данным выборки оценить (приближенно найти) неизвестную

генеральную дисперсию Dг. Если в качестве оценки генеральной дисперсии принять выборочную дисперсию, то эта оценка будет приводить к системати-ческим ошибкам, давая заниженное значение генеральной дисперсии. Объясняется это тем, что как можно доказать, выборочная дисперсия является смещенной оценкой Dг., другими словами, математическое ожидание выборочной дисперсии не равно оцениваемой генеральной дисперсии, а равно

( ) .1

гв Dn

nDM −=

Легко «исправить» выборочную дисперсию так, чтобы ее математическое

ожидание было равно генеральной дисперсии. Достаточно для этого умножить

Dг на дробь .

1−nn

Сделав это, получим «исправленную дисперсию», которую обычно

обозначают через 2s :

2s =

( ) ( ).

1111

2

1

2

−=

−=

∑∑==

n

xxn

n

xxn

nnD

nn

k

iвii

k

iвii

в Исправленная дисперсия является, конечно, несмещенной оценкой

генеральной дисперсии Действительно,

( ) ( ) .1

1112

uгвв DDn

nn

nDMn

nDn

nMsM =−

−=

−=⎟

⎠⎞

⎜⎝⎛

−=

Итак, в качестве оценки генеральной дисперсии принимают

исправленную дисперсию

( )1

1

2

2

−=∑=

n

xxns

k

iвii

Для оценки же среднего квадратического отклонения генеральной

совокупности используют «исправленное» среднее квадратическое отклонение, которое равно квадратному корню из исправленной дисперсии:

s=

( )1

1

2

−∑=

n

xxnk

iвii

.

Page 108: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

108

Подчеркнем, что s не является несмещенной оценкой; чтобы отразить этот факт мы написали и будем писать далее так: «исправленное» среднее квадратическое отклонение.

Замечание. Сравнивая формулы

( )

n

xxnD

k

iвii

в

∑=

−= 1

2

и

( )1

1

2

2

−=∑=

n

xxns

k

iвii

видим, что они отличаются лишь знаменателями. Очевидно, при

достаточно больших значениях n объема выборки, выборочная и исправленная дисперсия различаются мало. На практике пользуются исправленной дисперсией, если примерно n< 30.

10. Другие характеристики вариационного ряда Кроме выборочной средней и выборочной дисперсии применяются и

другие характеристики вариационного ряда. Укажем главные из них. Модой 0M называют варианту, которая имеет наибольшую частоту.

Например, для ряда варианта 1 4 7 9 частота 5 1 20 6 мода равна 7. Медианой em называют варианту, которая делит вариационный ряд на две

части, равные по числу вариант, Если число вариант нечетно, т. е. 12 += kn , то

1+= ke xm ; при четном kn 2= медиана 21++

= kke

xxm .

Например, для ряда 76532 медиана равна 5; для ряда 976532

медиана равна 5,5

265=

+

.

Размахом варьирования R называют разность между наибольшей и наименьшей вариантами:

Например, для ряда 1 3 4 5 6 10 размах равен 10 - 1 =9. Размах является простейшей характеристикой рассеяния вариационного

ряда. Средним абсолютным отклонением в называют среднее арифметическое

абсолютных отклонений:

Page 109: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

109

∑∑ −

=Θi

вii

n

xxn

Например, для ряда

116

56

10431

i

i

nx

имеем .2,2;4 =Θ=вx

Среднее абсолютное отклонение служит для характеристики рассеяния вариационного ряда.

Коэффициентом вариации V называют выраженное в процентах отношение выборочного среднего квадратического отклонения к выборочной средней:

%.100⋅=

в

в

xV σ

Коэффициент вариации служит для сравнения величин рассеяния двух

вариационных рядов: тот из рядов имеет большее рассеяние, у которого коэффициент вариации больше.

Замечание. Выше предполагалось, что вариационный ряд составлен по данным выборки, поэтому все описанные характеристики называют выборочными; если вариационный ряд составлен по данным генеральной совокупности, то характеристики называют генеральными.

Вопросы для самопроверки 1.Что называется статистической оценкой? 2.Каким требованиям должны удовлетворять статистические оценки?

Укажите и дайте их определения. 3.Что называется генеральной средней? 4. Что называется выборочной средней? 5.Поясните, почему выборочную среднюю можно рассматривать как

случайную величину? 6.Что является статистической оценкой для генеральной средней?

Является ли это оценка несмещенной? 7. Что называется генеральной дисперсией? 8.Что называется выборочной дисперсией? 9.Что является статистической оценкой для генеральной дисперсии?

Является ли это оценка несмещенной? 10.Что является исправленной дисперсией? Является ли это оценка

несмещенной? 11.Дайте определения следующих выборочных характеристик (мода,

медиана, размах варьирования, среднее абсолютное отклонение, коэффициент вариации).

Page 110: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

110

Упражнения 1.В результате 5 измерений длины одним прибором (без систематических

погрешностей, т. е. предполагается, что математическое ожидания измерений ix совпадают с истинной длиной) получены следующие результаты (в мм.): 92,94,103, 105,106. Найти: а)выборочную среднюю длину стержня; б) выборочную дисперсию и несмещенную оценку дисперсии ошибок прибора.

2.Ниже приведены результаты измерения роста (в см.) случайно отобранных 100 студентов:

2182178

8178174

12174170

28170166

26166162

14162158

10158154

:/: −−−−−−−

стчисрост

Найти выборочное среднее и выборочную дисперсию роста

обследованных студентов. Указание: Найти середины интервалов и принять их в качестве значений

ix . 3.На телефонной станции производились наблюдения за числом

неправильных соединений в минуту. Наблюдения в течении часа дали следующие результаты:

43012112342012

2413120230424313

51122110132102

1152202433107231

Найти среднее и дисперсию распределения. Сравнить распределение

вероятностей с распределением Пуассона. Литература: [1]: c.197-216; [2]: c.289-310; [3]: c.141-150.

Page 111: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

111

ЛЕКЦИЯ №12 ИНТЕРВАЛЬНЫЕ ОЦЕНКИ

П Л А Н:

1.Точность оценки, доверительная вероятность (надежность).

Доверительный интервал. 2.Доверительные интервалы для оценки математического ожидания

нормального распределения при известном σ . 3.Доверительные интервалы для оценки математического ожидания

нормального распределения при неизвестном σ . 4. Доверительные интервалы для оценки среднеквадратического

отклонения σ нормального распределения. К Л Ю Ч Е В Ы Е С Л О В А: Точечная оценка, интервальная оценка, точность оценки, надежность

(доверительная вероятность) оценки. 1.Точность оценки, доверительная вероятность (надежность).

Доверительный интервал. Точечной называют оценку, которая определяется одним числом. Все

оценки, рассмотренные в лекции №11 — точечные. При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, т. е. приводить к грубым ошибкам. По этой причине при небольшом объеме выборки следует пользоваться интервальными оценками.

Интервальной называют оценку, которая определяется двумя числами — концами интервала. Интервальные оценки позволяют установить точность и надежность оценок (смысл этих понятий выясняется ниже).

Пусть, найденная по данным выборки, статистическая характеристика Θ * служит оценкой неизвестного параметра Θ . Будем считать Θ постоянным числом (Θ может быть и случайной величиной). Ясно, что Θ * тем точнее

определяет параметр Θ , чем меньше абсолютная величина разности ∗Θ−Θ .

Другими словами, если δ >0 и ∗Θ−Θ <δ , то, чем меньше δ , тем оценка точнее.

Таким образом, положительное число δ характеризует точность оценки. Однако статистические методы не позволяют категорически утверждать,

что оценка Θ * удовлетворяет неравенству ∗Θ−Θ <δ ; можно лишь говорить о

вероятности γ , с которой это неравенство осуществляется. Надежностью (доверительной вероятностью) оценки Θ по Θ * называют

вероятность γ , с которой осуществляется неравенство ∗Θ−Θ <δ . Обычно

Page 112: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

112

надежность оценки задается наперед, причем в качествеγ берут число, близкое к единице. Наиболее часто задают надежность, равную 0,95; 0,99 и 0,999.

Пусть вероятность того, что ∗Θ−Θ <δ равна γ :

( ) γδ =<Θ−Θ ∗P Заменив неравенство

∗Θ−Θ <δ равносильным ему двойным неравенством δδ <Θ−Θ<− ∗ , или δδ +Θ<Θ<−Θ ∗∗ ,имеем

( ) .γδδ =+Θ<Θ<−Θ ∗∗P Это соотношение следует понимать так: вероятность того, что интервал

(Θ *-δ ,Θ *+δ ) заключает в себе (покрывает) неизвестный параметр Θ , равна γ . Доверительным называют интервал (Θ *-δ , Θ *+δ ), который покрывает

неизвестный параметр с заданной надежностью γ . Замечание. Интервал (Θ *-δ ,Θ *+δ ) имеет случайные концы (их называют

доверительными границами). Действительно, в разных выборках, получаются различные значения Θ . Следовательно, от выборки к выборке будут изменяться и концы доверительного интервала, т. е. доверительные границы сами являются случайными величинами-функциями от nxxx ,...,, 21 . Так как случайной величиной является не оцениваемый параметр Θ , а доверительный интервал, то более правильно говорить не о вероятности попадания Θ в доверительный интервал, а о вероятности того, что доверительный интервал покроет Θ .

Метод доверительных интервалов разработан американским статистиком Ю. Нейманом, исходя из идей английского статистика Р. Фишера.

2. Доверительные интервалы для оценки математического ожидания

нормального распределения при известном σ Пусть количественный признак X генеральной совокупности распределен

нормально, причем среднеквадратическое отклонение σ этого распределения известно. Требуется оценить неизвестное математическое ожидание а по выборочной средней x . Поставим своей задачей найти доверительные интервалы, покрывающие параметр а с надежностью γ .

Будем рассматривать выборочную среднюю x , как случайную величину X ( x изменяется от выборки к выборке) и выборочные значения признака

nxxx ,...,, 21 , как одинаково распределенные независимые случайные величины nXXX ,...,, 21 (эти числа также изменяются от выборки к выборке). Другими

словами, математическое ожидание каждой из этих величин равно а и среднеквадратическое отклонение —σ .

Примем без доказательства, что если случайная величина X распределена нормально, то выборочная средняя X, найденная по независимым наблюдениям, также распределена нормально. Параметры распределения X та-ковы :

( ) ( )

nXaXM σσ == ,

Page 113: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

113

Потребуем, чтобы выполнялось соотношение

( ) ,γδ =<− aXP где γ — заданная надежность. Пользуясь формулой

( ) ,2 ⎟

⎠⎞

⎜⎝⎛Φ=<−σδδaXP

заменив X через X и σ через ( ) ( )

nXaXM σσ == ,

, получим

( ) ,2 ⎟

⎠⎞

⎜⎝⎛Φ=<−σδδaXP

= ( ),2 tΦ

где .

σδ nt =

Найдя из последнего равенства nt σδ =

, можем написать

( ).2 t

ntaXP Φ=⎟

⎞⎜⎝

⎛ <−σ

Приняв во внимание, что вероятность Р задана и равна γ , окончательно

имеем (чтобы получить рабочую формулу выборочную среднюю вновь обозначим через x ):

( ) .2 γσσ

=Φ=⎟⎠

⎞⎜⎝

⎛ +<<− tn

txan

txP

Смысл полученного соотношения таков: с надежностью γ можно утверждать, что доверительный интервал

⎟⎠

⎞⎜⎝

⎛ +−n

txn

tx σσ , покрывает неизвестный параметр а; точность оценки

nt σδ =

. Итак, поставленная выше задача полностью решена. Укажем еще, что число t определяется из равенства ( ) γ=Φ t2 , или Ф(t)=

по таблице функции Лапласа находят аргумент t, которому cоответствует

значение функции Лапласа, равное .

Замечание. Оценку ntax σ⋅<−

называют классической. Из формулы

nt σσ ⋅=

, определяющей точность классической оценки, можно сделать следующие выводы:

Page 114: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

114

1) при возрастании объема выборки n число δ убывает и, следовательно, точность оценки увеличивается;

2) увеличение надежности оценки γ = 2 Ф(t) приводит к увеличению t (Ф(t)- возрастающая функция), а следовательно, и к возрастанию δ ; другими словами, увеличение надежности классической оценки влечет за собой уменьшение ее точности.

Пример. Случайная величина X имеет нормальное распределение с известным средним квадратическим отклонением σ =3. Найти доверительные интервалы для оценки неизвестного математического ожидания а по выборочным средним x если объем выборки n=36 и задана надежность оценки γ =0,95.

Решение. Найдем t. Из соотношения 2Ф(t)= 0,95 получим Ф(t)=0,475. По таблице находим

t=1,96. Найдем точность оценки;

.98,0

36396,1 =⋅=⋅=

nt σδ

Доверительные интервалы таковы: ( ).98,0;98,0 +− xx Например, если x = 4,1, то доверительный интервал имеет следующие

доверительные границы: x - 0,98 = 4,1- 0,98 = 3,12; x + 0,98 = 4, 1+ 0,98 = 5,08. Таким образом, значения неизвестного параметра а, согласующиеся с

данными выборки, удовлетворяют неравенству 3,12<а<5,08. Подчеркнем, что было бы ошибочным написать: Р (3,12<а<5,08)=0,95. Действительно, так как а — постоянная величина, то либо она заключена в

найденном интервале (тогда событие 3,12<а<5,08 достоверно и его вероятность равна единице), либо в нем не заключена (в этом случае событие 3,12<а<5,08 невозможно и его вероятность равна нулю). Другими словами, доверительную вероятность не следует связывать с оцениваемым параметром; она связана лишь с границами доверительного интервала, которые, как уже было указано, изменяются от выборки к выборке.

Поясним смысл, который имеет заданная надежность. Надежность γ =0, 95 указывает, что если произведено достаточно большое число выборок, то 95% из них определяет

такие доверительные интервалы, в которых параметр действительно заключен; лишь в 5% случаев он может выйти за границы доверительного интервала.

Замечание. Если требуется оценить математическое ожидание и наперед заданной точностью δ и надежностью γ , то минимальный объем выборки, который обеспечит эту точность, находят по формуле

Page 115: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

115

2

22

δσtn =

( следствие равенства nt σδ =

) 3. Доверительные интервалы для оценки математического ожидания

нормального распределения при неизвестном σ . Пусть количественный признак X генеральной совокупности распределен

нормально, причем среднеквадратическое отклонение σ неизвестно. Требуется оценить неизвестное математическое ожидание а при помощи доверительных интервалов. Разумеется, невозможно воспользоваться результатами предыдущего параграфа, в котором а предполагалось известным.

Оказывается, что по данным выборки можно построить случайную величину (ее возможные значения будем обозначать через t),

nS

aXT −=

которая имеет распределение Стьюдента с k = n-1 степенями свободы;

здесь X-выборочная средняя, S — «исправленное» среднеквадратическое отклонение, n– объем выборки. Дифференциальная функция

( ) ,

11,

22n

n ntBntS

⎥⎦

⎤⎢⎣

⎡−

+= где

⎟⎠⎞

⎜⎝⎛ −

Γ⋅−

⎟⎠⎞

⎜⎝⎛Γ

=

21)1(

2nn

n

Bn

π.

Мы видим, что распределение Стьюдента определяется параметром n-объемом выборки, или, что то же, числом степеней свободы k = n-1 и не зависит от неизвестных параметров а и σ ; эта особенность является его большим достоинством. Поскольку S(t,n) –четная функция от t,

вероятность осуществления неравенства nS

aXT −=

< γ определяется такγ

( ) .,20

γγ

γ =Φ=⎟⎟⎟

⎜⎜⎜

⎛<

−∫t

dtntStn

SaXP

Заменив неравенство в круглых скобках равносильному ему двойным

неравенством, получим

.γγγ =⎟

⎞⎜⎝

⎛ +<<−n

StXan

StXP

Итак, пользуясь распределением Стьюдента, мы нашли доверительный

интервал nstx

nstx γγ +− ;

,покрывающий неизвестный параметр а с надежностью γ .Здесь случайные величины X и S заменены неслучайными

Page 116: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

116

величинами x и s, найденными по выборке. По таблице значений γt по заданным γ и nможно найти γt .

Пример. Количественный признак X генеральной совокупности распределен нормально. По выборке объема n=16 найдены выборочная средняя

2,20=x и «исправленное» среднеквадратичное отклонение s=0,8. Оценить неизвестное математическое ожидание при помощи доверительного интервала с надежностью 0,95.

Решение. Найдем γt . Пользуясь таблицей значения γt по заданным γ =0,95 и n =16, находим γt =2,13.

Найдем доверительные границы:

.774,19

168,013,22,20 =−=−

nstx γ

.626,20

168,013,22,20 =⋅+=+

nstx γ

Итак, с надежностью 0,95 неизвестный параметр а заключен в

доверительном интервале 19,774<а<20,626. Замечание. Из предельных соотношений

222 2

11lim,

21lim

tn

nnne

ntB

−−

∞→∞→=⎟⎟

⎞⎜⎜⎝

⎛−

+=π

следует, что при неограниченном возрастании объема выборки n распределение Стьюдента стремится к нормальному. Поэтому при n > 30 можно вместо распределения Стьюдента пользоваться нормальным распределением.

Однако важно подчеркнуть, что для малых выборок (n<30), в особенности для малых значений n, замена распределения нормальным приводит к грубым ошибкам, а именно — к неоправданному сужению доверительного интервала, т. е. к повышению точности оценки. Например, если n=5 и γ =0,99, то пользуясь распределением Стьюдента, найдем γt =4,6, а используя функцию Лапласа, найдем γt =2,58, т. е. доверительный интервал в последнем случае окажется более узким, чем найденный по распределению Стьюдента.

То обстоятельство, что распределение Стьюдента при малой выборке дает не вполне определенные результаты (широкий доверительный интервал), вовсе не свидетельствует о слабости метода Стьюдента, а объясняется тем, что малая выборка, разумеется, содержит малую информацию об интересующем нас признаке.

4. Доверительные интервалы для оценки среднеквадратического

отклоненияσ нормального распределения Пусть количественный признак X генеральной совокупности распределен

нормально. Требуется оценить неизвестное генеральное среднеквадратическое отклонение σ по «исправленному» выборочному среднеквадратическому

Page 117: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

117

отклонению s . Поставим перед собой задачу найти доверительные интервалы, покрывающие параметр σ с заданной надежностью γ . Потребуем, чтобы выполнялось соотношение

( ) γδσ =<− sP или ( ) γδσδ =+<<− ssP Для того чтобы можно было пользоваться готовой таблицей, преобразуем

двойное неравенство σσδ +<<− ss

в равносильное неравенство

⎟⎠⎞

⎜⎝⎛ +<<⎟

⎠⎞

⎜⎝⎛ −

ss

ss δσδ 11

,

Положив q

s=

δ

, получим ( ) ( )qsqs +<<− 11 σ . (1) Остается найти q. С этой целью введем в рассмотрение случайную

величину «хи»:

1−= nS

σχ

, где n — объем выборки.

Доказано [1], что случайная величина ( )

2

2 1σ−nS

распределена по закону

2χ ,поэтому квадратный корень из нее обозначают через χ . Дифференциальная функция распределения χ имеет вид:

( )⎟⎠⎞

⎜⎝⎛ −

Γ= −

−−

212

,2

3

22

2

nenR n

χχ

. (2)

Мы видим, что это распределение не зависит от оцениваемого параметра σ , а зависит лишь от объема выборки n. Преобразуем неравенство (1) так, чтобы оно приняло вид

.21 χχχ ≤< Вероятность этого неравенства равна заданной вероятности γ , т. е.

( ) .,

2

1

γχχχ

χ

=∫ dnR

Предполагая, что q<1, перепишем неравенство (1) так:

( ) ( ).111

11

qSqS −<<

+ σ Умножив все члены неравенства на 1−nS , получим

qnnS

qn

−−

<−

<+−

111

11

σ или qn

qn

−−

<<+−

11

11 χ

.

Page 118: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

118

Вероятность того, что это неравенство, а следовательно, и равносильное ему неравенство (1) будет осуществлено, равна

( )∫−−

+−

=q

n

qn

dnR1

1

11

., γχχ

Из этого уравнения можно по заданным n и γ найти q. Практически для

отыскания q пользуются таблицей (приложение в учебниках по теории вероятностей.)

Вычислив по выборке s и найдя по таблице q , получим искомый доверительный интервал (1), покрывающий от с заданной надежностью γ , т. е. интервал

( ) ( )qsqs +<<− 11 σ . Пример . Количественный признак X генеральной совокупности

распределен нормально. По выборке объема n=25 найдено «исправленное» среднеквадратическое отклонение s=0,8 Найти доверительный интервал, покрывающий генеральное средне - квадратическое отклонение σ с надежностью 0,95.

Решение. По таблице по данным γ =0,95 и n=25 найдем q =0,32. Искомый доверительный интервал (1) таков: 0,8·(1-0,32)< σ <0,8·(1+0,32) или 0,544<σ <1,056. Замечание. Выше предполагалось, что q<1.Если q>1, то неравенство (1)

примет вид (учитывая σ >0) 0<σ <s(1+q),

или (после преобразований, аналогичных случаю q<1)

∞<<

+− χq

n1

1

Следовательно, значения q>1 могут быть найдены из уравнения

( )∫∞

+−

=

qn

dnR

11

., γχχ

Пример . Количественный признак X генеральной совокупности

распределен нормально. По выборке объема n=10 найдено «исправленное» среднеквадратическое отклонение s=0,16. Найти доверительный интервал, покрывающий генеральное средне- квадратическое отклонение а с надежностью 0,999.

Решение. По таблице по данным γ =0,999 и n=10 найдем q=1,80 (q>1). Искомый доверительный интервал таков:

0<σ <0,16·(1+1,8), или

0<σ <0,448.

Page 119: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

119

Вопросы для самопроверки 1.Что называется точечной оценкой? 2. Что называется интервальной оценкой? 3.Что означает точность и надежность оценок? 4.Что является случайной величиной? Оцениваемый параметр или

доверительный интервал? 5.Как находят доверительные интервалы для оценки математического

ожидания нормального распределения при известном σ . 6. Как находят доверительные интервалы для оценки математического

ожидания нормального распределения при неизвестном σ . 7. Как находят доверительные интервалы для оценки σ нормального

распределения?

Page 120: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

120

Упражнения В задачах 1-3 даны «исправленное» среднеквадратическое отклонение,

выборочная средняя и объем малой выборки нормально распределенного признака. Найти, пользуясь распределением Стьюдента, доверительные интервалы для оценки неизвестного математического ожидания с заданной надежностью.

1. s = 1,5, вx = 16,8, n = 12, γ = 0,95. 2. s = 2,4, вx = 14,2, n = 9, γ = 0,99. 3. По данным 16 независимых равноточных измерений физической

величины найдены вx = 23,161 и s = 0,400. Требуется оценить истинное значение a измеряемой величины и точность измерений σ с надежностью 0,95.

4.В течение продолжительного срока при анализе данного материала на содержание железа установлено стандартное отклонение 0,12%. Найти с доверительной вероятностью 0,95 доверительный интервал для истинного содержания железа в образце, если по результатам 6 анализов среднее содержание железа составило 32,56%

5.Выборка из большой партии электроламп содержит 100 ламп. Средняя продолжительность горения лампы из выборки оказалась равной 1000 ч. Найти с доверительной вероятностью 0,95 доверительный интервал для средней продолжительности а горения лампы всей партии, если известно, что среднее квадратичное отклонение продолжительности горения лампы а = 40 ч.

6.Станок-автомат штампует валики. По выборке объема n=100 вычислено выборочное среднее диаметров изготовленных валиков. Найти с доверительной вероятностью 0,95 точность, с которой выборочное среднее оценивает математическое ожидание диаметров изготовляемых валиков, зная, что их среднее квадратичное отклонение σ = 2 мм.

Литература: [1]: c.216-252; [2]: c.310-330; [3]: c.151-166.

Page 121: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

121

ЛЕКЦИЯ №13 ЭЛЕМЕНТЫ ТЕОРИИ КОРРЕЛЯЦИИ

П Л А Н:

1. Функциональная, статистическая и корреляционная зависимости. 2. Условные средние. Корреляционная зависимость. 3. Две основные задачи теории корреляции. К Л Ю Ч Е В Ы Е С Л О В А: Функциональная зависимость , статистическая (вероятностная или

стохастическая) зависимость, корреляционная зависимость, условные средние. уравнения регрессии, функция регрессии, линия регрессии.

1. Функциональная, статистическая и корреляционная зависимости Во многих задачах требуется установить и оценить зависимость изучаемой

случайной величины Y от одной или нескольких других величин. Рассмотрим сначала зависимость (связь) Y от одной случайной (или неслучайной) величины X.

В некоторых случаях эта связь является настолько тесной что, зная, какое значение приняла величина X, можно однозначно предсказать значение Y; это означает, что связь между величинами X и Y — функциональная. Возможен, однако, и другой крайний случай, когда зависимость между X и Y отсутствует вовсе, т, е. величины X и Y независимы. Точное определение независимости случайных величин было дано ранее в предыдущих лекциях.

В общем случае связь между величинами X и Y находит свое выражение в том, что при фиксированном значении х величины Х, величина Y остается случайной, но с законом распределения, зависящим от X. Иначе говоря, каждому значению X = х отвечает свой закон, распределения величины Х. Рассмотренные выше крайние случаи – функциональная зависимость и полная независимость - вполне укладываются в эту общую cхему ; функциональная зависимость Y= f (X) означает, что при фиксированном значении X = x величина X принимает единственное значение f(х) (с вероятностью 1), а полная независимость означает, что при любом значении х величины X закон распределения величины Y-один и тот же (он не зависит от выбранного нами значения величины X).

Связь между двумя случайными величинами, проявляющаяся том, что изменение одной из них влечет за собой изменение закона распределения другой, называется статистической (или вероятностной или стохастической).

Вероятностная связь между двумя случайными величинами X и Y появляется обычно тогда, когда имеются общие случайные факторы, влияющие как на X, так и на Y (наряду с другими факторами, неодинаковыми для X и Y). Например, если X представляет со-бой некоторую функцию от случайных величин Uи V:

Page 122: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

122

X=f(U,V), а Y есть функция от той же самой величины и другой случайной величины W:

Y=ϕ (U,W), то величины X и Y будут связаны между собой вероятностной связью.

Определение. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой; в этом случае стати-стическую зависимость называют корреляционной.

Приведем пример случайной величины Y, которая не связана с величиной X функционально, а связана корреляционно. Пусть Y — урожай зерна, X — количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т. е. Y не является функцией от X. Это объясняется влиянием случайных факторов (осадки, температура воздуха и др.). Вместе с тем, как показывает опыт, средний урожай является функцией от количества удобрений, т. е.Y связан с X корреляционной зависимостью.

2. Условные средние. Корреляционная зависимость. Уточним определение корреляционной зависимости, для чего введем

понятие условной средней. Предположим, что изучается связь между случайной величиной Y и

случайной величиной X. Пусть каждому значению X соответствует несколько значений Y. Например, пусть при x1=8 величина Y приняла значения: 10,6,5 321 === yyy . Найдем среднее арифметическое этих чисел:

31065

8++

=y

Число у8 называют условным средним; черточка над буквой у служит обозначением среднего арифметического, а число 8 указывает, что рассматриваются те значения Y, которые соответствуют x1=8 .

Применительно к примеру предыдущего пункта эти данные можно истолковать так: на каждый из трех одинаковых участков земли внесли по 8 единицы удобрений и сняли соответственно 5; 6 и 10 единиц зерна; средний урожай составил 7 соответствующих единиц.

Условным средним xy называют среднее арифметическое значений Y, соответвующих значению Х=х.

Если каждому значению х соответствует одно значение условной средней, то, очевидно, условная средняя есть функция от х; в этом случае говорят, что случайная величина Y зависит от X корреляционно.

Корреляционной зависимостью Y от X называют функциональную

зависимость условной средней xy от х:

xy =f(x) (1)

Page 123: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

123

Уравнение (1) называют уравнением регрессии Y на Х; функцию f(x) называют регрессией Y на X, а ее график — линией регрессии Y на X.

Аналогично определяется условная средняя yx , и корреляционная зависимость X от Y.

Условным средним yx значений X, соответствующих Y=у. Корреляционной зависимостью X от Y называют функциональную

зависимость условной средней yx от у:

yx = )(yϕ (2) Уравнение (2) называют уравнением регрессии X на Y функцию

)(хϕ называют регрессией X на Y, а ее график — линией регрессии X на Y. 3. Две основные задачи теории корреляции. Первая задача теории корреляции — установить форму корреляционной

связи, т. е. вид функции регрессии (линейная, квадратичная показательная и т. д.). Наиболее часто функции регрессии оказываются линейными. Если обе функции регрессии f(x) и )(хϕ линейны, то корреляцию называют линейной; в противном случае — нелинейной. Очевидно, при линейной корреляции обе линии регрессии являются прямыми линиями.

Вторая задача теории корреляции — оценить тесноту (силу) корреляционной связи. Теснота корреляционной зависимости Y от X

оценивается по величине рассеяния значений Yвокруг условного среднего xy . Большое рассеяние свидетельствует о слабой зависимости Y от X либо об отсутствии зависимости. Малое рассеяние указывает наличие достаточно сильной зависимости; возможно даже, что Y и X связаны функционально, но под воздействием второстепенных случайных факторов эта связь оказалась размытой, в результате чего при одном и том же значении х величина Y принимает различные значения.

Аналогично (по величине рассеяния значений X вокруг условного

среднего yx ) оценивается теснота корреляционной связи X от Y. Вопросы для самопроверки 1.Дайте определение функциональной зависимости. 2.Дайте определение статистической зависимости. 3.Что называется условным средним? 4.Дайте определение корреляционной зависимости. 5.Дайте определения уравнения регрессии. 6.В чем состоит задача теории корреляции? Литература: [1]: c.252-254; [2]: c.392-394; [3]: c.195-235.

Page 124: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

124

ЛЕКЦИЯ №14 МЕТОД НАИМЕНЬШИХ КВАДРАТОВ

П Л А Н:

1. Отыскание параметров выборочного уравнения прямой линии

регрессии по не сгруппированным данным. 2. Корреляционная таблица. 3. Отыскание параметров выборочного уравнения прямой линии

регрессии по сгруппированным данным. Выборочный коэффициент корреляции.

К Л Ю Ч Е В Ы Е С Л О В А: Выборочный коэффициент корреляции, выборочное уравнения прямой

линии регрессии, метод наименьших квадратов. 1. Отыскание параметров выборочного уравнения прямой линии

регрессии по не сгруппированным данным Допустим, что количественные признаки X и Y связаны линейной

корреляционной зависимостью. В этом случае обе линии регрессии будут прямыми.

Предположим, что для отыскания уравнений этих прямых проведено n независимых испытаний, в результате которых получены n пар чисел:

( ) ( ) ( ).,,...,,,, 2221 nn yxyxyx Поскольку наблюдаемые пары чисел можно рассматривать как случайную

выборку из генеральной совокупности всех возможных значений случайной величины (X, Y), то величины и уравнения, найденные по этим данным, называют выборочными.

Для определенности будем искать выборочное уравнение прямой линии регрессии Y на X.

Рассмотрим простейший случай: различные значения х признака X и соответствующие им значения у признака Y наблюдались по одному разу. Очевидно, что группировать данные нет необходимости. Также нет надобности использовать понятие условной средней, поэтому искомое уравнение

bkxyx += можно записать так: bkxY += Угловой коэффициент прямой линии регрессии Y на X принято называть

выборочным коэффициентом регрессии Y на X и обозначать через yxρ . Итак, будем искать выборочное уравнение прямой линии регрессии Y на X

вида:

bxYyx

+= ρ (1)

Page 125: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

125

Поставим своей задачей подобрать параметры yxρ , и b так, чтобы точки ( ) ( ) ( ).,,...,,,, 12221 nyxyxyx , построенные по данным наблюдений на плоскости XOY, как можно ближе лежали вблизи прямой (1).

Уточним смысл этого требования. Назовем отклонением разность ),...,2,1( niyY iI =− где IY — вычисленная по уравнению (1) ордината, соответствующая

наблюдаемому значению ix ; iy — наблюдаемая ордината, соответствующая ix .

Подберем параметры yxρ и b так, чтобы сумма квадратов отклонений была минимальной (в этом состоит сущность метода наименьших квадратов).

Так как каждое отклонение зависит от отыскиваемых параметров, то и сумма квадратов отклонений есть функция yxρ этих параметров (временно вместо yxρ будем писать ρ ):

( ) ( )∑

=

−=n

iiI yYbF

1

2,ρ

или

( ) ( )∑ −+= 2, ii ybxbF ρρ

Для отыскания минимума приравняем нулю соответствующие частные

производные:

( )∑

=

=−+=∂∂ n

iiii xybxF

1;02 ρ

ρ

( )∑

=

=−+=∂∂ n

iii ybxF

1.02 ρ

ρ

(Для простоты записи вместо ∑=

n

i 1 будем писать ∑ ) Выполнив элементарные преобразования, получим систему двух линейных

уравнений относительно ρ и b ( ) ( ) ( ) ∑∑∑∑∑ =+=+ .;2 ynbxxybxx ρρ (2) Решив эту систему, найдём искомые параметры:

yxρ = ( )∑ ∑∑ ∑ ∑

⋅−22 xxn

yxxyn

; (3)

b = ( )∑ ∑∑ ∑ ∑ ∑

⋅−⋅22

2

xxn

xyxyx

Аналогично можно найти выборочное уравнение прямой линии регрессии

X на Y:

cyxxyy += ρ ,

Page 126: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

126

где xyρ -выборочный коэффициент регрессии X на Y.

П р и м е р. Найти выборочное уравнение прямой линии регрессии Y на X по данным n=5 наблюдений:

25,25

75,15,4

5,13

4,15,1

25,11

yx

Решение. Составим расчетную таблицу 1. Таблица 1.

ix iy 2ix ii yx ⋅

1,00 1,50 3,00 4,50 5,00

125 1,40 1,50 1,75 2,25

1,00 2,25 9,00 20,25 25,00

1,250 2,100 4,500 4,875

11,250 ∑ = 15ix ∑ = 15,8iy ∑ = 50,572

ix ∑ = 975,26ii yx

Найдем искомые параметры, для чего подставим вычисленные по таблице

суммы в соотношения (3):

yxρ =;202,0

155,57515,815975,265

2 =−⋅

⋅−⋅

b = .024,1

5,62975,261515,85,57

=⋅−⋅

Напишем искомое уравнение регрессии: .024,1202,0 += xY Для того чтобы получить представление, насколько хорошо вычисленные

по этому уравнению значения Yi согласуются с наблюдаемыми значениями yi, найдем отклонения ii yY − , Результаты вычислений сведены в таблицу2.

Таблица 2. ix Yi yi, ii yY −

1,00 1,50 3,00 4,50 5,00

1,226 1,327 1,630 1,993 2,034

1,25 1,40 1,50 1,75 2,25

-0,024 -0,073 0,130 0,083 -0,216

Как видно из таблицы, не все отклонения достаточно малы. Это

объясняется малым числом наблюдений. 2. Корреляционная таблица При большом числе наблюдений одно и то же значение х может

встретиться xn раз, одно и то же значение у может встретиться yn раз, одна и та

Page 127: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

127

же пара чисел (х, у) может наблюдаться xyn раз. Поэтому данные наблюдений группируют, т. е. подсчитывают частоты xn , yn , xyn . Все сгруппированные данные записывают в виде таблицы, которую называют корреляционной.

Поясним устройство корреляционной таблицы на примере (табл. 3). Таблица 3.

YX

10 20 30 40 yn

0,4 5 - 7 14 26 0,6 - 2 6 4 12 0,8 3 19 - - 22

xn 8 21 13 18 n=60 В первой строке таблицы указаны наблюдаемые значения (10; 20; 30; 40)

признака X, а в первом столбце — наблюдаемые значения (0,4; 0,6; 0,8) признака Y. На пересечении строк и столбцов вписаны частоты xyn наблюдаемых пар значений признаков, Например, частота 5 указывает, что пара чисел (10; 0,4) наблюдалась 5 раз. Все частоты помещены в прямоугольнике, клетки которого выделены. Черточка означает, что соответственная пара чисел, например (20; 0,4), не наблюдалась.

В последнем столбце записаны суммы частот строк. Например, сумма частот первой строки прямоугольника, клетки которого выделены, равна

yn =5+7+ 14=26; это число указывает, что значение признака Y, равное 0,4 (в сочетании с различными значениями признака X) наблюдалось 26 раз.

В последней строке записаны суммы частот столбцов. Например, число 8 указывает, что значение признака X, равное 10 (в сочетании с различными значениями признака Y) наблюдалось 8 раз.

В клетке, расположенной в нижнем правом углу таблицы, помещена сумма

всех частот (общее число всех наблюдений n). Очевидно ∑ ∑= yx nn = n. В нашем примере

∑ xn =8+21 + 13+18=60 и ∑ yn = 26+ 12+22=60. 3. Отыскание параметров выборочного уравнения прямой линии

регрессии по сгруппированным данным. Выборочный коэффициент корреляции

В п.1/ для определения параметров уравнения прямой линии регрессии Y на X была получена система уравнений:

( ) ( )( ) ⎪⎭

⎪⎬⎫

=+=+

∑∑∑∑∑

ynbxxybxx

yx

yx

ρρ ;2

(4) Предполагалось, что значения X и соответствующие им значения Y

наблюдались по одному разу. Теперь же допустим, что получено большое число данных (практически для удовлетворительной оценки искомых парамет-

Page 128: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

128

ров должно быть хотя бы 50 наблюдений), среди них есть повторяющиеся, и они сгруппированы в виде корреляционной таблицы. Запишем систему (4) так, чтобы она отражала данные корреляционной таблицы. Воспользуемся тождествами:

;⎟⎟⎠

⎞⎜⎜⎝

⎛== ∑∑ n

xxизследствиеxnx

⎟⎟⎠

⎞⎜⎜⎝

⎛== ∑∑ n

yyизследствиеyny

⎟⎟⎠

⎞⎜⎜⎝

⎛== ∑∑ n

xxизследствиеxx

2222

∑ ∑= xynxy xy (учтено, что пара чисел (х, у) наблюдалась xyn раз). Подставив правые части тождеств в систему (4) и сократив обе части

второго уравнения на n, получим:

( ) ( )( ) ⎪⎭

⎪⎬⎫

=+

=+⎟⎠⎞⎜

⎝⎛ ∑

.

;2

ybx

xynbxnxn

yx

xyyx

ρ

ρ

(5) Решив эту систему, найдем параметры yxρ и b и, следовательно, искомое

уравнение:

bxy yxx += ρ Однако более целесообразно, введя новую величину — коэффициент

корреляции, написать уравнение регрессии в ином виде. Сделаем это. Найдем b из второго уравнения (5): b= −y yxρ x

Подставив правую часть этого равенства в уравнение bxy yxx += ρ , получим:

( )xxyy yxx −=− ρ (6)

Найдем из системы (4) коэффициент регрессии, учитывая, что ( ) :222

xxx σ=−

( )

.222 x

xyxyyx n

yxnxyn

xxxn

yxnxynσ

ρ−

=

⎥⎦⎤

⎢⎣⎡ −

−= ∑∑

Умножим обе части равенства на дробь :

y

x

σσ

.

yx

xy

y

xyx n

yxnxynσσσ

σρ−

⋅= ∑

Обозначим правую часть равенства через Br и назовем ее выборочным коэффициентом корреляции:

Page 129: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

129

В

y

xyx r=σσρ

или

x

yByx rσσ

ρ =

Подставив правую часть этого равенства в (6),окончательно получим выборочное уравнение прямой линии регрессии Y на X вида

( ).xxryy

x

yBx −=−σσ

Замечание1. Аналогично находят выборочное уравнение прямой линии

регрессии X на Y вида

( )yyrxx

y

xBy −=−σσ

где

xy

y

xBr ρσσ

= .

Замечание2.Выборочный коэффициент корреляции имеет важное самостоятельное значение. Как следует из предыдущего, выборочный коэффициент корреляции определяется равенством

yx

xyB n

yxxynr

σσ∑ −

=

где х, у -варианты (наблюдавшиеся значения) признаков X и Y ; xyn - частота наблюдавшейся пары вариант (х, у);

n -объем выборки (сумма всех частот); yx, - выборочные средние; yx σσ , - выборочное среднеквадратические отклонения.

Обсуждение и изучение свойств выборочного коэффициента корреляции продолжим в лекции №15.

Вопросы для самопроверки 1.Что представляет собой метод наименьших квадратов (МНК)? 2.Что такое наблюдаемая ордината в МНК? 3.Напишите параметры выборочного уравнения прямой линии регрессии в

случае, когда данные не сгруппированы? 4.Поясните устройство корреляционной таблицы. 5.Напишите параметры выборочного уравнения прямой линии регрессии в

случае, когда данные сгруппированы? Литература: [1]: c.255-268; [2]: c.394-410; [3]: c.195-235.

Page 130: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

130

ЛЕКЦИЯ №15 ТЕСНОТА КОРРЕЛЯЦИОННОЙ ЗАВИСИМОСТИ

ПЛАН:

1. Выборочный коэффициент корреляции. 2. Выборочное корреляционное отношение. КЛЮЧЕВЫЕ СЛОВА: Выборочный коэффициент корреляции, выборочное корреляционное

отношение, теснота корреляционной зависимости. 1. В лекции №14 установили, что выборочный коэффициент корреляции

определяется равенством

yx

xyв n

yxnxynr

σσ∑ −

= ,

где x,y- варианты признаков X,Y; xyn - частота наблюдавшейся пары вариант ( )yx, ;

n-объем выборки (сумма всех частот); yx, -выборочные средние; yx σσ , -выборочные среднеквадратические отклонения.

Выборочный коэффициент корреляции имеет важное самостоятельное значение. Ниже приведем свойства выборочного коэффициента корреляции из которых следует, что он служит для оценки тесноты линейной корреляционной зависимости.

Воспользуемся формулами (вывод опускаем):

( )21 вyy rDS −= ; ( )21 вxx rDS −= , где yS - дисперсия наблюдавшихся значений y вокруг соответствующих

значений условных средних xy ; Dy - дисперсия наблюдавшихся значений y вокруг соответствующих

значений условных средних y . Аналогичный смысл имеют дисперсии xx DS , . 10. Абсолютная величина выборочного коэффициента корреляции не

превосходит единицы. Доказательство. Любая дисперсия неотрицательна. В частности,

( ) 01 2 ≥−= вyy rDS . Следовательно, ( ) 01 2 ≥− вr . Отсюда 11 ≤≤− вr , или

Page 131: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

131

1≤вr . 20 . Если выборочный коэффициент корреляции равен нулю и выборочные

линии регрессии прямые. То X и Y не связаны линейной корреляционной зависимостью.

Доказательство. При 0=вr уравнение выборочной прямой регрессии Y на X

( )xxryy

x

yвx −=−σσ

имеет вид:

0=− yy x , или

yy x = . При 0=вr уравнение прямой регрессии Y на X имеет вид xx y = .

Таким образом, при 0=вr условные средние сохраняют постоянное значение при изменении соответствующих аргументов; в этом смысле можно считать, что X и Y не связаны линейной корреляционной зависимостью. Очевидно, в рассматриваемом случае прямые регрессии параллельны соответствующим координатным осям.

Замечание. Если выборочный коэффициент корреляции равен нулю, то признаки X и Y могут быть связаны нелинейной корреляционной или даже функциональной зависимостью.

30. Если 1=вr , то наблюдаемые значения признаков связаны линейной функциональной зависимостью.

Если 1=вr , то ( ) 01 2 =−= вyy rDS . Можно показать, что отсюда следует равенство:

( ) 0=−−− xxryy

x

yв σσ

. Как видим, любая наблюдаемая пара чисел ( )yx, удовлетворяет этому линейному относительно x и y уравнению, т.е. значения признаков в выборке связаны линейной функциональной зависимостью. Заметим, что отсюда еще нельзя уверенно заключить, что и в генеральной совокупности признаки связаны линейной функциональной зависимостью (при репрезентативной выборке большого объема зависимость между совокупности будет близка к линейной, или даже будет линейной.

40. С возрастанием абсолютной величины выборочного коэффициента корреляции линейная корреляционная зависимость становится более тесной и

при 1=вr переходит в функциональную зависимость. Доказательство. Из формул

Page 132: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

132

( )21 вyy rDS −= ; ( )21 вxx rDS −= ,

видно, что с возрастанием вr дисперсии yS , xS убывают, т.е. уменьшается рассеяние наблюдаемых значений признаков вокруг условных средних, а это

означает, что связь между признаками становится более тесной и при 1=вr , как следует из свойства 30, переходит в функциональную.

Из приведенных свойств вытекает смысл вr : выборочный коэффициент корреляции характеризует тесноту линейной связи между количественными

признаками в выборке: чем ближе вr к 1, тем связь сильнее; чем ближе вr к 0, тем связь слабее.

Если выборка имеет достаточно большой объем и хорошо представляет генеральную совокупность (репрезентативна ), то заключение о тесноте линейной зависимости между признаками, полученное по данным выборки, в известной степени может быть распространено и на генеральную совокупность.

Например, для оценки коэффициента корреляции гr нормально распределенной генеральной совокупности (при 50≥n ) можно воспользоваться формулой

nr

rrnr

r ввг

вв

22 13

13

+⋅+≤≤

−⋅−

. Замечание 1. Знак выборочного коэффициента корреляции совпадает со

знаком выборочных коэффициентов регрессии что следует из формул:

y

xвxy

x

yвyx rr

σσ

ρσσ

ρ == ; (1)

Замечание 2. Выборочный коэффициент корреляции равен среднему геометрическому выборочных коэффициентов регрессии. Действительно, перемножив левые и правые части (1) получим:

2вxyyx r=⋅ ρρ

Отсюда

xyyxвr ρρ ⋅±= . Знак при радикале, в соответствии с замечанием 1, должен совпадать со

знаком коэффициентов регрессии. 2. Для оценки тесноты линейной корреляционной связи между признаками

в выборке служит выборочный коэффициент корреляции. Для оценки тесноты нелинейной корреляционной связи вводят новые сводные характеристики:

yxη - выборочное корреляционное отношение Y к X; xyη - выборочное корреляционное отношение X к .

Выборочным корреляционным отношением Y к X называют отношению

y

yyx

x

σ

ση =

.

Page 133: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

133

Здесь

( )n

yyn xxy x

∑ −=

2

σ ;

( )n

yynyy

∑ −=

2

σ,

где n – объем выборки (сумма всех частот); xn - частота значения x признака X; yn - частота значения y признака Y;

y - общая средняя признака Y; xy - условная средняя признака Y.

Аналогично определяется выборочное корреляционное отношение X к Y:

x

xxy

y

σ

ση =

. Пример. Найти yxη по данным корреляционной таблицы.

Решение. Найдем общую среднюю

.4,17

5025121538

=⋅+⋅

== ∑n

yny y

Найдем

( ) ( ) ( ) .27,4

504,172512171538 222

=−+−

=−

= ∑n

yynyyσ

( ) ( ) ( ) ( ) 73,2

504,1620124,1715284,172110 2222

=−+−+−

=−

= ∑n

yyn xxy x

σ.

Искомое корреляционное отношение

y

yyx

x

σ

ση =

=0,64 Свойства выборочного корреляционного отношения. Поскольку yxη обладает теми свойствами ,что и xyη , перечислим свойства

только выборочного корреляционного отношения yxη ,которое далее для упрощения записи будем обозначать через η и для простоты речи «корреляционным отношением».

10. Корреляционное отношение удовлетворяет двойному соотношению:

YX

10 20 30 yn

15 4 28 6 38 25 6 -- 6 12

xn 10 28 12 50=n xy 21 15 20

Page 134: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

134

10 ≤≤η . 20. Если η =0, то и признак Y с признаком X корреляционной

зависимостью не связан и обратно. 30. Если η =1, то признак Yсвязан с признаком X функциональной

зависимостью и обратно

40. вr≤η .

50. Если η = вr , то имеет место точная линейная корреляционная зависимость.

Вопросы для самопроверки 1.Как определяется выборочный коэффициент корреляции? 2.Приведите свойства выборочной коэффициента корреляции? 3.Что характеризирует коэффициент корреляции? 4.В каких случаях заключение о тесноте линейной зависимости между

признаками, полученное по данным выборки, может быть распространена и на генеральную совокупность?

5.Напишите формулу для оценки коэффициента корреляции нормально распределенной генеральной совокупности при больших n?

6.Как оценивается тесноту нелинейной корреляционной связи? 7.Приведите свойства выборочного корреляционного отношения. Литература: [1]: c.261-274; [2]: c.410-427; [3]: c.195-235.

Page 135: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

135

ЛЕКЦИЯ №16 КРИВОЛИНЕЙНАЯ И МНОЖЕСТВЕННАЯ КОРРЕЛЯЦИИ.

ПЛАН:

1.Криволинейные корреляции. 2.Понятие о множественной корреляции. КЛЮЧЕВЫЕ СЛОВА:

Криволинейные корреляции, множественная корреляция. В предыдущей лекции (лек. №15) было установлено: при 0=η

признаки не связаны корреляционной зависимостью; при 1=η имеет место функциональная зависимость.

В рассуждениях не делалось никаких допущений о форме корреляционной связи. Поэтому η служит мерой тесноты связи для любой, в том числе и линейной формы. В этом преимущество корреляционного отношения перед коэффициентом корреляции, который оценивает тесноту лишь линейной зависимости. Вместе с тем корреляционное отношение обладает недостатком: оно не позволяет судить, насколько близко расположены точки, найденные по данным наблюдений, к кривой определенного вида, например к параболе, гиперболе и т.д. Это объясняется тем, что при определении корреляционного отношения форма связи во внимание не принималась.

1. Если график регрессии ( )xfyx = или ( )yxy ϕ= изображается кривой линией , то корреляцию называют криволинейной.

Например, функции регрессии Y на X могут имеет вид:

cbxaxyx ++= 2 - параболическая корреляция, x

bayx += - гиперболическая

корреляция, x

x aby = - показательная корреляция и т. д. Теория криволинейной корреляции решает те же задачи , что и теория

линейной корреляции – установление формы и тесноты корреляционной связи. Неизвестные параметры уравнения регрессии ищут методом наименьших

квадратов. Для оценки тесноты криволинейной корреляции служат выборочные корреляционные отношения (лек.№15).

Рассмотрим параболическую корреляцию, предположив, что данные выборки позволяют считать, что имеет место именно такая корреляция . В этом случае выборочное уравнение регрессии Y на X имеет вид:

CBxAxyx ++= 2, (1)

где A,B,C – неизвестные параметры.

Page 136: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

136

Пользуясь МНК, получают систему линейных уравнений относительно неизвестных параметров (вывод опущен , поскольку он не содержит ничего нового сравнительно с п.1 лек.№14.)

( ) ( ) ( ) 2234 xynCxnBxnAxnxxxxx ∑∑∑∑ =++

( ) ( ) ( ) xynCxnBxnAxnxxxxx ∑∑∑∑ =++ 23

(2)

( ) ( )xxxx ynnCBxnAxn ∑∑∑ =++2

Найденные из этой системы параметры A,B,C подставляют в (1) в итоге

получают искомое уравнение регрессии. 2. Если исследовать связь между несколькими признаками, то

корреляцию называют множественной. В простейшем случае число признаков равно трем, и связь между ними

линейная: cbyaxz ++= В этом случае возникают задачи: 1) найти по данным наблюдений выборочное уравнение связи вида CBxAxz ++= (3) т. е. требуется найти коэффициенты регрессии A, B и параметр C.; 2) оценить тесноту связи между Z и обоими признаками X.Y; 3) оценить тесноту связи между Z и X (при постоянномY), между Z

и.Y (при постоянном Х). Первая задача решается МНК, причем вместо уравнения (3) удобнее

искать уравнение связи вида ( ) ( )yyBxxAzz −+−=− , где

x

z

xy

xyyzxz

rrrr

Aσσ⋅

−= 21 ; y

z

xy

xyxzyz

rrrr

Bσσ⋅

−= 21 .

Здесь −xyyzxz rrr ,, коэффициенты корреляции соответственно между признаками X и Z, Z и X, X и Y;

zyx σσσ ,, -среднеквадратическое отклонения. Теснота связи признака Z с признаками X,Y оценивается выборочным

совокупным коэффициентом корреляции:

2

22

12

xy

yzyzxzxyxz

rrrrrr

R−

+−=

; причем 10 ≤≤ r . Теснота связи между Z и X (при постоянном Y), междуZ и Y (при

постоянном X) оценивается соответственно частными выборочными коэффициентами корреляции:

( )( )22)(11 yzxy

yzxyxzyxz

rr

rrrr

−−

−=

; ( )( )22)(11 xzxy

xzxyyzxyz

rr

rrrr

−−

−=

.

Page 137: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

137

Эти коэффициенты имеют те же свойства и тот же смысл , что и обыкновенный выборочный коэффициент корреляции, т.е. служат для оценки линейной связи между признаками.

Вопросы для самопроверки 1.В чем проявляется недостаток корреляционного отношения? 2.Какую задачу решает теория криволинейной корреляции? 3.Какой метод используется для нахождения коэффициентов

регрессионных уравнений в теории криволинейной корреляции ? 4.Что называется множественной корреляцией? 5. Как выясняется теснота связи меду признаками во множественной

корреляции? Литература: [1]: c.274-280; [2]: c.447-459; [3]: c.195-235.

Page 138: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

138

ЛЕКЦИЯ №17. CТАТИСТИЧЕСКИЕ ГИПОТЕЗЫ И ИХ СТАТИСТИЧЕСКАЯ

ПРОВЕРКА

П Л А Н:

1. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная гипотезы.

2. Ошибки первого и второго рода. 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое

значение критерия. 4. Критическая область. Область принятия гипотезы. Критические точки. 5. Отыскание правосторонней критической области. 6. Отыскание левосторонней и двусторонней критических областей. 7. Дополнительные сведения о выборе критической области. Мощность

критерия. 8. Сравнение двух дисперсий нормальных генеральных совокупностей. КЛЮЧЕВЫЕ СЛОВА: Статистическая гипотеза, нулевая и конкурирующая, простая и сложная

гипотезы, ошибки первого и второго рода, статистическая критерия, наблюдаемое значение критерия, критическая область, область принятия гипотезы, критические точки, правосторонняя критическая область, левосторонняя критическая область, двусторонняя критическая область, мощность критерия.

1. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная

гипотезы. Часто необходимо знать закон распределения генеральной совокупности.

Если закон распределения неизвестен, но имеются основания предположить, что он имеет определенный вид (назовем его А), выдвигают гипотезу: генеральная совокупность распределена по закону А. Таким образом, в этой гипотезе речь идет о виде предполагаемого распределения.

Возможен случай, когда закон распределения известен, а его параметры неизвестны. Если есть основания предположить, что неизвестный параметр Θ равен определенному значению 0Θ , выдвигают гипотезу: Θ= 0Θ . Таким образом, в этой гипотезе речь идет о предполагаемой величине параметра одного известного распределения.

Возможны другие гипотезы: о равенстве параметров двух или нескольких распределений, о независимости выборок и многое другие.

Статистической называют гипотезу о виде неизвестного распределения, или о параметрах известных распределений.

Например, статистическими будут гипотезы: 1) генеральная совокупность распределена по закону Пуассона;

Page 139: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

139

2) дисперсия двух нормальных совокупностей равны между собой. В первой гипотезе сделано предположение о виде неизвестного

распределения, во второй – о параметрах двух известных распределений. Гипотеза «3 февраля 2004 г. выпадет снег» не является статистической,

поскольку в ней не идет речь ни о виде, ни о параметрах распределения. Наряду с выдвинутой гипотезой рассматривают и противоречащую ей

гипотезу. Если выдвинутая гипотеза будет отвергнута, то имеет место противоречащая гипотеза. По этой причине эти гипотезы целесообразно различать.

Нулевой (основной) называют выдвинутую гипотезу 0H . Конкурирующей (альтернативной) называют гипотезу 1H , которая

противоречит нулевому. Например, если нулевая гипотеза состоит в предположении, что

математическое ожидания а нормального распределения равно 10, то конкурирующая гипотеза, в частности может состоять в предположении, что

0≠а . Коротко это записывают так: 10:;10: 10 ≠= aHaH . Различают гипотезы, которые содержат только одно и более предложений. Простой называют гипотезу, содержащую только одно предложение.

Например, если λ - параметр показательного распределения, то гипотеза 5:0 =λH -простая гипотеза. Гипотеза :0H математическое ожидание

нормального распределения равно 3 (σ известно) –простая. Сложной называют гипотезу, которая состоит из конечного или

бесконечного числа простых гипотез. Например, сложная гипотеза 5: >λH состоит из бесчисленного множества простых гипотез вида ii bH =λ: , где ib - любое число, больше 5. Гипотеза :0H математическое ожидание нормального распределения равно 3 (σ неизвестно) – сложная.

2. Ошибки первого и второго рода. Выдвинутая гипотеза может быть правильной или неправильной, поэтому

возникает ее проверки. Поскольку проверку производят статистическими методами, ее называют статистической. В итоге статистической проверки гипотезы в двух случаях может быть принято неправильное решение, т.е. могут быть допущены ошибки двух родов.

Ошибкой первого рода состоит в том, что будет отвергнута правильная гипотеза.

Ошибкой второго рода состоит в том, что принята неправильная гипотеза. Подчеркнем, что последствия этих ошибок могут оказаться весьма

различными. Например, если отвергнуто правильное решение «продолжать строительство жилого дома», то эта ошибка первого рода повлечет материальный ущерб; если же принято неправильное решение «продолжать строительство», несмотря на опасность обвала стройки то эта ошибка второго рода может повлечь гибель людей. Разумеется, можно привести примеры, когда

Page 140: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

140

ошибка первого рода влечет более тяжелые последствия, чем ошибка второго рода.

Замечание 2.1. Правильное решение может быть принято также в двух случаях:

1) гипотеза принимается, причем и в действительности она правильная;

2) гипотеза отвергается, причем и в действительности она неверна. Замечание2.2.Вероятность совершить ошибку первого рода принято

обозначать черезα ; ее называют уровнем значимости. Наиболее часто уровень значимости принимают равным 0,05 или 0,01. Если, например, принят уровень значимости равный 0,05, то это означает, что е пяти случаях из ста мы рискуем допустить ошибку первого рода (отвергнуть правильную гипотезу).

3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое

значение критерия. Для проверки нулевой гипотезы используют специально подобранную

случайную величину, точное или приближенное распределение которой известно. Эту величину обозначают через U или Z , если она распределена нормально, F или 2v — по закону Фишера — Снедекора, Т — по закону Стьюдента,

2χ — по закону «хи-квадрат» и т. д. Поскольку в этой лекции вид распределения во внимание приниматься не будет, обозначим эту величину, в целях общности, через K .

Статистическим критерием (или просто критерием) называют случайную величину К, которая служит для проверки нулевой гипотезы.

Например, если проверяют гипотезу о равенстве дисперсий двух нормальных генеральных совокупностей, то в качестве критерия К принимают отношение исправленных выборочных дисперсий:

22

21

ssF =

. Эта величина случайная, потому что в различных опытах дисперсии будут

принимать различные, наперед неизвестные значения и распределена по закону Фишера — Снедекора.

Для проверки гипотезы по данным выборок вычисляют частные значения входящих в критерий величин, и таким образом получают частное (наблюдаемое) значение критерия.

Наблюдаемым значением наблK назначают значение критерия, вычисленное по выборкам.

Например, если по двум выборкам, извлеченным из нормальных генеральных совокупностей, найдены исправленные выборочные дисперсии 202

1 =s и 522 =s , то наблюдаемое значение критерия F

.4

520

22

21 ===

ssF

4. Критическая область. Область принятия гипотезы. Критические точки.

Page 141: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

141

После выбора определенного критерия, множество всех его возможных значений разбивают на два непересекающихся подмножества: одно из них содержит значения критерия, при которых нулевая гипотеза отвергается, а дру-гое — при которых она принимается.

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Областью принятая гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Основной принцип проверки статистических, гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области — гипотезу отвергают, если наблюдаемое значение критерия принадлежит области принятия гипотезы — гипотезу принимают. Поскольку критерий К — одномерная случайная величина, все ее возможные значения принадлежат некоторому интервалу. Поэтому критическая область и область принятия гипотезы также являются интервалами и, следовательно, существуют точки, которые их разделяют.

Рис.1. Критическими точками (границами) крk называют точки, отделяющие

критическую область от области принятия гипотезы. Различают одностороннюю (правостороннюю или левостороннюю) и

двустороннюю критические области . Правосторонней называют критическую область, определяемую

неравенством крkK > где крk — положительное число (рис.1,а). Левосторонней называют критическую область, определяемую

неравенством крkK < где крk — отрицательное число (рис.1, б). Односторонней называют правостороннюю или левостороннюю

критическую область. Двусторонней называют критическую область, определяемую

неравенствами ,, 21 kKkK >< где 12 kk > . В частности, если критические точки симметричны относительно нуля,

двусторонняя критическая область определяется неравенствами (в предположении, что крk >0):

кркр kKkK >−< , ,

или равносильным неравенством крkK > (рис. 1, в).

0 K kкр

0 K kкр kкр

0 K kкр

Page 142: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

142

5. Отыскание правосторонней критической области. Как найти критическую область? Обоснованный ответ на этот вопрос требует привлечения довольно сложной теории. Ограничимся ее элементами. Для опре-деленности начнем с нахождения правосторонней критической области, кото-рая определяется неравенством

крkK > где крk >0. Мы видим, что для отыскания правосторонней критической области

достаточно найти критическую точку. Следовательно, возникает новый вопрос: как ее найти?

С этой целью задаются достаточно малой вероятностью — уровнем значимостиα . Затем ищут критическую точку, исходя из требования, чтобы, при условии справедливости нулевой гипотезы, вероятность того, что критерийK , примет значение, большее крk была равна принятому уровню значимости:

( ) α=> крkKP Для каждого критерия имеются соответствующие таблицы, по которым и

находят критическую точку, удовлетворяющую этому требованию. Замечание 5.1. Когда критическая точка уже найдена, вычисляют по

данным выборок наблюденное значение критерия и, если окажется, что наблK > крk , то нулевую гипотезу отвергают; если же наблK < крk , то нет оснований, чтобы отвергнуть нулевую гипотезу.

Пояснение. Почему правосторонняя критическая область была определена, исходя из требования, чтобы при справедливости нулевой гипотезы выполнялось соотношение

( ) α=> крkKP ? (1) Поскольку вероятность события крkK > мала (α — малая вероятность),

такое событие, при справедливости нулевой гипотезы, в силу принципа практической невозможности маловероятных событий, в единичном испытании не должно наступить. Если все же оно произошло, т. е. наблюдаемое значение критерия оказалось больше крk , то это можно объяснить тем, что нулевая гипотеза ложна и, следовательно, должна быть отвергнута. Таким образом, требование (1) определяет такие значения критерия, при которых нулевая гипотеза отвергается, а они и составляют правостороннюю критическую область.

Замечание5.2. Наблюдаемое значение критерия может оказаться большим крk не потому, что нулевая гипотеза ложна, а по другим причинам (малый объем выборки, недостатки методики эксперимента и др.). В этом случае, отвергнув правильную нулевую гипотезу, совершают ошибку первого рода. Вероятность этой ошибки равна уровню значимостиα . Итак, пользуясь требованием (1), мы с вероятностью α рискуем совершить ошибку первого рода.

Page 143: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

143

Заметим кстати, что в книгах по контролю качества продукции, вероятность признать негодной партию годных изделий называют «риском производителя», а вероятность принять негодную партию— «риском потребителя».

Замечание 5.3. Пусть нулевая гипотеза принята; ошибочно думать, что тем самым она доказана. Действительно, известно, что один пример, подтверждающий справедливость некоторого общего утверждения еще не доказывает его. Поэтому более правильно говорить «данные наблюдений согласуются с нулевой гипотезой и, следовательно, не дают оснований ее отвергнуть».

На практике для большей уверенности принятия гипотезы, ее проверяют другими способами, или повторяют эксперимент, увеличив объем выборки.

Отвергают гипотезу более категорично, чем принимают. Действительно, известно, что достаточно привести один пример, противоречащий некоторому общему утверждению, чтобы это утверждение отвергнуть. Если оказалось, что наблюдаемое значение критерия принадлежит критической области, то этот факт и служит примером, противоречащим нулевой гипотезе, что позволяет ее отклонить.

6. Отыскание левосторонней и двусторонней критических областей. Отыскание левосторонней и двусторонней критических областей сводится

(так же, как и для правосторонней) к нахождению соответствующих критических точек.

Левосторонняя критическая область определяется (п. 4) неравенством крkK < ( крk <0). Критическую точку находят, исходя из требования, чтобы при

справедливости, нулевой гипотезы, вероятность того, что критерий примет значение, меньшее крk , была равна принятому уровню значимости:

P ( крkK < )=α Двусторонняя критическая область определяется (п.4) неравенствами

,, 21 kKkK >< . Критические точки находят, исходя из требования, чтобы, при

справедливости нулевой гипотезы, сумма вероятностей того, что критерий примет значение меньшее 1k или большее 2k , была равна принятому уровню значимости:

( ) ( ) α=>+< кркр kKPkKP (2) Ясно, что критические точки могут быть выбраны бесчисленным

множеством способов. Если же распределение критерия симметрично относительно нуля и имеются основания {например, для увеличения мощности(определение мощности будет дано в п.7.)) выбрать симметричные относительно нуля точки — крk и крk ( крk >0), то

( ) ( )кркр kKPkKP >=−< .

Page 144: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

144

Учитывая (2), получим

( )

=> крkKP

Это соотношение и служит для отыскания критических точек двусторонней критической области.

Как уже было указано (п.5), критические точки находят по соответствующим таблицам.

7. Дополнительные сведения о выборе критической области. Мощность

критерия Мы строили критическую область, исходя из требования, чтобы

вероятность попадания в нее критерия была равна α , при условии, что нулевая гипотеза справедлива. Оказывается целесообразным ввести в рассмотрение вероятность попадания критерия в критическую область при условии, что нулевая гипотеза неверна и, следовательно, справедлива конкурирующая.

Мощностью критерия называют вероятность попадания критерия в критическую область, при условии, что справедлива конкурирующая гипотеза. Другими словами, мощность критерия есть вероятность того, что нулевая гипо-теза будет отвергнута, если верна конкурирующая гипотеза.

Пусть для проверки гипотезы принят определенный уровень значимости и выборка имеет фиксированный объем. Остается произвол в выборе критической области. Покажем, что ее целесообразно построить так, чтобы мощность критерия была максимальной.

Предварительно убедимся, что если вероятность ошибки второго рода (принять неправильную гипотезу) равна β , то мощность равна 1- β . Действительно, если β — вероятность ошибки второго рода, т. е. события «принята нулевая гипотеза, причем справедлива конкурирующая», то вероятность противоположного события «отвергнута нулевая гипотеза, причем справедлива конкурирующая», т. е. мощность критерия равна 1- β .

Пусть мощность 1- β возрастает; следовательно, уменьшается вероятность β совершить ошибку второго рода. Таким образом, чем мощность больше, тем вероятность ошибки второго рода меньше.

Итак, если уровень значимости уже выбран, то критическую область следует строить так, чтобы мощность критерия была максимальной. Выполнение этого требования обеспечит минимальную ошибку второго рода, что, конечно, желательно.

Замечание 7.1. Поскольку вероятность события «ошибка второго рода допущена» равна β , то вероятность противоположного события «ошибка второго рода не допущена» равна 1- β , т. е, мощности критерия. Отсюда следует, что мощность критерия есть вероятность того, что не будет допущена ошибка второго рода.

Замечание 7.2. Ясно, что чем меньше вероятности ошибок первого и второго рода, тем критическая область «лучше», Однако, при заданном объеме выборки, уменьшить одновременнойα и β невозможно: если уменьшать α , то

Page 145: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

145

β будет возрастать. Например, если принять α = 0, то будут приниматься все гипотезы, в том числе и неправильные, т. е, возрастает вероятность β ошибки второго рода.

Как же выбрать а наиболее целесообразно? Ответ на этот вопрос зависит от «тяжести последствий» ошибок для каждой конкретной задачи. Например, если ошибка первого рода повлечет большие потери, а второго рода — малые, то следует принять возможно меньшее α .

Если α уже выбрано, то пользуясь теоремой Ю. Неймана и Э. Пирсона, изложенной в более полных курсах, можно построить критическую область, для которой β будет минимальным и, следовательно, мощность критерия максимальной.

Замечание7.3. Единственный способ одновременного уменьшения вероятностей ошибок первого и второго рода состоит в увеличении объема выборок.

8. Сравнение двух дисперсий нормальных генеральных совокупностей. На практике задача сравнения дисперсий возникает, если требуется

сравнить точность приборов, инструментов, самих методов измерений и т. д. Очевидно, предпочтительнее тот прибор, инструмент и метод, который обеспечивает наименьшее рассеяние результатов измерений, т. е. наименьшую дисперсию.

Пусть генеральные совокупности X и Y распределены нормально. По независимым выборкам объемов n1 и n2, извлеченным из этих совокупностей, найдены исправленные выборочные дисперсии

2Xs и

2Ys . Требуется по

исправленным дисперсиям, при заданном уровне значимости α , проверить нулевую гипотезу, состоящую в том, что генеральные дисперсии рассматриваемых совокупностей равны между собой:

( ) ( )YDXDН =:0 Учитывая, что исправленные дисперсии являются несмещенными

оценками генеральных дисперсий (см.лек.№11), т. е. ( ) ( ) ( ) ( )YDsMXDsM YX == 22 , ,

нулевую гипотезу можно записать так: ( ) ( )22

0 : YX sMsMH = . Таким образом, требуется проверить, что математические ожидания

исправленных выборочных дисперсий равны между собой. Такая задача ставится потому, что обычно исправленные дисперсии оказываются различными. Возникает вопрос: значимо (существенно) или незначимо, различаются исправленные дисперсии?

Если окажется, что нулевая гипотеза справедлива, т. е. генеральные дисперсии одинаковы, то различие исправленных дисперсий незначимо и объясняется случайными причинами, в частности, случайным отбором объек-тов выборки. Например, если различие исправленных выборочных дисперсий

Page 146: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

146

результатов измерений, выполненных двумя приборами, оказалось незначимым, то приборы имеют одинаковую точность.

Если нулевая гипотеза будет отвергнута, т. е. генеральные дисперсии неодинаковы, то различие исправленных дисперсий значимо и не может быть объяснено случайными причинами, а является следствием того, что сами генеральные дисперсии различны. Например, если различие исправленных выборочных дисперсий результатов измерений, произведенных двумя приборами, оказалось значимым, то точность приборов различна.

В качестве критерия проверки нулевой гипотезы о равенстве генеральных дисперсий, примем отношение большей исправленной дисперсии к меньшей, т. е. случайную величину

2

2

м

б

ssF =

Величина F, при условии справедливости нулевой гипотезы имеет

распределение Фишера — Снедекора со степенями свободы 111 −= nk и 122 −= nk где 1n — объем выборки, по которой вычислена большая исправленная дисперсия, n2 — объем выборки, по которой найдена меньшая дисперсия,

Напомним, что распределение Фишера — Снедекора зависит только от чисел степеней свободы и не зависит oт других параметров.

Критическая область строится в зависимости от вида конкурирующей гипотезы.

Первый случай. Нулевая гипотеза ( ) ( )YDXDН =:0 . Конкурирующая гипотеза ( ) ( )YDXDH >:1 .

В этом случае строят одностороннюю, а именно правостороннюю, критическую область, исходя из требования, чтобы вероятность попадания критерия F в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости:

( )( ) αα => 21,, kkFFP кр Критическую точку ( )21,, kkFкр α находят по таблице критических точек

распределения Фишера — Снедекора (по приложению в учебниках) и тогда правосторонняя критическая область определяется неравенством

крFF > , а область принятия нулевой гипотезы неравенством крFF < Обозначим отношение большей исправленной дисперсии к меньшей,

вычисленное по данным наблюдений, через наблF и сформулируем правило проверки нулевой гипотезы.

Правило 1. Для того чтобы, при заданном уровне значимости, проверить нулевую гипотезу ( ) ( )YDXDН =:0 о равенстве генеральных дисперсий нормальных совокупностей, при конкурирующей гипотезе ( ) ( )YDXDH >:1 , надо вычислить отношение большей исправленной дисперсии к меньшей, т. е.

Page 147: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

147

2

2

м

бнабл s

sF =

и по таблице критических точек распределения Фишера — Снедекора, по заданному уровню значимости α и числам степеней свободы 1k и 2k ( 1k — число степеней свободы большей исправленной дисперсии), найти

критическую точку ( )21,, kkFкр α . Если крнабл FF < — нет оснований отвергнуть нулевую гипотезу. Если крнабл FF > — нулевую гипотезу отвергают. Пример 1. По двум независимым выборкам объемов 1n =12 и n2=15,

извлеченным из нормальных генеральных совокупностей X и Y, найдены исправленные выборочные дисперсии

2Xs =11,41 и

2Ys =6,52. При уровне

значимости 0,05, проверить нулевую гипотезу ( ) ( )YDXDН =:0 о равенстве генеральных дисперсий, при конкурирующей гипотезе ( ) ( )YDXDH >:1 .

Решение. Найдем отношение большей исправленной дисперсии к меньшей:

.75,1

52,641,11

==наблF

Так как конкурирующая гипотеза имеет вид ( ) ( )YDXD > критическая область — правосторонняя.

По таблице (приложение 7), по уровню значимости α =0,05 и числам степеней свободы 1k = 12 - 1 = 11 и 2k = 15 - 1 = 14, находим критическую точку

( ) 57,214;11;05,0 =крF . Так как крнабл FF < — нет оснований отвергнуть нулевую гипотезу о

равенстве генеральных дисперсий. Здесь и далее критические точки для уровня значимости 0,05 взяты из табл. 6 учебника [5]; на уровне значимости 0,01 критические точки помещены в приложении 7 настоящего учебника.

Второй случай. Нулевая гипотеза ( ) ( )YDXDН =:0 . Конкурирующая гипотеза ( ) ( )YDXDH ≠:1 . В этом случае строят двустороннюю критическую об-ласть, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости α .

Как выбрать границы критической области? Оказывается, что наибольшая мощность (вероятность попадания критерия в критическую область, при справедливости конкурирующей гипотезы) достигается тогда, когда вероят-ность попадания критерия в каждый из двух интервалов критической области

равна 2α

. Таким образом, если обозначить через 1F левую границу критической

области и через 2F — правую, то должны иметь место соотношения

Page 148: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

148

( ) ( )2

,2 21

αα=>=< FFPFFP

(рис. 2):

рис.2 Мы видим, что достаточно найти критические точки, чтобы найти саму

критическую область: F< 1F , F> 2F

а также область принятия нулевой гипотезы: 1F <F< 2F . Как практически отыскать критические точки?

Правую критическую точку 2F =⎟⎠⎞

⎜⎝⎛

21,,2

kkFкрα

непосредственно по таблице критических точек распределения Фишера — Снедекора по уровню

значимости 2α

и степеням свободы 1k и 2k . Однако, левых критических точек эта таблица не содержит и поэтому

найти 1F непосредственно по таблице невозможно. Существует способ, позволяющий преодолеть это затруднение. Однако,

мы не будем его описывать, поскольку можно левую критическую точку и не отыскивать. Ограничимся изложением того, как обеспечить попадание критерия F в двустороннюю, критическую область с вероятностью, равной принятому уровню значимости α .

Оказывается достаточно найти правую критическую точку 2F при уровне значимости, вдвое меньшем заданного. Тогда не только вероятность попадания

критерия в «правую часть» критической области (т. е, правее 2F ) равна 2α

, но и вероятность попадания этого критерия в «левую часть» критической области (т.

е. левее 1F ) будет также равна 2α

. Так как эти события несовместны, то вероятность попадания

рассматриваемого критерия во всю двустороннюю критическую область будет

равна 2α

+ 2α

= α Таким образом, в случае конкурирующей гипотезы ( ) ( )YDXDH ≠:1 ,

достаточно найти критическую точку 2F =⎟⎠⎞

⎜⎝⎛

21,,2

kkFкрα

.

F2 0 F1

Page 149: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

149

Правило 2. Для того чтобы, при заданном уровне значимости α проверить нулевую гипотезу о равенстве генеральных дисперсий нормально распределенных совокупностей, при конкурирующей гипотезе ( ) ( )YDXDH ≠:1 , надо вычислить отношение большей исправленной дисперсии к меньшей,

т. е. 2

2

м

бнабл s

sF = и по таблице критических точек распределения Фишера —

Снедекора по уровню значимости 2α

(вдвое меньшем заданного) и числам степеней свободы 1k и 2k ( 1k — число степеней свободы большей дисперсии)

найти критическую точку ⎟⎠⎞

⎜⎝⎛

21,,2

kkFкрα

Если крнабл FF < — нет оснований отвергнуть нулевую гипотезу. Если крнабл FF > — нулевую гипотезу отвергают. Пример 2. По двум независимым выборкам объемов 1n =10 и n2=18,

извлеченным из нормальных генеральных совокупностей X и Y, найдены исправленные выборочные дисперсии

2Xs = 1,23 и

2Ys =0,41. При уровне

значимости α =0,01 проверить нулевую гипотезу о равенстве генеральных дисперсий, при конкурирующей гипотезе ( ) ( )YDXDH ≠:1 .

Решение. Найдем отношение большей исправленной дисперсии к меньшей:

3

41,023,1

==наблF

По условию конкурирующая гипотеза имеет вид ( ) ( )YDXD ≠ , поэтому критическая область — двусторонняя. По таблице, по уровню

значимости, вдвое меньшем заданного, т. е. при 05,0

21,0

2==

α

числам степеней свободы 1k = 10 -1=9, 2k = 18 - 1 = 17, находим критическую точку

( ) 5,217;9;05,0 =крF . Так как крнабл FF > , нулевую гипотезу о равенстве генеральных дисперсий

отвергаем. Другими словами, выборочные исправленные дисперсии различаются значимо. Например, если бы рассматриваемые дисперсии характеризовали точность двух методов измерений, то следует предпочесть тот метод, который имеет меньшую дисперсию (0,41).

Page 150: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

150

Вопросы для самопроверки 1.Что называется статистической гипотезой? Приведите примеры. 2.Дайте определения: нулевой и конкурирующей, простой и сложной

гипотезы. 3.Что называется ошибками первого и второго рода? 4.Что называется статистическим критерием? Что называется

наблюдаемым значением критерия? 5.Дайте определения: критической области, области принятия гипотезы,

критической точки. 6.Сформулируйте основной принцип проверки статистических гипотез. 7.К чему сводится задача отыскания правосторонней критической области?

А задача отыскания левосторонней и двусторонней критических областей? 8.Что называется мощностью критерия? 9.Какую роль играет конкурирующая гипотеза при построении

критической области? 10 Сформулируйте правила для сравнения двух дисперсий нормальных

генеральных совокупностей. Литература: [1]: c.281-292; [3]: c.334-346; [3]: c.166-179.

Page 151: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

151

ЛЕКЦИЯ №18 ПРОВЕРКА ГИПОТЕЗЫ О НОРМАЛЬНОМ РАСПРЕДЕЛЕНИИ

ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ

П Л А Н:

1.Критерий согласия Пирсона 2.Способ вычисления теоретических частот нормального распределения К Л Ю Ч Е В Ы Е С Л О В А: Критерий согласия, критерий согласия «хи-квадрат», эмпирические

(наблюдаемые) частоты, теоретические (вычисленные в предположении нор-мального распределения) частоты.

1.В предыдущей лекции закон распределения генеральной совокупности

предполагался известным. Если закон распределения неизвестен, но есть основания предположить,

что он имеет определенный вид (назовем его А), то проверяют нулевую гипотезу: генеральная совокупность распределена по закону А.

Проверка гипотезы о предполагаемом законе неизвестного распределения производится так же, как и проверка гипотезы о параметрах распределения, т. е. при помощи специально подобранной случайной величины — критерия согласия.

Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения.

Имеется несколько критериев согласия: 2χ («хи квадрат») К. Пирсона,

Колмогорова, Смирнова и др. Ограничимся описанием применения критерия Пирсона к проверке

гипотезы о нормальном распределении генеральной совокупности (критерий аналогично применяется и для других распределений, в этом состоит его достоинство). С этой целью будем сравнивать эмпирические (наблюдаемые) и теоретические (вычисленные в предположении нормального распределения) частоты.

Обычно эмпирические и теоретические частоты различаются. Например эмп. частоты 6 13 38 74 106 85 30 10 4 теорет. частоты 3 14 42 82 99 76 37 11 2. Случайно ли расхождение частот? Возможно, что расхождение случайно

(незначимо) и объясняется малым числом наблюдений, либо способом их группировки, либо другими причинами. Возможно, что расхождение частот неслучайно (значимо) и объясняется тем, что теоретические частоты вычислены, исходя из неверной гипотезы о нормальном распределении генеральной совокупности. Критерий Пирсона отвечает на поставленный выше

Page 152: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

152

вопрос. Правда, как и любой критерий, он не доказывает справедливость гипотезы, а лишь устанавливает, на принятом уровне значимости, ее согласие или несогласие с данными наблюдений.

Итак, пусть по выборке объема п получено эмпирическое распределение: варианты si xxxx ,...,: 21 , эмп. частоты si nnnn ,...,: 21 Допустим, что в предположении нормального распределения генеральной

совокупности, вычислены теоретические частоты /in (например так, как в

следующем пункте) При уровне значимости α , требуется проверить нулевую гипотезу; генеральная совокупность распределена нормально.

В качестве критерия проверки нулевой гипотезы примем случайную величину

( )2

/

/2 ∑ −=

i

ii

nnnχ

(1) Эта величина случайная, так как в различных опытах она принимает

различные, заранее неизвестные значения. Ясно, что чем меньше различаются эмпирические и теоретические частоты, тем меньше величина критерия (1) и, следовательно, он в известной степени характеризует близость эмпирического и теоретического распределений.

Заметим, что возведением в квадрат разностей частот устраняют возможность взаимного погашения положительных и отрицательных разностей. Делением на

/in достигают уменьшения каждого из слагаемых; в

противном случае сумма была бы настолько велика, что приводила бы к отклонению нулевой гипотезы даже и тогда, когда она справедлива. Разумеется, приведенные соображения не являются обоснованием выбранного критерия, а лишь пояснением.

Доказано, что при ∞→n закон распределения случайной величины (1), независимо от того, какому закону распределения подчинена генеральная совокупность, стремится к закону распределения

2χ с k степенями свободы. Поэтому случайная величина (1) обозначена через

2χ , а сам критерий называют критерием согласия «хи квадрат».

Число степеней свободы находят по равенству rsk −−= 1 , где s - число групп {частичных интервалов) выборки; r — число параметров предполагаемого распределения, которые оценены по данным выборки.

В частности, если предполагаемое распределение - нормальное, то оценивают два параметра (математическое ожидание и среднее квадратическое отклонение) поэтому r =2 и число степеней свободы rsk −−= 1 = s -1-2= s -3. Если, например, предполагают, что генеральная совокупность распределена по закону Пуассона, то оценивают один параметр λ , поэтому r =1 и k = s —2.

Поскольку односторонний критерий более «жестко» отвергает нулевую гипотезу, чем двусторонний, построим правостороннюю критическую область, исходя из требования, чтобы вероятность попадания критерия в эту область, в

Page 153: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

153

предположении справедливости нулевой гипотезы, была равна принятому уровню значимости α :

Таким образом, правосторонняя критическая область определяется неравенством

( )[ ] ααχχ => kP кр ;22

. а область принятия нулевой гипотезы – неравенством

( )kкр ;22 αχχ > , Обозначим значение критерия, вычисленное по данным наблюдений, через

2наблχ и сформулируем правило проверки нулевой гипотезы.

Правило. Для того чтобы, при заданном уровне значимости, проверить нулевую гипотезу 0H : генеральная совокупность распределена нормально, надо сначала вычислить теоретические частоты, а затем наблюдаемое значение критерия

( )∑ −

= /

2/2

i

iiнабл n

nnχ (2)

и по таблице критических точек распределения 2χ , по заданному уровню

значимости α , и числу степеней свободы k = s -3, найти критическую точку 2крχ .

Если 2наблχ <

2крχ - нет оснований отвергнуть нулевую гипотезу.

Если 2наблχ >

2крχ - нулевую гипотезу отвергают.

Замечание 1. Объем выборки должен быть достаточно велик, во всяком случае не менее 50. Каждая группа должна содержать не менее 5-8 вариант; малочисленные группы следует объединять в одну, суммируя частоты.

Замечание 2. Поскольку возможны ошибки первого и второго рода, в особенности, если согласование теоретических и эмпирических частот «слишком хорошее», следует проявлять осторожность. Например, можно повторить опыт, увеличить число наблюдений, воспользоваться другими критериями, построить график распределения, вычислить асимметрию и эксцесс/

Замечание 3, В целях контроля вычислений, формулу (2) преобразуют к виду

2наблχ =

nnn

i

i −∑ /

2

Рекомендуем читателю выполнить это преобразование самостоятельно,

для чего надо в (2) возвести в квадрат разность частот, сократить результат на /in и учесть, что ∑ ∑ == nnnn ii

/, . Пример. При уровне значимости 0,05, проверить гипотезу о нормальном

распределении генеральной совокупности, если известны эмпирические и теоретические частоты:

эмп. частоты 6 13 38 74 106 85 30 14 теорет. частоты 3 14 42 82 99 76 37 13.

Page 154: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

154

Решение. Вычислим

2наблχ , для чего составим расчетную таблицу 1.

Таблица 1. 1 2 3 4 5 6 7 8 i in

/in

/ii nn − ( )2/

ii nn − ( )/

2/

i

ii

nnn −

2in

/

2

i

i

nn

1 6 3 3 9 3 36 12 2 13 14 - 1 1 0,07 169 12,07 3 38 42 - 4 16 0,38 1444 34,38 4 78 82 - 8 64 0,78 5476 66,78 5 106 99 7 49 0,49 11236 113,49 6 85 76 9 81 1,07 7225 95,07 7 30 37 - 7 49 1,32 900 24,32 8 14 13 1 1 0,08 196 15,08 ∑ 366 366 2

наблχ = 7,19 373,19 Контроль:

2наблχ = 7,19;

.19,736619,373/

2

=−=−∑ nnn

i

i

Вычисления произведены правильно. Найдем число степеней свободы, учитывая, что число групп выборки

(число различных вариант) s =8, 538 =−=k . По таблице критических точек распределения

2χ (приложение в учебниках по теории вероятностей), по уровню значимости α =0,05 и числу степеней

свободы k =5, находим 2крχ (0,05; 5) = 11,1.

Так как 2наблχ <

2крχ -нет основания отвергнуть нулевую гипотезу. Другими

словами, расхождение эмпирических и теоретических частот незначимое. Следовательно, данные наблюдений согласуются с гипотезой о нормальном распределении генеральной совокупности.

2.Способ вычисления теоретических частот нормального распределения Как следует из предыдущего пункта, сущность критерия согласия Пирсона

состоит в сравнении эмпирических и теоретических частот. Ясно, что эмпирические частоты находят из опыта. Как найти теоретические частоты, если предполагается, что генеральная совокупность распределена нормально? Ниже указан один из способов решения этой задачи.

2.1. Весь интервал наблюдаемых значений X (выборки объема n) делят на s частичных интервалов ( )1, +ii xx одинаковой длины. Находят

середины частичных интервалов 21* ++

= iii

xxx; качестве частоты n; варианты

*ix

Page 155: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

155

принимают число вариант, которые попали в i -й интервал. В итоге получают последовательность равноотстоящих вариант и соответствующих им частот:

s

s

nx

nnxx

...

... *

21

*2

*1

причем ∑ = nni . 2.2.Вычисляют, например, методом произведений, выборочную

среднюю *x и выборочное среднее квадратическое отклонение *σ . 2.3.Нормируют случайную величину X , т. е. переходят

к величине **

σxXZ −

= и вычисляют концы интервалов ( )1, +ii zz :

*

*,

*

* 11 σσ

xxz

xxz i

ii

i

−=

−= +

+

причем наименьшее значение Z , т.е. 1z полагают равным ∞− ,а

наибольшее, т.е. sz полагают равным ∞ . 2.4.Вычисляют теоретические вероятности ip попадания X в интервалы

( )1, +ii xx по равенству ( ( )zΦ -функция Лапласа) ( ) ( )iii zzP Φ−Φ= +1 и, наконец, находят частоты ii npn =/

. Пример. Найти теоретические частоты по заданному интервальному

распределению выборки объема n=200, предполагая, что генеральная совокупность распределена нормально (табл.2)

Таблица 2. Но

мер интерала

i

границы

ix

интервала

1+ix

частота

in

номер инт

ервала i

Гр

аницы ixинт

ервала1+ix

частота

in

1 4 6 15

6 14 16 21

2 6 8 26

7 16 18 24

3 8 10 25

8 18 20 20

4 10 12 30

9 20 22 13

5 12 14 26

n=200

Page 156: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

156

Решение.2.1.Найдем середины интервалов 21* ++

= iii

xxx=

52

64=

+

. Поступая аналогично, получим последовательность равностоящих вариант *ix и соответствующих им частот in :

*ix : 5 7 9 11 13 15 17 19 21 in : 15 26 25 30 26 31 24 20 13 2.2. Найдем выборочную среднюю и выборочное среднеквадратическое

отклонение .695,4*,63,12* == σx 2.3.Найдем интервалы ( )1, +ii zz учитывая, что .695,4*,63,12* == σx и

1/ *σ =0,213, для чего составим расчетную таблицу 3. Таблица 3. Границы интервала границы интервала

i ix 1+ix

*xxi −

*1 xxi −+

**

σxxz i

i−

= *

*11 σ

xxz ii

−= +

+

1 4 6 - - 6,63 - - 1,41 2 6 8 - 6,63 - 4,63 - 1,41 - 0,99 3 8 10 - 4,63 - 2,63 - 0,99 - 0, 56 4 10 12 - 2,63 - 0,63 - 0,56 - 0,13 5 12 14 - 0,63 1,37 - 0,13 0,29 6 14 16 1,37 3,37 0,29 0,72 7 16 18 3,37 5,37 0,72 1,14 8 18 20 5,37 7,37 1,14 1,57 9 20 22 7,37 - 1,57 ∞

Page 157: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

157

2.4.Найдем теоретические вероятности ip и искомое теоретические частоты ii npn =/

, для чего составим расчетную таблицу 4. Таблица 4.

границы интервала i iz 1+iz

( )izΦ ( )1+Φ iz ( ) ( )ii

i

zzp

Φ−Φ==

+1 i

ii

pnpn

200

/

===

1 -∞ - 1,41 - 0,5 - 0,4207 0,0793 15,86 2 - 1,41 - 0,99 - 0,4207 - 0,3389 0,0818 16,36 3 - 0,99 - 0, 56 - 0,3389 - 0,2123 0,1266 25,32 4 - 0, 56 - 0,13 - 0,2123 - 0,0517 0,1606 32,16 5 - 0,13 0,29 - 0,0517 0,1141 0,1658 33,16 6 0,29 0,72 0,1141 0,2642 0,1501 30,02 7 0,72 1,14 0,2642 0,3729 0,1087 21,74 8 1,14 1,57 0,3729 0,4418 0,0689 13,78 9 1,57 ∞ 0,4418 0,5 0,0582 11,64 ∑ = 1ip ∑ = 200/

in Искомое теоретические частоты помещены в последнем столбце таблицы

4. Вопросы для самопроверки 1.Что называется критерием согласия Пирсона? Какие еще критерия

согласия имеются? 2.Какие вопросы решает критерия Пирсона? 3.Сформулируйте правило проверки нулевой гипотезы. 4.Каково требование к объему выборки? Что делают, если не выполняется требование? Упражнения 1.При 4040=n бросаниях монеты Бюффон получил 20481 =ν выпаданий

«герба» и 199212 =−= νν n выпаданий «решетки». Совместимы ли эти данные с гипотезой 0H о том, что, монета была правильной, т.е. что вероятность выпаданий «герба» p=1/2? Принять α = 0,05.

2.Часы, выставленные в витринах часовых мастерских, показывают случайное время. Некто наблюдал показания 500 часов и получил следующие результаты:

3911

4710

419

378

337

416

455

494

393

542

344110

::

ini

где i — номер промежутка от i -го часа до ( i +1)-го, i = 0, 1, ... , 11, а in , —

число часов, показания которых принадлежали i -му промежутку. Согласуются ли эти данные с гипотезой 0H о том, что показания часов

равномерно распределены на интервале (0, 12)? Принять α = 0,05.

Page 158: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

158

3. Распределение числового признака X в выборке определяется следующей таблицей:

3,0-3,6 3,6-4,2 4,2-4,8 4,8-5,4 5,4-6,0 6,0-6,6 6,6-7,2

2 8 35 43 22 15 5 При уровне значимости α =0,01 проверить гипотезу о нормальности

распределения X в генеральной совокупности. 4.Через равные промежутки времени в тонком слое раствора золота регис-

трировалось число частиц золота, попадавших в поле зрения микроскопа. В ре-зультате наблюдений было получено следующее эмпирическое распределение:

ix 0 1 2 3 4 5 6 7 in 112 168 130 68 32 5 1 1

В первой строке приведено число ix частиц золота, а во второй строке -

частота in , т. е. число интервалов времени, в течение которых в поле зрения

попало ровно ix частиц; объем выборки ∑ == 517inn . Проверить, используя критерий

2χ согласие с законом распределения Пуассона, приняв за уровень значимости α =0,05.

Литература: [1]: 329-335; [2]: c.358-370; [3]: c.179-184.

Page 159: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

159

ЛИТЕРАТУРА 1.Гмурман В.Е. Теория вероятностей и математическая статистика.- М.:

Высшая школа, 1999. 2.Кремер Н.Ш. Теория вероятностей и математическая статистика.- М.:

ЮНИТИ, 2001. 3.Колемаев В.А., Калинина В.Н. Теория вероятностей и математическая

статистика.- М.: ИНФРА, 1997. 4.Колмогоров А.Н. Основные понятия теории вероятностей. –М.:

Наука,1975. 5.Смирнов Н.В..Дунин-Барковский И.В. Курс теории вероятностей и

математической статистики.- М.: Высшая школа, 1969. 6.Мантуров О.В. Курс высшей математики. –М.: Высшая школа,1998. 7.Агапов Г.И. Задачник по теории вероятностей. М.: Высшая школа,1986. 8. Гмурман В.Е. Руководство к решению задач по теории вероятностей и

математической статистике.- М.: Высшая школа, 1998. 9.Адиров Т, Адигамова Э. Теория вероятностей и математическая

статистика. Сборник задач.Ташкент.: ТФИ, 2003.

Page 160: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И …el.tfi.uz/images/Teoriya_veroyatnostey_cc468.pdf2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

160

Бабаджанов Шопулат Шомашрабович

ТЕОРИЯ ВЕРОЯТНОСТЕЙ И

МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

Редактор: Э.С. Хуснутдинова

Темплан 2004 года

Подписано в печать 29.03.04. Формат 30х42 1/8. Бумага №1. Оперативная печать. Усл. печ. л. 8,8. Уч.-изд. л. 9,0. Тираж 500 экз. Заказ № __

Цена договорная.

Ташкентский Финансовый институт. 700084, Ташкент, ул. Х.Асомова, 7.

Отпечатано в типографии ТФИ. 700084, Ташкент, ул. Х.Асомова,7.