Закон распределения бернулли. Независимые повторные испытания и формула бернулли

Формула Бернулли - формула в теории вероятностей , позволяющая находить вероятность появления события A {\displaystyle A} при независимых испытаниях. Формула Бернулли позволяет избавиться от большого числа вычислений - сложения и умножения вероятностей - при достаточно большом количестве испытаний. Названа в честь выдающегося швейцарского математика Якоба Бернулли , который вывел эту формулу.

Энциклопедичный YouTube

    1 / 3

    ✪ Теория вероятностей. 22. Формула Бернулли. Решение задач

    ✪ Формула Бернулли

    ✪ 20 Повторение испытаний Формула Бернулли

    Субтитры

Формулировка

Теорема. Если вероятность p {\displaystyle p} наступления события A {\displaystyle A} в каждом испытании постоянна, то вероятность P k , n {\displaystyle P_{k,n}} того, что событие A {\displaystyle A} наступит ровно k {\displaystyle k} раз в n {\displaystyle n} независимых испытаниях, равна: P k , n = C n k ⋅ p k ⋅ q n − k {\displaystyle P_{k,n}=C_{n}^{k}\cdot p^{k}\cdot q^{n-k}} , где q = 1 − p {\displaystyle q=1-p} .

Доказательство

Пусть проводится n {\displaystyle n} независимых испытаний, причём известно, что в результате каждого испытания событие A {\displaystyle A} наступает с вероятностью P (A) = p {\displaystyle P\left(A\right)=p} и, следовательно, не наступает с вероятностью P (A ¯) = 1 − p = q {\displaystyle P\left({\bar {A}}\right)=1-p=q} . Пусть, так же, в ходе испытаний вероятности p {\displaystyle p} и q {\displaystyle q} остаются неизменными. Какова вероятность того, что в результате n {\displaystyle n} независимых испытаний, событие A {\displaystyle A} наступит ровно k {\displaystyle k} раз?

Оказывается можно точно подсчитать число "удачных" комбинаций исходов испытаний, для которых событие A {\displaystyle A} наступает k {\displaystyle k} раз в n {\displaystyle n} независимых испытаниях, - в точности это количество сочетаний из  n {\displaystyle n}  по  k {\displaystyle k} :

C n (k) = n ! k ! (n − k) ! {\displaystyle C_{n}(k)={\frac {n!}{k!\left(n-k\right)!}}} .

В то же время, так как все испытания независимы и их исходы несовместимы (событие A {\displaystyle A} либо наступает, либо нет), то вероятность получения "удачной" комбинации в точности равна: .

Окончательно, для того чтобы найти вероятность того, что в n {\displaystyle n} независимых испытаниях событие A {\displaystyle A} наступит ровно k {\displaystyle k} раз, нужно сложить вероятности получения всех "удачных" комбинаций. Вероятности получения всех "удачных" комбинаций одинаковы и равны p k ⋅ q n − k {\displaystyle p^{k}\cdot q^{n-k}} , количество "удачных" комбинаций равно C n (k) {\displaystyle C_{n}(k)} , поэтому окончательно получаем:

P k , n = C n k ⋅ p k ⋅ q n − k = C n k ⋅ p k ⋅ (1 − p) n − k {\displaystyle P_{k,n}=C_{n}^{k}\cdot p^{k}\cdot q^{n-k}=C_{n}^{k}\cdot p^{k}\cdot (1-p)^{n-k}} .

Последнее выражение есть не что иное, как Формула Бернулли. Полезно также заметить, что в силу полноты группы событий, будет справедливо:

∑ k = 0 n (P k , n) = 1 {\displaystyle \sum _{k=0}^{n}(P_{k,n})=1} .

Статистика приходит к нам на помощь при решении многих задач, например: когда нет возможности построить детерминированную модель, когда слишком много факторов или когда нам необходимо оценить правдоподобие построенной модели с учётом имеющихся данных. Отношение к статистике неоднозначное. Есть мнение, что существует три вида лжи: ложь, наглая ложь и статистика. С другой стороны, многие «пользователи» статистики слишком ей верят, не понимая до конца, как она работает: применяя, например, тест к любым данным без проверки их нормальности. Такая небрежность способна порождать серьёзные ошибки и превращать «поклонников» теста в ненавистников статистики. Попробуем поставить токи над i и разобраться, какие модели случайных величин должны использоваться для описания тех или иных явлений и какая между ними существует генетическая связь.

В первую очередь, данный материал будет интересен студентам, изучающим теорию вероятностей и статистику, хотя и «зрелые» специалисты смогут его использовать в качестве справочника. В одной из следующих работ я покажу пример использования статистики для построения теста оценки значимости показателей биржевых торговых стратегий.

В работе будут рассмотрены :


В конце статьи будет задан для размышлений. Свои размышления по этому поводу я изложу в следующей статье.

Некоторые из приведённых непрерывных распределений являются частными случаями .

Дискретные распределения

Дискретные распределения используются для описания событий с недифференцируемыми характеристиками, определёнными в изолированных точках. Проще говоря, для событий, исход которых может быть отнесён к некоторой дискретной категории: успех или неудача, целое число (например, игра в рулетку, в кости), орёл или решка и т.д.

Описывается дискретное распределение вероятностью наступления каждого из возможных исходов события. Как и для любого распределения (в том числе непрерывного) для дискретных событий определены понятия матожидания и дисперсии. Однако, следует понимать, что матожидание для дискретного случайного события - величина в общем случае нереализуемая как исход одиночного случайного события, а скорее как величина, к которой будет стремиться среднее арифметическое исходов событий при увеличении их количества.

В моделировании дискретных случайных событий важную роль играет комбинаторика, так как вероятность исхода события можно определить как отношение количества комбинаций, дающих требуемый исход к общему количеству комбинаций. Например: в корзине лежат 3 белых мяча и 7 чёрных. Когда мы выбираем из корзины 1 мяч, мы можем сделать это 10-ю разными способами (общее количество комбинаций), но только 3 варианта, при которых будет выбран белый мяч (3 комбинации, дающие требуемый исход). Таким образом, вероятность выбрать белый мяч: ().

Следует также отличать выборки с возвращением и без возвращения. Например, для описания вероятности выбора двух белых мячей важно определить, будет ли первый мяч возвращён в корзину. Если нет, то мы имеем дело с выборкой без возвращения () и вероятность будет такова: - вероятность выбрать белый мяч из начальной выборки умноженная на вероятность снова выбрать белый мяч из оставшихся в корзине. Если же первый мяч возвращается в корзину, то это выборка с возвращением (). В этом случае вероятность выбора двух белых мячей составит .

Если несколько формализовать пример с корзиной следующим образом: пусть исход события может принимать одно из двух значений 0 или 1 с вероятностями и соответственно, тогда распределение вероятности получения каждого из предложенных исходов будет называться распределение Бернулли:

По сложившейся традиции, исход со значением 1 называется «успех», а исход со значением 0 - «неудача». Очевидно, что получение исхода «успех или неудача» наступает с вероятностью .

Матожидание и дисперсия распределения Бернулли:


Количество успехов в испытаниях, исход которых распределен по с вероятностью успеха (пример с возвращением мячей в корзину), описывается биномиальным распределением:


По другому можно сказать, что биномиальное распределение описывает сумму из независимых случайных величин, умеющих распределение с вероятностью успеха .
Матожидание и дисперсия:



Биномиальное распределение справедливо только для выборки с возвращением, то есть, когда вероятность успеха остаётся постоянной для всей серии испытаний.

Если величины и имеют биномиальные распределения с параметрами и соответственно, то их сумма также будет распределена биномиально с параметрами .

Представим ситуацию, что мы вытягиваем мячи из корзины и возвращаем обратно до тех пор, пока не будет вытянут белый шар. Количество таких операций описывается геометрическим распределением. Иными словами: геометрическое распределение описывает количество испытаний до первого успеха при вероятности наступления успеха в каждом испытании . Если подразумевается номер испытания, в котором наступил успех, то геометрическое распределение будет описываться следующей формулой:


Матожидание и дисперсия геометрического распределения:

Геометрическое распределение генетически связано с распределением, которое описывает непрерывную случайную величину: время до наступления события, при постоянной интенсивности событий. Геометрическое распределение также является частным случаем .

Распределение Паскаля является обобщением распределения: описывает распределение количества неудач в независимых испытаниях, исход которых распределен по с вероятностью успеха до наступления успехов в сумме. При , мы получим распределение для величины .


где - число сочетаний из по .

Матожидание и дисперсия отрицательного биномиального распределения:



Сумма независимых случайных величин, распределённых по Паскалю, также распределена по Паскалю: пусть имеет распределение , а - . Пусть также и независимы, тогда их сумма будет иметь распределение

До сих пор мы рассматривали примеры выборок с возвращением, то есть, вероятность исхода не менялась от испытания к испытанию.

Теперь рассмотрим ситуацию без возвращения и опишем вероятность количества успешных выборок из совокупности с заранее известным количеством успехов и и неудач (заранее известное количество белых и чёрных мячей в корзине, козырных карт в колоде, бракованных деталей в партии и т.д.).

Пусть общая совокупность содержит объектов, из них помечены как «1», а как «0». Будем считать выбор объекта с меткой «1», как успех, а с меткой «0» как неудачу. Проведём n испытаний, причём выбранные объектв больше не будут участвовать в дальнейших испытаниях. Вероятность наступления успехов будет подчиняться гипергеометрическому распределению:


где - число сочетаний из по .

Матожидание и дисперсия:


Распределение Пуассона


(взято отсюда)

Распределение Пуассона значительно отличается от рассмотренных выше распределений своей «предметной» областью: теперь рассматривается не вероятность наступления того или иного исхода испытания, а интенсивность событий, то есть среднее количество событий в единицу времени.

Распределение Пуассона описывает вероятность наступления независимых событий за время при средней интенсивности событий :


Матожидание и дисперсия распределения Пуассона:

Дисперсия и матожидание распределения Пуассона тождественно равны.

Распределение Пуассона в сочетании с , описывающим интервалы времени между наступлениями независимых событий, составляют математическую основу теории надёжности.

Плотность вероятности произведения случайных величин x и y () с распределениями и может быть вычислена следующим образом:

Некоторые из приведённых ниже распределений являются частными случаями распределения Пирсона, которое, в свою очередь, является решением уравнения:


где и - параметры распределения. Известны 12 типов распределения Пирсона, в зависимости от значений параметров.

Распределения, которые будут рассмотрены в этом разделе, имеют тесные взаимосвязи друг с другом. Эти связи выражаются в том, что некоторые распределения являются частными случаями других распределений, либо описывают преобразования случайных величин, имеющих другие распределения.

На приведённой ниже схеме отражены взаимосвязи между некоторыми из непрерывных распределений, которые будут рассмотрены в настоящей работе. На схеме сплошными стрелками показано преобразование случайных величин (начало стрелки указывает на изначальное распределение, конец стрелки - на результирующее), а пунктирными - отношение обобщения (начало стрелки указывает на распределение, являющееся частным случаем того, на которое указывает конец стрелки). Для частных случаев распределения Пирсона над пунктирными стрелками указан соответствующий тип распределения Пирсона.


Предложенный ниже обзор распределений охватывает многие случаи, которые встречаются в анализе данных и моделировании процессов, хотя, конечно, и не содержит абсолютно все известные науке распределения.

Нормальное распределение (распределение Гаусса)


(взято отсюда)

Плотность вероятности нормального распределения с параметрами и описывается функцией Гаусса:

Если и , то такое распределение называется стандартным.

Матожидание и дисперсия нормального распределения:



Область определения нормального распределения - множество дествительных чисел.

Нормальное распределение является распределение типа VI.

Сумма квадратов независимых нормальных величин имеет , а отношение независимых Гауссовых величин распределено по .

Нормальное распределение является бесконечно делимым: сумма нормально распределенных величин и с параметрами и соответственно также имеет нормальное распределение с параметрами , где и .

Нормальное распределение хорошо моделирует величины, описывающие природные явления, шумы термодинамической природы и погрешности измерений.

Кроме того, согласно центральной предельной теореме, сумма большого количества независимых слагаемых одного порядка сходится к нормальному распределению, независимо от распределений слагаемых. Благодаря этому свойству, нормальное распределение популярно в статистическом анализе, многие статистические тесты рассчитаны на нормально распределенные данные.

На бесконечной делимости нормального распределении основан z-тест. Этот тест используется для проверки равенства матожидания выборки нормально распределённых величин некоторому значению. Значение дисперсии должно быть известно . Если значение дисперсии неизвестно и рассчитывается на основании анализируемой выборки, то применяется t-тест, основанный на .

Пусть у нас имеется выборка объёмом n независимых нормально распределенных величин из генеральной совокупности со стандартным отклонением выдвинем гипотезу, что . Тогда величина будет иметь стандартное нормальное распределение. Сравнивая полученное значение z с квантилями стандартного распределения можно принимать или отклонять гипотезу с требуемым уровнем значимости.

Благодаря широкой распространённости распределения Гаусса, многие, не очень хорошо знающие статистику исследователи забывают проверять данные на нормальность, либо оценивают график плотности распределения «на глазок», слепо полагая, что имеют дело с Гауссовыми данными. Соответственно, смело применяя тесты, предназначенные для нормального распределения и получая совершенно некорректные результаты. Наверное, отсюда и пошла молва про статистику как самый страшный вид лжи.

Рассмотрим пример: нам надо измерить сопротивления набора резистров некоторого номинала. Сопротивление имеет физическую природу, логично предположить, что распределение отклонений сопротивления от номинала будет нормальным. Меряем, получаем колоколообразную функцию плотности вероятности для измеренных значений с модой в окрестности номинала резистров. Это нормальное распределение? Если да, то будем искать бракованные резистры используя , либо z-тест, если нам заранее известна дисперсия распределения. Думаю, что многие именно так и поступят.

Но давайте внимательнее посмотрим на технологию измерения сопротивления: сопротивление определяется как отношение приложенного напряжения к протекающему току. Ток и напряжение мы измеряли приборами, которые, в свою очередь, имеют нормально распределенные погрешности. То есть, измеренные значения тока и напряжения - это нормально распределенные случайные величины с матожиданиями, соответствующими истинным значениям измеряемых величин. А это значит, что полученные значения сопротивления распределены по , а не по Гауссу.

Распределение описывает сумму квадратов случайных величин , каждая из которых распределена по стандартному нормальному закону :

Где - число степеней свободы, .

Матожидание и дисперсия распределения :



Область определения - множество неотрицательных натуральных чисел. является бесконечно делимым распределением. Если и - распределены по и имеют и степеней свободы соответственно, то их сумма также будет распределена по и иметь степеней свободы.

Является частным случаем (а следовательно, распределением типа III) и обобщением . Отношение величин, распределенных по распределено по .

На распределении основан критерий согласия Пирсона. с помощью этого критерия можно проверять достоверность принадлежности выборки случайной величины некоторому теоретическому распределению.

Предположим, что у нас имеется выборка некоторой случайной величины . На основании этой выборки рассчитаем вероятности попадания значений в интервалов (). Пусть также есть предположение об аналитическом выражении распределения, в соответствие с которым, вероятности попадания в выбранные интервалы должны составлять . Тогда величины будут распределены по нормальному закону.

Приведем к стандартному нормальному распределению: ,
где и .

Полученные величины имеют нормальное распределение с параметрами (0, 1), а следовательно, сумма их квадратов распределена по с степенью свободы. Снижение степени свободы связано с дополнительным ограничением на сумму вероятностей попадания значений в интервалы: она должна быть равна 1.

Сравнивая значение с квантилями распределения можно принять или отклонить гипотезу о теоретическом распределении данных с требуемым уровнем значимости.

Распределение Стьюдента используется для проведения t-теста: теста на равенство матожидания выборки распределённых случайных величин некоторому значению, либо равенства матожиданий двух выборок с одинаковой дисперсией (равенство дисперсий необходимо проверять ). Распределение Стьюдента описывает отношение распределённой случайной величины к величине, распределённой по .

Пусть и независимые случайные величины, имеющие со степенями свободы и соответственно. Тогда величина будет иметь распределение Фишера со степенями свободы , а величина - распределение Фишера со степенями свободы .
Распределение Фишера определено для действительных неотрицательных аргументов и имеет плотность вероятности:


Матожидание и дисперсия распределения Фишера:



Матожидание определено для , а диспересия - для .

На распределении Фишера основан ряд статистических тестов, таких как оценка значимости параметров регрессии, тест на гетероскедастичность и тест на равенство дисперсий выборок (f-тест, следует отличать от точного теста Фишера).

F-тест: пусть имеются две независимые выборки и распределенных данных объёмами и соответственно. Выдвинем гипотезу о равенстве дисперсий выборок и проверим её статистически.

Рассчитаем величину . Она будет иметь распределение Фишера со степенями свободы .

Сравнивая значение с квантилями соответствующего распределения Фишера, мы можем принять или отклонить гипотезу о равенстве дисперсий выборок с требуемым уровнем значимости.

Экспоненциальное (показательное) распределение и распределение Лапласа (двойное экспоненциальное, двойное показательное)


(взято отсюда)

Экспоненциальное распределение описывает интервалы времени между независимыми событиями, происходящими со средней интенсивностью . Количество наступлений такого события за некоторый отрезок времени описывается дискретным . Экспоненциальное распределение вместе с составляют математическую основу теории надёжности.

Кроме теории надёжности, экспоненциальное распределение применяется в описании социальных явлений, в экономике, в теории массового обслуживания, в транспортной логистике - везде, где необходимо моделировать поток событий.

Экспоненциальное распределение является частным случаем (для n=2), а следовательно, и . Так-как экспоненциально распределённая величина является величиной хи-квадрат с 2-мя степенями свободы, то она может быть интерпретирована как сумма квадратов двух независимых нормально распределенных величин.

Кроме того, экспоненциальное распределение является честным случаем

1

1. Боголюбов А.Н. Математики. Механики: биографический справочник. – Киев: Наукова думка, 1983.

2. Гулай Т.А., Долгополова А.Ф., Литвин Д.Б. Анализ и оценка приоритетности разделов математических дисциплин, изучаемых студентами экономических специальностей аграрных вузов // Вестник АПК Ставрополья. – 2013. – № 1 (9). – С. 6-10.

3. Долгополова А.Ф., Гулай Т.А., Литвин Д.Б. Перспективы применения математических методов в экономических исследованиях // Аграрная наука, творчество, рост. – 2013. – С. 255-257.

В математике довольно часто встречаются задачи, в которых присутствует большое количество повторений одного и того же условия, испытания или эксперимента. Результатом каждого испытания будет считаться совершенно другой результат от наступившего предыдущего. Зависимости в результатах так же наблюдаться не будет. В качестве результата испытания можно различить несколько возможностей элементарных последствий: возникновение события (А) или же возникновение события, которое дополняет А.

Тогда попробуем предположить, что вероятность возникновения события Р(А) регулярна и равна р (0<р<1).

Примерами такого испытания может быть большое количество задач, таких как подбрасывание монетки, извлечение из темного мешка черно-белых шаров или же рождение черно-белых кроликов.

Такой эксперимент называют конфигурацией повторных независимых испытаний или схемой Бернулли.

Якоб Бернулли родился в семье фармацевта. Отец пытался наставить сына на медицинский путь, но Я. Бернулли увлекся математикой самостоятельно, а позже это стало его профессией. Ему принадлежат различные трофеи в работах на темы по теории вероятностей и чисел, рядов и дифференциальном исчислении. Изучив теорию вероятности по одной изработ Гюйгенса «О расчетах в азартной игре», Якоб увлекся этим. В данной книге не было даже четкого определения концепции «вероятность». Именно Я. Бернулли ввел в математику большую часть современных понятий теории вероятностей. Так же Бернулли первымвыразил свой вариант закона больших чисел. Имя Якоба носят различные работы, теоремы и схемы: «Числа Бернулли», «Многочлен Бернулли», «Дифференциальное уравнение Бернулли», «Распределение Бернулли» и «Уравнение Бернулли».

Вернемся к повторениям. Как уже было указано выше, то в итоге различных испытаний возможны два исхода: либо появится событие А, либо противоположность этому событию. Сама схема Бернулли обозначает производство n-го количества типовых вольных опытов, и в каждом из этих опытов может появится нужное нам событие А (вероятность этого события известна: Р(А)=р), вероятность противоположного события событию А обозначена за q=P(A)=1-p. Требуется определение вероятности, что при проведении испытаний неизвестного количества событие А появится ровно k раз.

Важно помнить о главном условии при решении задач при помощи схемы Бернулли-это постоянство. Без него схема теряет всякий смысл.

Этой схемой можно пользоваться для решения задач различного уровня сложности: от простых (та же монетка) до сложных (проценты). Однако чаще схема Бернулли применяется в решении таких задач, которые связаны с контролем свойств различной продукции и уверенности в самых разных механизмах. Только для решения задачи до начала работы должны быть известны заранее все условия и значения.

Не все задачи в теории вероятностей сводятся к постоянству в условиях. Даже если взять в пример черные и белые шары в темном мешке: при вытягивании одного шара соотношение количества и цветов шариков в мешке изменилось, а значит изменилась и сама вероятность.

Однако если же условия у нас постоянны, то мы можем точно определить требуемую от нас вероятность того, что событие А произойдет ровно kраз из n возможных.

Этот факт Якоб Бернулли скомпоновал в теорему, которую впоследствии стали называть его именем. «Теорема Бернулли» является одной из главных теорем в теории вероятности. Впервые ее опубликовали в труде Я.Бернулли «Искусство предположений». Что же представляет из себя эта теорема? «Если вероятность р наступления события А в каждом испытании постоянна, то вероятность Рk,n того, что событие наступит k раз в n испытаниях, не зависящих друг от друга равна: , где q=1-p».

В доказательство действенности формулы можно привести задачи.

Задача № 1:

Из n стеклянных банок за месяц хранения k разбиваются. Наугад взяли m банок. Найти вероятность, что среди этих банок l не разобьются. n=250, k=10, m=8,l=4.

Решение: Имеем схему Бернулли со значениями:

p=10/250=0,04 (вероятность того, что банки разобьются);

n=8 (число испытаний);

k=8-4=4 (количество разбитых банок).

Используем формулу Бернулли

Получили:

Ответ: 0,0141

Задача № 2:

Вероятность изготовления неисправного изделия на производстве равна 0,2. Найти вероятность того, что из 10 изготовленных на этом производстве изделий ровно k должны быть исправны. Выполнить решение для k = 0, 1, 10.

Нам интересно событие A - изготовление исправных деталей, случающееся раз в час с вероятностью p=1-0,2=0,8. Надо найти вероятность того, что данное событие совершится k раз. Событию A противоположно событие «не A», т.е. изготовление неисправного изделия.

Следовательно, мы имеем: n=10; p=0,8; q=0,2.

В итоге найдем вероятность того, что из 10 изготовленных изделий все изделия неисправны (k=0), что одно изделие исправно (k=1), что неисправных нет вообще (k=10):

В заключении хотелось бы отметить, что в современности многие ученые пытаются доказать, что «формула Бернулли» не соответствует законам природы и можно решить задачи, не применяя ее к использованию. Конечно это возможно, большинство задач по теории вероятности возможно выполнить без формулы Бернулли, главное не запутаться в больших объемах цифр.

Библиографическая ссылка

Хомутова Е.А., Калиниченко В.А. ФОРМУЛА БЕРНУЛЛИ В ТЕОРИИ ВЕРОЯТНОСТИ // Международный студенческий научный вестник. – 2015. – № 3-4.;
URL: http://eduherald.ru/ru/article/view?id=14141 (дата обращения: 12.03.2019). Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
Определение повторных независимых испытаний. Формулы Бернулли для вычисления вероятности и наивероятнейшего числа. Асимптотические формулы для формулы Бернулли (локальная и интегральная, теоремы Лапласа). Использование интегральной теоремы. Формула Пуассона, для маловероятных случайных событий.

Повторные независимые испытания

На практике приходится сталкиваться с такими задачами, которые можно представить в виде многократно повторяющихся испытаний, в результате каждого из которых может появиться или не появиться событие A . При этом интерес представляет исход не каждого "отдельного испытания, а общее количество появлений события A в результате определенного количества испытаний. В подобных задачах нужно уметь определять вероятность любого числа m появлений события A в результате n испытаний. Рассмотрим случай, когда испытания являются независимыми и вероятность появления события A в каждом испытании постоянна. Такие испытания называются повторными независимыми.

Примером независимых испытаний может служить проверка на годность изделий, взятых по одному из ряда партий. Если в этих партиях процент брака одинаков, то вероятность того, что отобранное изделие будет бракованным, в каждом случае является постоянным числом.

Формула Бернулли

Воспользуемся понятием сложного события , под которым подразумевается совмещение нескольких элементарных событий, состоящих в появлении или непоявлении события A в i –м испытании. Пусть проводится n независимых испытаний, в каждом из которых событие A может либо появиться с вероятностью p , либо не появиться с вероятностью q=1-p . Рассмотрим событие B_m , состоящее в том, что событие A в этих n испытаниях наступит ровно m раз и, следовательно, не наступит ровно (n-m) раз. Обозначим A_i~(i=1,2,\ldots,{n}) появление события A , a \overline{A}_i - непоявление события A в i –м испытании. В силу постоянства условий испытания имеем

Событие A может появиться m раз в разных последовательностях или комбинациях, чередуясь с противоположным событием \overline{A} . Число возможных комбинаций такого рода равно числу сочетаний из n элементов по m , т. е. C_n^m . Следовательно, событие B_m можно представить в виде суммы сложных несовместных между собой событий, причем число слагаемых равно C_n^m :

B_m=A_1A_2\cdots{A_m}\overline{A}_{m+1}\cdots\overline{A}_n+\cdots+\overline{A}_1\overline{A}_2\cdots\overline{A}_{n-m}A_{n-m+1}\cdots{A_n},


где в каждое произведение событие A входит m раз, а \overline{A} - (n-m) раз.

Вероятность каждого сложного события, входящего в формулу (3.1), по теореме умножения вероятностей для независимых событий равна p^{m}q^{n-m} . Так как общее количество таких событий равно C_n^m , то, используя теорему сложения вероятностей для несовместных событий, получаем вероятность события B_m (обозначим ее P_{m,n} )

P_{m,n}=C_n^mp^{m}q^{n-m}\quad \text{or}\quad P_{m,n}=\frac{n!}{m!(n-m)!}p^{m}q^{n-m}.

Формулу (3.2) называют формулой Бернулли , а повторяющиеся испытания, удовлетворяющие условию независимости и постоянства вероятностей появления в каждом из них события A , называют испытаниями Бернулли , или схемой Бернулли .

Пример 1. Вероятность выхода за границы поля допуска при обработке деталей на токарном станке равна 0,07. Определить вероятность того, что из пяти наудачу отобранных в течение смены деталей у одной размеры диаметра не соответствуют заданному допуску.

Решение. Условие задачи удовлетворяет требования схемы Бернулли. Поэтому, полагая n=5,\,m=1,\,p=0,\!07 , по формуле (3.2) получаем

P_{1,5}=C_5^1(0,\!07)^{1}(0,\!93)^{5-1}\approx0,\!262.

Пример 2. Наблюдениями установлено, что в некоторой местности в сентябре бывает 12 дождливых дней. Какова вероятность того, что из случайно взятых в этом месяце 8 дней 3 дня окажутся дождливыми?

Решение.

P_{3;8}=C_8^3{\left(\frac{12}{30}\right)\!}^3{\left(1-\frac{12}{30}\right)\!}^{8-3}=\frac{8!}{3!(8-3)!}{\left(\frac{2}{5}\right)\!}^3{\left(\frac{3}{5}\right)\!}^5=56\cdot\frac{8}{125}\cdot\frac{243}{3125}=\frac{108\,864}{390\,625}\approx0,\!2787.

Наивероятнейшее число появлений события

Наивероятнейшим числом появления события A в n независимых испытаниях называется такое число m_0 , для которого вероятность, соответствующая этому числу, превышает или, по крайней мере, не меньше вероятности каждого из остальных возможных чисел появления события A . Для определения наивероятнейшего числа не обязательно вычислять вероятности возможных чисел появлений события, достаточно знать число испытаний n и вероятность появления события A в отдельном испытании. Обозначим P_{m_0,n} вероятность, соответствующую наивероятнейшему числу m_0 . Используя формулу (3.2), записываем

P_{m_0,n}=C_n^{m_0}p^{m_0}q^{n-m_0}=\frac{n!}{m_0!(n-m_0)!}p^{m_0}q^{n-m_0}.

Согласно определению наивероятнейшего числа, вероятности наступления события A соответственно m_0+1 и m_0-1 раз должны, по крайней мере, не превышать вероятность P_{m_0,n} , т. е.

P_{m_0,n}\geqslant{P_{m_0+1,n}};\quad P_{m_0,n}\geqslant{P_{m_0-1,n}}

Подставляя в неравенства значение P_{m_0,n} и выражения вероятностей P_{m_0+1,n} и P_{m_0-1,n} , получаем

Решая эти неравенства относительно m_0 , получаем

M_0\geqslant{np-q},\quad m_0\leqslant{np+p}

Объединяя последние неравенства, получаем двойное неравенство, которое используют для определения наивероятнейшего числа:

Np-q\leqslant{m_0}\leqslant{np+p}.

Так как длина интервала, определяемого неравенством (3.4), равна единице, т. е.

(np+p)-(np-q)=p+q=1,


и событие может произойти в n испытаниях только целое число раз, то следует иметь в виду, что:

1) если np-q - целое число, то существуют два значения наивероятнейшего числа, а именно: m_0=np-q и m"_0=np-q+1=np+p ;

2) если np-q - дробное число, то существует одно наивероятнейшее число, а именно: единственное целое, заключенное между дробными числами, полученными из неравенства (3.4);

3) если np - целое число, то существует одно наивероятнейшее число, а именно: m_0=np .

При больших значениях n пользоваться формулой (3.3) для расчета вероятности, соответствующей наивероятнейшему числу, неудобно. Если в равенство (3.3) подставить формулу Стирлинга

N!\approx{n^ne^{-n}\sqrt{2\pi{n}}},


справедливую для достаточно больших n , и принять наивероятнейшее число m_0=np , то получим формулу для приближенного вычисления вероятности, соответствующей наивероятнейшему числу:

P_{m_0,n}\approx\frac{n^ne^{-n}\sqrt{2\pi{n}}\,p^{np}q^{nq}}{(np)^{np}e^{-np}\sqrt{2\pi{np}}\,(nq)^{nq}e^{-nq}\sqrt{2\pi{nq}}}=\frac{1}{\sqrt{2\pi{npq}}}=\frac{1}{\sqrt{2\pi}\sqrt{npq}}.

Пример 2. Известно, что \frac{1}{15} часть продукции, поставляемой заводом на торговую базу, не удовлетворяет всем требованиям стандарта. На базу была завезена партия изделий в количестве 250 шт. Найти наивероятнейшее число изделий, удовлетворяющих требованиям стандарта, и вычислить вероятность того, что в этой партии окажется наивероятнейшее число изделий.

Решение. По условию n=250,\,q=\frac{1}{15},\,p=1-\frac{1}{15}=\frac{14}{15} . Согласно неравенству (3.4) имеем

250\cdot\frac{14}{15}-\frac{1}{15}\leqslant{m_0}\leqslant250\cdot\frac{14}{15}+\frac{1}{15}


откуда 233,\!26\leqslant{m_0}\leqslant234,\!26 . Следовательно, наивероятнейшее число изделий, удовлетворяющих требованиям стандарта, в партии из 250 шт. равно 234. Подставляя данные в формулу (3.5), вычисляем вероятность наличия в партии наивероятнейшего числа изделий:

P_{234,250}\approx\frac{1}{\sqrt{2\pi\cdot250\cdot\frac{14}{15}\cdot\frac{1}{15}}}\approx0,\!101

Локальная теорема Лапласа

Пользоваться формулой Бернулли при больших значениях n очень трудно. Например, если n=50,\,m=30,\,p=0,\!1 , то для отыскания вероятности P_{30,50} надо вычислить значение выражения

P_{30,50}=\frac{50!}{30!\cdot20!}\cdot(0,\!1)^{30}\cdot(0,\!9)^{20}

Естественно, возникает вопрос: нельзя ли вычислить интересующую вероятность, не используя формулу Бернулли? Оказывается, можно. Локальная теорема Лапласа дает асимптотическую формулу, которая позволяет приближенно найти вероятность появления событий ровно m раз в n испытаниях, если число испытаний достаточно велико.

Теорема 3.1. Если вероятность p появления события A в каждом испытании постоянна и отлична от нуля и единицы, то вероятность P_{m,n} того, что событие A появится в n испытаниях ровно m раз, приближенно равна (тем точнее, чем больше n ) значению функции

Y=\frac{1}{\sqrt{npq}}\frac{e^{-x^2/2}}{\sqrt{2\pi}}=\frac{\varphi(x)}{\sqrt{npq}} при .

Существуют таблицы, которые содержат значения функции \varphi(x)=\frac{1}{\sqrt{2\pi}}\,e^{-x^2/2}} , соответствующие положительным значениям аргумента x . Для отрицательных значений аргумента используют те же таблицы, так как функция \varphi(x) четна, т. е. \varphi(-x)=\varphi(x) .


Итак, приближенно вероятность того, что событие A появится в n испытаниях ровно m раз,

P_{m,n}\approx\frac{1}{\sqrt{npq}}\,\varphi(x), где x=\frac{m-np}{\sqrt{npq}} .

Пример 3. Найти вероятность того, что событие A наступит ровно 80 раз в 400 испытаниях, если вероятность появления события A в каждом испытании равна 0,2.

Решение. По условию n=400,\,m=80,\,p=0,\!2,\,q=0,\!8 . Воспользуемся асимптотической, формулой Лапласа:

P_{80,400}\approx\frac{1}{\sqrt{400\cdot0,\!2\cdot0,\!8}}\,\varphi(x)=\frac{1}{8}\,\varphi(x).

Вычислим определяемое данными задачи значение x :

X=\frac{m-np}{\sqrt{npq}}=\frac{80-400\cdot0,\!2}{8}=0.

По таблице прил, 1 находим \varphi(0)=0,\!3989 . Искомая вероятность

P_{80,100}=\frac{1}{8}\cdot0,\!3989=0,\!04986.

Формула Бернулли приводит примерно к такому же результату (выкладки ввиду их громоздкости опущены):

P_{80,100}=0,\!0498.

Интегральная теорема Лапласа

Предположим, что проводится n независимых испытаний, в каждом из которых вероятность появления события A постоянна и равна p . Необходимо вычислить вероятность P_{(m_1,m_2),n} того, что событие A появится в n испытаниях не менее m_1 и не более m_2 раз (для краткости будем говорить "от m_1 до m_2 раз"). Это можно сделать с помощью интегральной теоремы Лапласа.

Теорема 3.2. Если вероятность p наступления события A в каждом испытании постоянна и отлична от нуля и единицы, то приближенно вероятность P_{(m_1,m_2),n} того, что событие A появится в испытаниях от m_1 до m_2 раз,

P_{(m_1,m_2),n}\approx\frac{1}{\sqrt{2\pi}}\int\limits_{x"}^{x""}e^{-x^2/2}\,dx, где .

При решении задач, требующих применения интегральной теоремы Лапласа, пользуются специальными таблицами, так как неопределенный интеграл \int{e^{-x^2/2}\,dx} не выражается через элементарные функции. Таблица для интеграла \Phi(x)=\frac{1}{\sqrt{2\pi}}\int\limits_{0}^{x}e^{-z^2/2}\,dz приведена в прил. 2, где даны значения функции \Phi(x) для положительных значений x , для x<0 используют ту же таблицу (функция \Phi(x) нечетна, т. е. \Phi(-x)=-\Phi(x) ). Таблица содержит значения функции \Phi(x) лишь для x\in ; для x>5 можно принять \Phi(x)=0,\!5 .

Итак, приближенно вероятность того, что событие A появится в n независимых испытаниях от m_1 до m_2 раз,

P_{(m_1,m_2),n}\approx\Phi(x"")-\Phi(x"), где x"=\frac{m_1-np}{\sqrt{npq}};~x""=\frac{m_2-np}{\sqrt{npq}} .

Пример 4. Вероятность того, что деталь изготовлена с нарушениями стандартов, p=0,\!2 . Найти вероятность того, что среди 400 случайно отобранных деталей нестандартных окажется от 70 до 100 деталей.

Решение. По условию p=0,\!2,\,q=0,\!8,\,n=400,\,m_1=70,\,m_2=100 . Воспользуемся интегральной теоремой Лапласа:

P_{(70,100),400}\approx\Phi(x"")-\Phi(x").

Вычислим пределы интегрирования:


нижний

X"=\frac{m_1-np}{\sqrt{npq}}=\frac{70-400\cdot0,\!2}{\sqrt{400\cdot0,\!2\cdot0,\!8}}=-1,\!25,


верхний

X""=\frac{m_2-np}{\sqrt{npq}}=\frac{100-400\cdot0,\!2}{\sqrt{400\cdot0,\!2\cdot0,\!8}}=2,\!5,

Таким образом

P_{(70,100),400}\approx\Phi(2,\!5)-\Phi(-1,\!25)=\Phi(2,\!5)+\Phi(1,\!25).

По таблице прил. 2 находим

\Phi(2,\!5)=0,\!4938;~~~~~\Phi(1,\!25)=0,\!3944.

Искомая вероятность

P_{(70,100),400}=0,\!4938+0,\!3944=0,\!8882.

Применение интегральной теоремы Лапласа

Если число m (число появлений события A при n независимых испытаниях) будет изменяться от m_1 до m_2 , то дробь \frac{m-np}{\sqrt{npq}} будет изменяться от \frac{m_1-np}{\sqrt{npq}}=x" до \frac{m_2-np}{\sqrt{npq}}=x"" . Следовательно, интегральную теорему Лапласа можно записать и так:

P\left\{x"\leqslant\frac{m-np}{\sqrt{npq}}\leqslant{x""}\right\}=\frac{1}{\sqrt{2\pi}}\int\limits_{x"}^{x""}e^{-x^2/2}\,dx.

Поставим задачу найти вероятность того, что отклонение относительной частоты \frac{m}{n} от постоянной вероятности p по абсолютной величине не превышает заданного числа \varepsilon>0 . Другими словами, найдем вероятность осуществления неравенства \left|\frac{m}{n}-p\right|\leqslant\varepsilon , что то же самое, -\varepsilon\leqslant\frac{m}{n}-p\leqslant\varepsilon . Эту вероятность будем обозначать так: P\left\{\left|\frac{m}{n}-p\right|\leqslant\varepsilon\right\} . С учетом формулы (3.6) для данной вероятности получаем

P\left\{\left|\frac{m}{n}-p\right|\leqslant\varepsilon\right\}\approx2\Phi\left(\varepsilon\,\sqrt{\frac{n}{pq}}\right).

Пример 5. Вероятность того, что деталь нестандартна, p=0,\!1 . Найти вероятность того, что среди случайно отобранных 400 деталей относительная частота появления нестандартных деталей отклонится от вероятности p=0,\!1 по абсолютной величине не более чем на 0,03.

Решение. По условию n=400,\,p=0,\!1,\,q=0,\!9,\,\varepsilon=0,\!03 . Требуется найти вероятность P\left\{\left|\frac{m}{400}-0,\!1\right|\leqslant0,\!03\right\} . Используя формулу (3.7), получаем

P\left\{\left|\frac{m}{400}-0,\!1\right|\leqslant0,\!03\right\}\approx2\Phi\left(0,\!03\sqrt{\frac{400}{0,\!1\cdot0,\!9}}\right)=2\Phi(2)

По таблице прил. 2 находим \Phi(2)=0,\!4772 , следовательно, 2\Phi(2)=0,\!9544 . Итак, искомая вероятность приближенно равна 0,9544. Смысл полученного результата таков: если взять достаточно большое число проб по 400 деталей в каждой, то примерно в 95,44% этих проб отклонение относительной частоты от постоянной вероятности p=0,\!1 по абсолютной величине не превысит 0,03.

Формула Пуассона для маловероятных событий

Если вероятность p наступления события в отдельном испытании близка к нулю, то даже при большом числе испытаний n , но при небольшом значении произведения np получаемые по формуле Лапласа значения вероятностей P_{m,n} оказываются недостаточно точными и возникает потребность в другой приближенной формуле.

Теорема 3.3. Если вероятность p наступления события A в каждом испытании постоянна, но мала, число независимых испытаний n достаточно велико, но значение произведения np=\lambda остается небольшим (не больше десяти), то вероятность того, что в этих испытаниях событие A наступит m раз,

P_{m,n}\approx\frac{\lambda^m}{m!}\,e^{-\lambda}.

Для упрощения расчетов с применением формулы Пуассона составлена таблица значений функции Пуассона \frac{\lambda^m}{m!}\,e^{-\lambda} (см. прил. 3).

Пример 6. Пусть вероятность изготовления нестандартной детали равна 0,004. Найти вероятность того, что среди 1000 деталей окажется 5 нестандартных.

Решение. Здесь n=1000,p=0,004,~\lambda=np=1000\cdot0,\!004=4 . Все три числа удовлетворяют требованиям теоремы 3.3, поэтому для нахождения вероятности искомого события P_{5,1000} применяем формулу Пуассона. По таблице значений функции Пуассона (прил. 3) при \lambda=4;m=5 получаем P_{5,1000}\approx0,\!1563 .

Найдем вероятность того же события по формуле Лапласа. Для этого сначала вычисляем значение x , соответствующее m=5 :

X=\frac{5-1000\cdot0,\!004}{\sqrt{1000\cdot0,\!004\cdot0,\!996}}\approx\frac{1}{1,\!996}\approx0,\!501.

Поэтому согласно формуле Лапласа искомая вероятность

P_{5,1000}\approx\frac{\varphi(0,\!501)}{1,\!996}\approx\frac{0,\!3519}{1,\!996}\approx0,\!1763


а согласно формуле Бернулли точное ее значение

P_{5,1000}=C_{1000}^{5}\cdot0,\!004^5\cdot0,\!996^{995}\approx0,\!1552.

Таким образом, относительная ошибка вычисления вероятностей P_{5,1000} по приближенной формуле Лапласа составляет

\frac{0,\!1763-0,\!1552}{0,\!1552}\approx0,\!196 , или 13,\!6\%


а по формуле Пуассона -

\frac{0,\!1563-0,\!1552}{0,\!1552}\approx0,\!007 , или 0,\!7\%

Т. е. во много раз меньше.
Перейти к следующему разделу
Одномерные случайные величины
В вашем браузере отключен Javascript.
Чтобы произвести расчеты, необходимо разрешить элементы ActiveX!

Пусть относительно события А проводится n испытаний. Введем события: Аk -- событие А осуществилось при k-том испытании, $ k=1,2,\dots , n$. Тогда $\bar{A}_{k} $ - противоположное событие (событие А не осуществилось при k-том испытании, $k=1,2,\dots , n$).

Что такое однотипные и независимые испытания

Определение

Испытания называются однотипными по отношению к событию А, если вероятности событий $А1, А2, \dots , Аn$ совпадают: $Р(А1)=Р(А2)= \dots =Р(Аn)$ (т.е. вероятность появления события А в одном испытании постоянна во всех испытаниях).

Очевидно, что в этом случае вероятности противоположных событий также совпадают: $P(\bar{A}_{1})=P(\bar{A}_{2})=...=P(\bar{A}_{n})$.

Определение

Испытания называются независимыми по отношению к событию А, если события $А1, А2, \dots , Аn$ независимы.

В этом случае

При этом равенство сохраняется при замене любого события Аk на $\bar{A}_{k} $.

Пусть по отношению к событию А проводится серия из n однотипных независимых испытаний. Ведем обозначения: р -- вероятность осуществления события А в однoм испытании; q -- вероятность противоположного события. Таким образом, Р(Ак)=р, $P(\bar{A}_{k})=q$ для любого k и p+q=1.

Вероятность того, что в серии из n испытаний событие А осуществится ровно k раз (0 ≤ k ≤ n), вычисляется по формуле:

$P_{n} (k)=C_{n}^{k} p^{k} q^{n-k} $ (1)

Равенство (1) называется формулой Бернулли.

Вероятность того, что в серии из n однoтипных независимых испытаний событие А осуществится не менее k1 раз и не более k2 раз, вычисляется по формуле:

$P_{n} (k_{1} \le k\le k_{2})=\sum \limits _{k=k_{1} }^{k_{2} }C_{n}^{k} p^{k} q^{n-k} $ (2)

Применение формулы Бернулли при больших значениях n приводит к громоздким вычислениям, поэтому в этих случаях лучше использовать другие формулы -- асимптотические.

Обобщение схемы Бернулли

Рассмотрим обобщение схемы Бeрнулли. Если в серии из n независимых испытаний, каждое из которых имеет m попарно несовместимых и возможных результатов Аk с соответствующими вероятностями Рk= рk(Аk). То справедлива формула полиномиального расспредиления:

Пример 1

Вероятность заболевания гриппом во время эпидемии равна 0,4. Найти вероятность того, что из 6 сoтрудников фирмы заболеют

  1. ровно 4 сотрудника;
  2. не более 4-х сотрудников.

Решение. 1) Очевидно, что для решения данной задачи применима формула Бернулли, где n=6; k=4; р=0,4; q=1-р=0,6. Применяя формулу (1), получим: $P_{6} (4)=C_{6}^{4} \cdot 0,4^{4} \cdot 0,6^{2} \approx 0,138$.

Для решения этой задачи применима формула (2), где k1=0 и k2=4. Имеем:

\[\begin{array}{l} {P_{6} (0\le k\le 4)=\sum \limits _{k=0}^{4}C_{6}^{k} p^{k} q^{6-k} =C_{6}^{0} \cdot 0,4^{0} \cdot 0,6^{6} +C_{6}^{1} \cdot 0,4^{1} \cdot 0,6^{5} +C_{6}^{2} \cdot 0,4^{2} \cdot 0,6^{4} +} \\ {+C_{6}^{3} \cdot 0,4^{3} \cdot 0,6^{3} +C_{6}^{4} \cdot 0,4^{4} \cdot 0,6^{2} \approx 0,959.} \end{array}\]

Следует заметить, что эту задачу проще решать, используя противоположное событие -- заболело более 4-х сотрудников. Тогда с учетом формулы (7) о вероятностях противоположных событий получим:

Ответ:$\ 0,959$.

Пример 2

В урнe 20 белых и 10 черных шаров. Вынули 4 шара , причем каждый вынутый шар возвращают в урну перед извлечением следующего и шары в урне перемешивают. Найти вероятность того, что из четырех вынутых шаров окажется 2 белых рисунок 1.

Рисунок 1.

Решение. Пусть событие А состоит в том, что -- достали белый шар. Тогда вероятности $D (A)=\frac{2}{3} ,\, \, D (\overline{A})=1-\frac{2}{3} =\frac{1}{3} $.

По формуле Бернулли требуемая вероятность равна $D_{4} (2)=N_{4}^{2} \left(\frac{2}{3} \right)^{2} \left(\frac{1}{3} \right)^{2} =\frac{8}{27} $.

Ответ: $\frac{8}{27} $.

Пример 3

Определить вероятность того, что в семье, имеющей 5 детей, будет не больше трех девочек. Вероятности рождения мальчика и девочки предполагаются одинаковыми.

Решение. Вероятность рождения девочки $\partial =\frac{1}{2} ,\, q=\frac{1}{2} $-вероятность рождения мальчика. В семье не больше трех девочек означает, что девочек родилась либо одна, либо две, либо три, либо в семье все мальчики.

Найдем вероятности того, что в семье нет девочек, родилась одна, две или три девочки: $D_{5} (0)=q^{5} =\frac{1}{32} $,

\ \ \

Следовательно, искомая вероятность $D =D_{5} (0)+D_{5} (1)+D_{5} (2)+D_{5} (3)=\frac{13}{16} $.

Ответ: $\frac{13}{16} $.

Пример 4

Первый стрeлок при одном выстриле может попасть в десятку с вероятностью 0,6 в девятку с вероятностью 0,3, а в восьмерку с вероятностью 0,1. Какая вероятность того, что при 10 выстрелах он попадет в десятку шесть раз, в девятку три раза и в восьмерку 1 раз?



Понравилась статья? Поделиться с друзьями: