Испытания по схеме бернулли

Пусть относительно события А проводится n испытаний. Введем события: Аk -- событие А осуществилось при k-том испытании, $ k=1,2,\dots , n$. Тогда $\bar{A}_{k} $ - противоположное событие (событие А не осуществилось при k-том испытании, $k=1,2,\dots , n$).

Что такое однотипные и независимые испытания

Определение

Испытания называются однотипными по отношению к событию А, если вероятности событий $А1, А2, \dots , Аn$ совпадают: $Р(А1)=Р(А2)= \dots =Р(Аn)$ (т.е. вероятность появления события А в одном испытании постоянна во всех испытаниях).

Очевидно, что в этом случае вероятности противоположных событий также совпадают: $P(\bar{A}_{1})=P(\bar{A}_{2})=...=P(\bar{A}_{n})$.

Определение

Испытания называются независимыми по отношению к событию А, если события $А1, А2, \dots , Аn$ независимы.

В этом случае

При этом равенство сохраняется при замене любого события Аk на $\bar{A}_{k} $.

Пусть по отношению к событию А проводится серия из n однотипных независимых испытаний. Ведем обозначения: р -- вероятность осуществления события А в однoм испытании; q -- вероятность противоположного события. Таким образом, Р(Ак)=р, $P(\bar{A}_{k})=q$ для любого k и p+q=1.

Вероятность того, что в серии из n испытаний событие А осуществится ровно k раз (0 ≤ k ≤ n), вычисляется по формуле:

$P_{n} (k)=C_{n}^{k} p^{k} q^{n-k} $ (1)

Равенство (1) называется формулой Бернулли.

Вероятность того, что в серии из n однoтипных независимых испытаний событие А осуществится не менее k1 раз и не более k2 раз, вычисляется по формуле:

$P_{n} (k_{1} \le k\le k_{2})=\sum \limits _{k=k_{1} }^{k_{2} }C_{n}^{k} p^{k} q^{n-k} $ (2)

Применение формулы Бернулли при больших значениях n приводит к громоздким вычислениям, поэтому в этих случаях лучше использовать другие формулы -- асимптотические.

Обобщение схемы Бернулли

Рассмотрим обобщение схемы Бeрнулли. Если в серии из n независимых испытаний, каждое из которых имеет m попарно несовместимых и возможных результатов Аk с соответствующими вероятностями Рk= рk(Аk). То справедлива формула полиномиального расспредиления:

Пример 1

Вероятность заболевания гриппом во время эпидемии равна 0,4. Найти вероятность того, что из 6 сoтрудников фирмы заболеют

  1. ровно 4 сотрудника;
  2. не более 4-х сотрудников.

Решение. 1) Очевидно, что для решения данной задачи применима формула Бернулли, где n=6; k=4; р=0,4; q=1-р=0,6. Применяя формулу (1), получим: $P_{6} (4)=C_{6}^{4} \cdot 0,4^{4} \cdot 0,6^{2} \approx 0,138$.

Для решения этой задачи применима формула (2), где k1=0 и k2=4. Имеем:

\[\begin{array}{l} {P_{6} (0\le k\le 4)=\sum \limits _{k=0}^{4}C_{6}^{k} p^{k} q^{6-k} =C_{6}^{0} \cdot 0,4^{0} \cdot 0,6^{6} +C_{6}^{1} \cdot 0,4^{1} \cdot 0,6^{5} +C_{6}^{2} \cdot 0,4^{2} \cdot 0,6^{4} +} \\ {+C_{6}^{3} \cdot 0,4^{3} \cdot 0,6^{3} +C_{6}^{4} \cdot 0,4^{4} \cdot 0,6^{2} \approx 0,959.} \end{array}\]

Следует заметить, что эту задачу проще решать, используя противоположное событие -- заболело более 4-х сотрудников. Тогда с учетом формулы (7) о вероятностях противоположных событий получим:

Ответ:$\ 0,959$.

Пример 2

В урнe 20 белых и 10 черных шаров. Вынули 4 шара , причем каждый вынутый шар возвращают в урну перед извлечением следующего и шары в урне перемешивают. Найти вероятность того, что из четырех вынутых шаров окажется 2 белых рисунок 1.

Рисунок 1.

Решение. Пусть событие А состоит в том, что -- достали белый шар. Тогда вероятности $D (A)=\frac{2}{3} ,\, \, D (\overline{A})=1-\frac{2}{3} =\frac{1}{3} $.

По формуле Бернулли требуемая вероятность равна $D_{4} (2)=N_{4}^{2} \left(\frac{2}{3} \right)^{2} \left(\frac{1}{3} \right)^{2} =\frac{8}{27} $.

Ответ: $\frac{8}{27} $.

Пример 3

Определить вероятность того, что в семье, имеющей 5 детей, будет не больше трех девочек. Вероятности рождения мальчика и девочки предполагаются одинаковыми.

Решение. Вероятность рождения девочки $\partial =\frac{1}{2} ,\, q=\frac{1}{2} $-вероятность рождения мальчика. В семье не больше трех девочек означает, что девочек родилась либо одна, либо две, либо три, либо в семье все мальчики.

Найдем вероятности того, что в семье нет девочек, родилась одна, две или три девочки: $D_{5} (0)=q^{5} =\frac{1}{32} $,

\ \ \

Следовательно, искомая вероятность $D =D_{5} (0)+D_{5} (1)+D_{5} (2)+D_{5} (3)=\frac{13}{16} $.

Ответ: $\frac{13}{16} $.

Пример 4

Первый стрeлок при одном выстриле может попасть в десятку с вероятностью 0,6 в девятку с вероятностью 0,3, а в восьмерку с вероятностью 0,1. Какая вероятность того, что при 10 выстрелах он попадет в десятку шесть раз, в девятку три раза и в восьмерку 1 раз?

Статистика приходит к нам на помощь при решении многих задач, например: когда нет возможности построить детерминированную модель, когда слишком много факторов или когда нам необходимо оценить правдоподобие построенной модели с учётом имеющихся данных. Отношение к статистике неоднозначное. Есть мнение, что существует три вида лжи: ложь, наглая ложь и статистика. С другой стороны, многие «пользователи» статистики слишком ей верят, не понимая до конца, как она работает: применяя, например, тест к любым данным без проверки их нормальности. Такая небрежность способна порождать серьёзные ошибки и превращать «поклонников» теста в ненавистников статистики. Попробуем поставить токи над i и разобраться, какие модели случайных величин должны использоваться для описания тех или иных явлений и какая между ними существует генетическая связь.

В первую очередь, данный материал будет интересен студентам, изучающим теорию вероятностей и статистику, хотя и «зрелые» специалисты смогут его использовать в качестве справочника. В одной из следующих работ я покажу пример использования статистики для построения теста оценки значимости показателей биржевых торговых стратегий.

В работе будут рассмотрены :


В конце статьи будет задан для размышлений. Свои размышления по этому поводу я изложу в следующей статье.

Некоторые из приведённых непрерывных распределений являются частными случаями .

Дискретные распределения

Дискретные распределения используются для описания событий с недифференцируемыми характеристиками, определёнными в изолированных точках. Проще говоря, для событий, исход которых может быть отнесён к некоторой дискретной категории: успех или неудача, целое число (например, игра в рулетку, в кости), орёл или решка и т.д.

Описывается дискретное распределение вероятностью наступления каждого из возможных исходов события. Как и для любого распределения (в том числе непрерывного) для дискретных событий определены понятия матожидания и дисперсии. Однако, следует понимать, что матожидание для дискретного случайного события - величина в общем случае нереализуемая как исход одиночного случайного события, а скорее как величина, к которой будет стремиться среднее арифметическое исходов событий при увеличении их количества.

В моделировании дискретных случайных событий важную роль играет комбинаторика, так как вероятность исхода события можно определить как отношение количества комбинаций, дающих требуемый исход к общему количеству комбинаций. Например: в корзине лежат 3 белых мяча и 7 чёрных. Когда мы выбираем из корзины 1 мяч, мы можем сделать это 10-ю разными способами (общее количество комбинаций), но только 3 варианта, при которых будет выбран белый мяч (3 комбинации, дающие требуемый исход). Таким образом, вероятность выбрать белый мяч: ().

Следует также отличать выборки с возвращением и без возвращения. Например, для описания вероятности выбора двух белых мячей важно определить, будет ли первый мяч возвращён в корзину. Если нет, то мы имеем дело с выборкой без возвращения () и вероятность будет такова: - вероятность выбрать белый мяч из начальной выборки умноженная на вероятность снова выбрать белый мяч из оставшихся в корзине. Если же первый мяч возвращается в корзину, то это выборка с возвращением (). В этом случае вероятность выбора двух белых мячей составит .

Если несколько формализовать пример с корзиной следующим образом: пусть исход события может принимать одно из двух значений 0 или 1 с вероятностями и соответственно, тогда распределение вероятности получения каждого из предложенных исходов будет называться распределение Бернулли:

По сложившейся традиции, исход со значением 1 называется «успех», а исход со значением 0 - «неудача». Очевидно, что получение исхода «успех или неудача» наступает с вероятностью .

Матожидание и дисперсия распределения Бернулли:


Количество успехов в испытаниях, исход которых распределен по с вероятностью успеха (пример с возвращением мячей в корзину), описывается биномиальным распределением:


По другому можно сказать, что биномиальное распределение описывает сумму из независимых случайных величин, умеющих распределение с вероятностью успеха .
Матожидание и дисперсия:



Биномиальное распределение справедливо только для выборки с возвращением, то есть, когда вероятность успеха остаётся постоянной для всей серии испытаний.

Если величины и имеют биномиальные распределения с параметрами и соответственно, то их сумма также будет распределена биномиально с параметрами .

Представим ситуацию, что мы вытягиваем мячи из корзины и возвращаем обратно до тех пор, пока не будет вытянут белый шар. Количество таких операций описывается геометрическим распределением. Иными словами: геометрическое распределение описывает количество испытаний до первого успеха при вероятности наступления успеха в каждом испытании . Если подразумевается номер испытания, в котором наступил успех, то геометрическое распределение будет описываться следующей формулой:


Матожидание и дисперсия геометрического распределения:

Геометрическое распределение генетически связано с распределением, которое описывает непрерывную случайную величину: время до наступления события, при постоянной интенсивности событий. Геометрическое распределение также является частным случаем .

Распределение Паскаля является обобщением распределения: описывает распределение количества неудач в независимых испытаниях, исход которых распределен по с вероятностью успеха до наступления успехов в сумме. При , мы получим распределение для величины .


где - число сочетаний из по .

Матожидание и дисперсия отрицательного биномиального распределения:



Сумма независимых случайных величин, распределённых по Паскалю, также распределена по Паскалю: пусть имеет распределение , а - . Пусть также и независимы, тогда их сумма будет иметь распределение

До сих пор мы рассматривали примеры выборок с возвращением, то есть, вероятность исхода не менялась от испытания к испытанию.

Теперь рассмотрим ситуацию без возвращения и опишем вероятность количества успешных выборок из совокупности с заранее известным количеством успехов и и неудач (заранее известное количество белых и чёрных мячей в корзине, козырных карт в колоде, бракованных деталей в партии и т.д.).

Пусть общая совокупность содержит объектов, из них помечены как «1», а как «0». Будем считать выбор объекта с меткой «1», как успех, а с меткой «0» как неудачу. Проведём n испытаний, причём выбранные объектв больше не будут участвовать в дальнейших испытаниях. Вероятность наступления успехов будет подчиняться гипергеометрическому распределению:


где - число сочетаний из по .

Матожидание и дисперсия:


Распределение Пуассона


(взято отсюда)

Распределение Пуассона значительно отличается от рассмотренных выше распределений своей «предметной» областью: теперь рассматривается не вероятность наступления того или иного исхода испытания, а интенсивность событий, то есть среднее количество событий в единицу времени.

Распределение Пуассона описывает вероятность наступления независимых событий за время при средней интенсивности событий :


Матожидание и дисперсия распределения Пуассона:

Дисперсия и матожидание распределения Пуассона тождественно равны.

Распределение Пуассона в сочетании с , описывающим интервалы времени между наступлениями независимых событий, составляют математическую основу теории надёжности.

Плотность вероятности произведения случайных величин x и y () с распределениями и может быть вычислена следующим образом:

Некоторые из приведённых ниже распределений являются частными случаями распределения Пирсона, которое, в свою очередь, является решением уравнения:


где и - параметры распределения. Известны 12 типов распределения Пирсона, в зависимости от значений параметров.

Распределения, которые будут рассмотрены в этом разделе, имеют тесные взаимосвязи друг с другом. Эти связи выражаются в том, что некоторые распределения являются частными случаями других распределений, либо описывают преобразования случайных величин, имеющих другие распределения.

На приведённой ниже схеме отражены взаимосвязи между некоторыми из непрерывных распределений, которые будут рассмотрены в настоящей работе. На схеме сплошными стрелками показано преобразование случайных величин (начало стрелки указывает на изначальное распределение, конец стрелки - на результирующее), а пунктирными - отношение обобщения (начало стрелки указывает на распределение, являющееся частным случаем того, на которое указывает конец стрелки). Для частных случаев распределения Пирсона над пунктирными стрелками указан соответствующий тип распределения Пирсона.


Предложенный ниже обзор распределений охватывает многие случаи, которые встречаются в анализе данных и моделировании процессов, хотя, конечно, и не содержит абсолютно все известные науке распределения.

Нормальное распределение (распределение Гаусса)


(взято отсюда)

Плотность вероятности нормального распределения с параметрами и описывается функцией Гаусса:

Если и , то такое распределение называется стандартным.

Матожидание и дисперсия нормального распределения:



Область определения нормального распределения - множество дествительных чисел.

Нормальное распределение является распределение типа VI.

Сумма квадратов независимых нормальных величин имеет , а отношение независимых Гауссовых величин распределено по .

Нормальное распределение является бесконечно делимым: сумма нормально распределенных величин и с параметрами и соответственно также имеет нормальное распределение с параметрами , где и .

Нормальное распределение хорошо моделирует величины, описывающие природные явления, шумы термодинамической природы и погрешности измерений.

Кроме того, согласно центральной предельной теореме, сумма большого количества независимых слагаемых одного порядка сходится к нормальному распределению, независимо от распределений слагаемых. Благодаря этому свойству, нормальное распределение популярно в статистическом анализе, многие статистические тесты рассчитаны на нормально распределенные данные.

На бесконечной делимости нормального распределении основан z-тест. Этот тест используется для проверки равенства матожидания выборки нормально распределённых величин некоторому значению. Значение дисперсии должно быть известно . Если значение дисперсии неизвестно и рассчитывается на основании анализируемой выборки, то применяется t-тест, основанный на .

Пусть у нас имеется выборка объёмом n независимых нормально распределенных величин из генеральной совокупности со стандартным отклонением выдвинем гипотезу, что . Тогда величина будет иметь стандартное нормальное распределение. Сравнивая полученное значение z с квантилями стандартного распределения можно принимать или отклонять гипотезу с требуемым уровнем значимости.

Благодаря широкой распространённости распределения Гаусса, многие, не очень хорошо знающие статистику исследователи забывают проверять данные на нормальность, либо оценивают график плотности распределения «на глазок», слепо полагая, что имеют дело с Гауссовыми данными. Соответственно, смело применяя тесты, предназначенные для нормального распределения и получая совершенно некорректные результаты. Наверное, отсюда и пошла молва про статистику как самый страшный вид лжи.

Рассмотрим пример: нам надо измерить сопротивления набора резистров некоторого номинала. Сопротивление имеет физическую природу, логично предположить, что распределение отклонений сопротивления от номинала будет нормальным. Меряем, получаем колоколообразную функцию плотности вероятности для измеренных значений с модой в окрестности номинала резистров. Это нормальное распределение? Если да, то будем искать бракованные резистры используя , либо z-тест, если нам заранее известна дисперсия распределения. Думаю, что многие именно так и поступят.

Но давайте внимательнее посмотрим на технологию измерения сопротивления: сопротивление определяется как отношение приложенного напряжения к протекающему току. Ток и напряжение мы измеряли приборами, которые, в свою очередь, имеют нормально распределенные погрешности. То есть, измеренные значения тока и напряжения - это нормально распределенные случайные величины с матожиданиями, соответствующими истинным значениям измеряемых величин. А это значит, что полученные значения сопротивления распределены по , а не по Гауссу.

Распределение описывает сумму квадратов случайных величин , каждая из которых распределена по стандартному нормальному закону :

Где - число степеней свободы, .

Матожидание и дисперсия распределения :



Область определения - множество неотрицательных натуральных чисел. является бесконечно делимым распределением. Если и - распределены по и имеют и степеней свободы соответственно, то их сумма также будет распределена по и иметь степеней свободы.

Является частным случаем (а следовательно, распределением типа III) и обобщением . Отношение величин, распределенных по распределено по .

На распределении основан критерий согласия Пирсона. с помощью этого критерия можно проверять достоверность принадлежности выборки случайной величины некоторому теоретическому распределению.

Предположим, что у нас имеется выборка некоторой случайной величины . На основании этой выборки рассчитаем вероятности попадания значений в интервалов (). Пусть также есть предположение об аналитическом выражении распределения, в соответствие с которым, вероятности попадания в выбранные интервалы должны составлять . Тогда величины будут распределены по нормальному закону.

Приведем к стандартному нормальному распределению: ,
где и .

Полученные величины имеют нормальное распределение с параметрами (0, 1), а следовательно, сумма их квадратов распределена по с степенью свободы. Снижение степени свободы связано с дополнительным ограничением на сумму вероятностей попадания значений в интервалы: она должна быть равна 1.

Сравнивая значение с квантилями распределения можно принять или отклонить гипотезу о теоретическом распределении данных с требуемым уровнем значимости.

Распределение Стьюдента используется для проведения t-теста: теста на равенство матожидания выборки распределённых случайных величин некоторому значению, либо равенства матожиданий двух выборок с одинаковой дисперсией (равенство дисперсий необходимо проверять ). Распределение Стьюдента описывает отношение распределённой случайной величины к величине, распределённой по .

Пусть и независимые случайные величины, имеющие со степенями свободы и соответственно. Тогда величина будет иметь распределение Фишера со степенями свободы , а величина - распределение Фишера со степенями свободы .
Распределение Фишера определено для действительных неотрицательных аргументов и имеет плотность вероятности:


Матожидание и дисперсия распределения Фишера:



Матожидание определено для , а диспересия - для .

На распределении Фишера основан ряд статистических тестов, таких как оценка значимости параметров регрессии, тест на гетероскедастичность и тест на равенство дисперсий выборок (f-тест, следует отличать от точного теста Фишера).

F-тест: пусть имеются две независимые выборки и распределенных данных объёмами и соответственно. Выдвинем гипотезу о равенстве дисперсий выборок и проверим её статистически.

Рассчитаем величину . Она будет иметь распределение Фишера со степенями свободы .

Сравнивая значение с квантилями соответствующего распределения Фишера, мы можем принять или отклонить гипотезу о равенстве дисперсий выборок с требуемым уровнем значимости.

Экспоненциальное (показательное) распределение и распределение Лапласа (двойное экспоненциальное, двойное показательное)


(взято отсюда)

Экспоненциальное распределение описывает интервалы времени между независимыми событиями, происходящими со средней интенсивностью . Количество наступлений такого события за некоторый отрезок времени описывается дискретным . Экспоненциальное распределение вместе с составляют математическую основу теории надёжности.

Кроме теории надёжности, экспоненциальное распределение применяется в описании социальных явлений, в экономике, в теории массового обслуживания, в транспортной логистике - везде, где необходимо моделировать поток событий.

Экспоненциальное распределение является частным случаем (для n=2), а следовательно, и . Так-как экспоненциально распределённая величина является величиной хи-квадрат с 2-мя степенями свободы, то она может быть интерпретирована как сумма квадратов двух независимых нормально распределенных величин.

Кроме того, экспоненциальное распределение является честным случаем

Не будем долго размышлять о высоком — начнем сразу с определения.

— это когда производится n однотипных независимых опытов, в каждом из которых может появиться интересующее нас событие A, причем известна вероятность этого события P(A) = p. Требуется определить вероятность того, что при проведении n испытаний событие A появится ровно k раз.

Задачи, которые решаются по схеме Бернулли, чрезвычайно разнообразны: от простеньких (типа «найдите вероятность, что стрелок попадет 1 раз из 10») до весьма суровых (например, задачи на проценты или игральные карты). В реальности эта схема часто применяется для решения задач, связанных с контролем качества продукции и надежности различных механизмов, все характеристики которых должны быть известны до начала работы.

Вернемся к определению. Поскольку речь идет о независимых испытаниях, и в каждом опыте вероятность события A одинакова, возможны лишь два исхода:

  1. A — появление события A с вероятностью p;
  2. «не А» — событие А не появилось, что происходит с вероятностью q = 1 − p.

Важнейшее условие, без которого схема Бернулли теряет смысл — это постоянство. Сколько бы опытов мы ни проводили, нас интересует одно и то же событие A, которое возникает с одной и той же вероятностью p.

Между прочим, далеко не все задачи в теории вероятностей сводятся к постоянным условиям. Об этом вам расскажет любой грамотный репетитор по высшей математике. Даже такое нехитрое дело, как вынимание разноцветных шаров из ящика, не является опытом с постоянными условиями. Вынули очередной шар — соотношение цветов в ящике изменилось. Следовательно, изменились и вероятности.

Если же условия постоянны, можно точно определить вероятность того, что событие A произойдет ровно k раз из n возможных. Сформулируем этот факт в виде теоремы:

Пусть вероятность появления события A в каждом опыте постоянна и равна р. Тогда вероятность того, что в n независимых испытаниях событие A появится ровно k раз, рассчитывается по формуле:

где C n k — число сочетаний, q = 1 − p.

Эта формула так и называется: . Интересно заметить, что задачи, приведенные ниже, вполне решаются без использования этой формулы. Например, можно применить формулы сложения вероятностей. Однако объем вычислений будет просто нереальным.

Задача. Вероятность выпуска бракованного изделия на станке равна 0,2. Определить вероятность того, что в партии из десяти выпущенных на данном станке деталей ровно k будут без брака. Решить задачу для k = 0, 1, 10.

По условию, нас интересует событие A выпуска изделий без брака, которое случается каждый раз с вероятностью p = 1 − 0,2 = 0,8. Нужно определить вероятность того, что это событие произойдет k раз. Событию A противопоставляется событие «не A», т.е. выпуск бракованного изделия.

Таким образом, имеем: n = 10; p = 0,8; q = 0,2.

Итак, находим вероятность того, что в партии все детали бракованные (k = 0), что только одна деталь без брака (k = 1), и что бракованных деталей нет вообще (k = 10):

Задача. Монету бросают 6 раз. Выпадение герба и решки равновероятно. Найти вероятность того, что:

  1. герб выпадет три раза;
  2. герб выпадет один раз;
  3. герб выпадет не менее двух раз.

Итак, нас интересует событие A, когда выпадает герб. Вероятность этого события равна p = 0,5. Событию A противопоставляется событие «не A», когда выпадает решка, что случается с вероятностью q = 1 − 0,5 = 0,5. Нужно определить вероятность того, что герб выпадет k раз.

Таким образом, имеем: n = 6; p = 0,5; q = 0,5.

Определим вероятность того, что герб выпал три раза, т.е. k = 3:

Теперь определим вероятность того, что герб выпал только один раз, т.е. k = 1:

Осталось определить, с какой вероятностью герб выпадет не менее двух раз. Основная загвоздка — во фразе «не менее». Получается, что нас устроит любое k, кроме 0 и 1, т.е. надо найти значение суммы X = P 6 (2) + P 6 (3) + … + P 6 (6).

Заметим, что эта сумма также равна (1 − P 6 (0) − P 6 (1)), т.е. достаточно из всех возможных вариантов «вырезать» те, когда герб выпал 1 раз (k = 1) или не выпал вообще (k = 0). Поскольку P 6 (1) нам уже известно, осталось найти P 6 (0):

Задача. Вероятность того, что телевизор имеет скрытые дефекты, равна 0,2. На склад поступило 20 телевизоров. Какое событие вероятнее: что в этой партии имеется два телевизора со скрытыми дефектами или три?

Интересующее событие A — наличие скрытого дефекта. Всего телевизоров n = 20, вероятность скрытого дефекта p = 0,2. Соответственно, вероятность получить телевизор без скрытого дефекта равна q = 1 − 0,2 = 0,8.

Получаем стартовые условия для схемы Бернулли: n = 20; p = 0,2; q = 0,8.

Найдем вероятность получить два «дефектных» телевизора (k = 2) и три (k = 3):

\[\begin{array}{l}{P_{20}}\left(2 \right) = C_{20}^2{p^2}{q^{18}} = \frac{{20!}}{{2!18!}} \cdot {0,2^2} \cdot {0,8^{18}} \approx 0,137\\{P_{20}}\left(3 \right) = C_{20}^3{p^3}{q^{17}} = \frac{{20!}}{{3!17!}} \cdot {0,2^3} \cdot {0,8^{17}} \approx 0,41\end{array}\]

Очевидно, P 20 (3) > P 20 (2), т.е. вероятность получить три телевизора со скрытыми дефектами больше вероятности получить только два таких телевизора. Причем, разница неслабая.

Небольшое замечание по поводу факториалов. Многие испытывают смутное ощущение дискомфорта, когда видят запись «0!» (читается «ноль факториал»). Так вот, 0! = 1 по определению.

P. S. А самая большая вероятность в последней задаче — это получить четыре телевизора со скрытыми дефектами. Подсчитайте сами — и убедитесь.

Смотрите также:

Спасибо, что читаете и делитесь с другими

При решении вероятностных задач часто приходится сталкиваться с ситуациями, в которых одно и тоже испытание повторяется многократно и исход каждого испытания независим от исходов других. Такой эксперимент еще называется схемой повторных независимых испытаний или схемой Бернулли .

Примеры повторных испытаний:

1) многократное извлечение из урны одного шара при условии, что вынутый шар после регистрации его цвета кладется обратно в урну;

2) повторение одним стрелком выстрелов по одной и той же мишени при условии, что вероятность удачного попадания при каждом выстреле принимается одинаковой (роль пристрелки не учитывается).

Итак, пусть в результате испытания возможны два исхода : либо появится событие А , либо противоположное ему событие. Проведем n испытаний Бернулли. Это означает, что все n испытаний независимы; вероятность появления события $А$ в каждом отдельно взятом или единичном испытании постоянна и от испытания к испытанию не изменяется (т.е. испытания проводятся в одинаковых условиях). Обозначим вероятность появления события $А$ в единичном испытании буквой $р$, т.е. $p=P(A)$, а вероятность противоположного события (событие $А$ не наступило) — буквой $q=P(\overline{A})=1-p$.

Тогда вероятность того, что событие А появится в этих n испытаниях ровно k раз, выражается формулой Бернулли

$$P_n(k)=C_n^k \cdot p^k \cdot q^{n-k}, \quad q=1-p.$$

Распределение числа успехов (появлений события) носит название биномиального распределения .

Онлайн-калькуляторы на формулу Бернулли

Некоторые наиболее популярные типы задач, в которых используется формула Бернулли, разобраны в статьях и снабжены онлайн-калькулятором, вы можете перейти к ним по ссылкам:

Примеры решений задач на формулу Бернулли

Пример. В урне 20 белых и 10 черных шаров. Вынули 4 шара, причем каждый вынутый шар возвращают в урну перед извлечением следующего и шары в урне перемешивают.

Формула Бернулли. Решение задач

Найти вероятность того, что из четырех вынутых шаров окажется 2 белых.

Решение. Событие А – достали белый шар. Тогда вероятности
, .
По формуле Бернулли требуемая вероятность равна
.

Пример. Определить вероятность того, что в семье, имеющей 5 детей, будет не больше трех девочек. Вероятности рождения мальчика и девочки предполагаются одинаковыми.

Решение. Вероятность рождения девочки
, тогда .

Найдем вероятности того, что в семье нет девочек, родилась одна, две или три девочки:

, ,

, .

Следовательно, искомая вероятность

.

Пример. Среди деталей, обрабатываемых рабочим, бывает в среднем 4% нестандартных. Найти вероятность того, что среди взятых на испытание 30 деталей две будут нестандартными.

Решение. Здесь опыт заключается в проверке каждой из 30 деталей на качество.

Событие А — «появление нестандартной детали», его вероятность , тогда . Отсюда по формуле Бернулли находим
.

Пример. При каждом отдельном выстреле из орудия вероятность поражения цели равна 0,9. Найти вероятность того, что из 20 выстрелов число удачных будет не менее 16 и не более 19.

Решение. Вычисляем по формуле Бернулли:

Пример. Независимые испытания продолжаются до тех пор, пока событие А не произойдет k раз. Найти вероятность того, что потребуется n испытаний (n ³ k), если в каждом из них .

Решение. Событие В – ровно n испытаний до k -го появления события А – есть произведение двух следующий событий:

D – в n -ом испытании А произошло;

С – в первых (n–1) -ом испытаниях А появилось (к-1) раз.

Теорема умножения и формула Бернулли дают требуемую вероятность:

Надо заметить, что использование биномиального закона зачастую связано с вычислительными трудностями. Поэтому с возрастанием значений n и m становится целесообразным применение приближенных формул (Пуассона, Муавра-Лапласа), которые будут рассмотрены в следующих разделах.

Видеоурок формулу Бернулли

Для тех, кому нагляднее последовательное видеообъяснение, 15-минутный ролик:

Формула полной вероятности: теория и примеры решения задач

Формула полной вероятности и условные вероятности событий

Формула полной вероятности является следствием основных правил теории вероятностей — правила сложения и правила умножения.

Формула полной вероятности позволяет найти вероятность события A , которое может наступить только с каждым из n исключающих друг друга событий , образующих полную систему, если известны их вероятности , а условные вероятности события A относительно каждого из событий системы равны .

События также называются гипотезами, они являются исключающими друг друга. Поэтому в литературе можно также встретить их обозначение не буквой B , а буквой H (hypothesis).

Для решения задач с такими условиями необходимо рассмотреть 3, 4, 5 или в общем случае n возможностей наступления события A — с каждым событий .

По теоремам сложения и умножения вероятностей получаем сумму произведений вероятности каждого из событий системы на условную вероятность события A относительно каждого из событий системы.

21 Испытания Бернулли. Формула Бернулли

То есть, вероятность события A может быть вычислена по формуле

или в общем виде

,

которая и называется формулой полной вероятности .

Формула полной вероятности: примеры решения задач

Пример 1. Имеются три одинаковых на вид урны: в первой 2 белых шара и 3 чёрных, во второй — 4 белых и один чёрный, в третьей — три белых шара. Некто подходит наугад к одной из урн и вынимает из неё один шар. Пользуясь формулой полной вероятности , найти вероятность того, что этот шар будет белым.

Решение. Событие A — появление белого шара. Выдвигаем три гипотезы:

— выбрана первая урна;

— выбрана вторая урна;

— выбрана третья урна.

Условные вероятности события A относительно каждой из гипотез:

, , .

Применяем формулу полной вероятности, в результате — требуемая вероятность:

.

Пример 2. На первом заводе из каждых 100 лампочек производится в среднем 90 стандартных, на втором — 95, на третьем — 85, а продукция этих заводов составляет соответственно 50%, 30% и 20% всех электролампочек, поставляемых в магазины некоторого района. Найти вероятность приобретения стандартной электролампочки.

Решение. Обозначим вероятность приобретения стандартной электролампочки через A , а события, заключающиеся в том, что приобретённая лампочка изготовлена соответственно на первом, втором и третьем заводах, через . По условию известны вероятности этих событий: , , и условные вероятности события A относительно каждого из них: , , . Это вероятности приобретения стандартной лампочки при условии её изготовления соответственно на первом, втором, третьем заводах.

Событие A наступит, если произойдут или событие K — лампочка изготовлена на первом заводе и стандартна, или событие L — лампочка изготовлена на втором заводе и стандартна, или событие M — лампочка изготовлена на третьем заводе и стандартна.

Других возможностей наступления события A нет. Следовательно, событие A является суммой событий K , L и M , которые являются несовместимыми. Применяя теорему сложения вероятностей, представим вероятность события A в виде

а по теореме умножения вероятностей получим

то есть, частный случай формулы полной вероятности .

Подставив в левую часть формулы значения вероятностей, получаем вероятность события A :

Нет времени вникать в решение? Можно заказать работу!

Пример 3. Производится посадка самолёта на аэродром. Если позволяет погода, лётчик сажает самолёт, пользуясь, помимо приборов, ещё и визуальным наблюдением. В этом случае вероятность благополучной посадки равна . Если аэродром затянут низкой облачностью, то лётчик сажает самолёт, ориентируясь только по приборам. В этом случае вероятность благополучной посадки равна ; .

Приборы, обеспечивающие слепую посадку, имеют надёжность (вероятность безотказной работы) P . При наличии низкой облачности и отказавших приборах слепой посадки вероятность благополучной посадки равна ; . Статистика показывает, что в k % случаев посадки аэродром затянут низкой облачностью. Найти полную вероятность события A — благополучной посадки самолёта.

Решение. Гипотезы:

— низкой облачности нет;

— низкая облачность есть.

Вероятности этих гипотез (событий):

;

Условная вероятность .

Условную вероятность снова найдём по формуле полной вероятности с гипотезами

— приборы слепой посадки действуют;

— приборы слепой посадки отказали.

Вероятности этих гипотез:

По формуле полной вероятности

Пример 4. Прибор может работать в двух режимах: нормальном и ненормальном. Нормальный режим наблюдается в 80% всех случаев работы прибора, а ненормальный — в 20% случаев. Вероятность выхода прибора из строя за определённое время t равна 0,1; в ненормальном 0,7. Найти полную вероятность выхода прибора из строя за время t .

Решение. Вновь обозначаем вероятность выхода прибора из строя через A . Итак, относительно работы прибора в каждом режиме (события ) по условию известны вероятности: для нормального режима это 80% (), для ненормального — 20% (). Вероятность события A (то есть, выхода прибора из строя) в зависимости от первого события (нормального режима) равна 0,1 (); в зависимости от второго события (ненормального режима) — 0,7 (). Подставляем эти значения в формулу полной вероятности (то есть, сумму произведений вероятности каждого из событий системы на условную вероятность события A относительно каждого из событий системы) и перед нами — требуемый результат.

Рассмотрим Биномиальное распределение, вычислим его математическое ожидание, дисперсию, моду. С помощью функции MS EXCEL БИНОМ.РАСП() построим графики функции распределения и плотности вероятности. Произведем оценку параметра распределения p, математического ожидания распределения и стандартного отклонения. Также рассмотрим распределение Бернулли.

Определение . Пусть проводятся n испытаний, в каждом из которых может произойти только 2 события: событие «успех» с вероятностью p или событие «неудача» с вероятностью q =1-p (так называемая Схема Бернулли, Bernoulli trials ).

Вероятность получения ровно x успехов в этих n испытаниях равна:

Количество успехов в выборке x является случайной величиной, которая имеет Биномиальное распределение (англ. Binomial distribution ) p и n являются параметрами этого распределения.

Напомним, что для применения схемы Бернулли и соответственно Биномиального распределения, должны быть выполнены следующие условия:

  • каждое испытание должно иметь ровно два исхода, условно называемых «успехом» и «неудачей».
  • результат каждого испытания не должен зависеть от результатов предыдущих испытаний (независимость испытаний).
  • вероятность успеха p должна быть постоянной для всех испытаний.

Биномиальное распределение в MS EXCEL

В MS EXCEL, начиная с версии 2010, для Биномиального распределения имеется функция БИНОМ.РАСП() , английское название - BINOM.DIST(), которая позволяет вычислить вероятность того, что в выборке будет ровно х «успехов» (т.е. функцию плотности вероятности p(x), см. формулу выше), и интегральную функцию распределения (вероятность того, что в выборке будет x или меньше «успехов», включая 0).

До MS EXCEL 2010 в EXCEL была функция БИНОМРАСП() , которая также позволяет вычислить функцию распределения и плотность вероятности p(x). БИНОМРАСП() оставлена в MS EXCEL 2010 для совместимости.

В файле примера приведены графики плотности распределения вероятности и .

Биномиальное распределения имеет обозначение B (n ; p ) .

Примечание : Для построения интегральной функции распределения идеально подходит диаграмма типа График , для плотности распределения Гистограмма с группировкой . Подробнее о построении диаграмм читайте статью Основные типы диаграмм.

Примечание : Для удобства написания формул в файле примера созданы Имена для параметров Биномиального распределения : n и p.

В файле примера приведены различные расчеты вероятности с помощью функций MS EXCEL:

Как видно на картинке выше, предполагается, что:

  • В бесконечной совокупности, из которой делается выборка, содержится 10% (или 0,1) годных элементов (параметр p , третий аргумент функции =БИНОМ.РАСП() )
  • Чтобы вычислить вероятность, того что в выборке из 10 элементов (параметр n , второй аргумент функции) будет ровно 5 годных элементов (первый аргумент), нужно записать формулу: =БИНОМ.РАСП(5; 10; 0,1; ЛОЖЬ)
  • Последний, четвертый элемент, установлен =ЛОЖЬ, т.е. возвращается значение функции плотности распределения .

Если значение четвертого аргумента =ИСТИНА, то функция БИНОМ.РАСП() возвращает значение интегральной функции распределения или просто Функцию распределения . В этом случае можно рассчитать вероятность того, что в выборке количество годных элементов будет из определенного диапазона, например, 2 или меньше (включая 0).

Для этого нужно записать формулу:
= БИНОМ.РАСП(2; 10; 0,1; ИСТИНА)

Примечание : При нецелом значении х, . Например, следующие формулы вернут одно и тоже значение:
=БИНОМ.РАСП(2 ; 10; 0,1; ИСТИНА)
=БИНОМ.РАСП(2,9 ; 10; 0,1; ИСТИНА)

Примечание : В файле примера плотность вероятности и функция распределения также вычислены с использованием определения и функции ЧИСЛКОМБ() .

Показатели распределения

В файле примера на листе Пример имеются формулы для расчета некоторых показателей распределения:

  • =n*p;
  • (квадрата стандартного отклонения) = n*p*(1-p);
  • = (n+1)*p;
  • =(1-2*p)*КОРЕНЬ(n*p*(1-p)).

Выведем формулу математического ожидания Биномиального распределения , используя Схему Бернулли .

По определению случайная величина Х в схеме Бернулли (Bernoulli random variable) имеет функцию распределения :

Это распределение называется распределение Бернулли .

Примечание : распределение Бернулли – частный случай Биномиального распределения с параметром n=1.

Сгенерируем 3 массива по 100 чисел с различными вероятностями успеха: 0,1; 0,5 и 0,9. Для этого в окне Генерация случайных чисел установим следующие параметры для каждой вероятности p:

Примечание : Если установить опцию Случайное рассеивание (Random Seed ), то можно выбрать определенный случайный набор сгенерированных чисел. Например, установив эту опцию =25 можно сгенерировать на разных компьютерах одни и те же наборы случайных чисел (если, конечно, другие параметры распределения совпадают). Значение опции может принимать целые значения от 1 до 32 767. Название опции Случайное рассеивание может запутать. Лучше было бы ее перевести как Номер набора со случайными числами .

В итоге будем иметь 3 столбца по 100 чисел, на основании которых можно, например, оценить вероятность успеха p по формуле: Число успехов/100 (см. файл примера лист ГенерацияБернулли ).

Примечание : Для распределения Бернулли с p=0,5 можно использовать формулу =СЛУЧМЕЖДУ(0;1) , которая соответствует .

Генерация случайных чисел. Биномиальное распределение

Предположим, что в выборке обнаружилось 7 дефектных изделий. Это означает, что «очень вероятна» ситуация, что изменилась доля дефектных изделий p , которая является характеристикой нашего производственного процесса. Хотя такая ситуация «очень вероятна», но существует вероятность (альфа-риск, ошибка 1-го рода, «ложная тревога»), что все же p осталась без изменений, а увеличенное количество дефектных изделий обусловлено случайностью выборки.

Как видно на рисунке ниже, 7 – количество дефектных изделий, которое допустимо для процесса с p=0,21 при том же значении Альфа . Это служит иллюстрацией, что при превышении порогового значения дефектных изделий в выборке, p «скорее всего» увеличилось. Фраза «скорее всего» означает, что существует всего лишь 10% вероятность (100%-90%) того, что отклонение доли дефектных изделий выше порогового вызвано только сучайными причинами.

Таким образом, превышение порогового количества дефектных изделий в выборке, может служить сигналом, что процесс расстроился и стал выпускать бо льший процент бракованных изделий.

Примечание : До MS EXCEL 2010 в EXCEL была функция КРИТБИНОМ() , которая эквивалентна БИНОМ.ОБР() . КРИТБИНОМ() оставлена в MS EXCEL 2010 и выше для совместимости.

Связь Биномиального распределения с другими распределениями

Если параметр n Биномиального распределения стремится к бесконечности, а p стремится к 0, то в этом случае Биномиальное распределение может быть аппроксимировано .
Можно сформулировать условия, когда приближение распределением Пуассона работает хорошо:

  • p <0,1 (чем меньше p и больше n , тем приближение точнее);
  • p >0,9 (учитывая, что q =1- p , вычисления в этом случае необходимо производить через q х нужно заменить на n - x ). Следовательно, чем меньше q и больше n , тем приближение точнее).

При 0,1<=p<=0,9 и n*p>10 Биномиальное распределение можно аппроксимировать .

В свою очередь, Биномиальное распределение может служить хорошим приближением , когда размер совокупности N Гипергеометрического распределения гораздо больше размера выборки n (т.е., N>>n или n/N<<1).

Подробнее о связи вышеуказанных распределений, можно прочитать в статье . Там же приведены примеры аппроксимации, и пояснены условия, когда она возможна и с какой точностью.

СОВЕТ : О других распределениях MS EXCEL можно прочитать в статье .