Вероятность 1 из 7. Вероятность события


  • Раздел 1. Случайные события (50 часов)
  • Тематический план дисциплины для студентов очно-заочной формы обучения
  • Тематический план дисциплины для студентов заочной формы обучения
  • 2.3. Структурно-логическая схема дисциплины
  • Математика ч.2. Теория вероятностей и элементы математической статистики Теория
  • Раздел 1 Случайные события
  • Раздел 3 Элементы математической статистики
  • Раздел 2 Случайные величины
  • 2.5. Практический блок
  • 2.6. Балльно-рейтинговая система
  • Информационные ресурсы дисциплины
  • Библиографический список Основной:
  • 3.2. Опорный конспект по курсу “ Математика ч.2. Теория вероятностей и элементы математической статистики” введение
  • Раздел 1. Случайные события
  • 1.1. Понятие случайного события
  • 1.1.1. Сведения из теории множеств
  • 1.1.2. Пространство элементарных событий
  • 1.1.3. Классификация событий
  • 1.1.4. Сумма и произведение событий
  • 1.2. Вероятности случайных событий.
  • 1.2.1. Относительная частота события, аксиомы теории вероятностей. Классическое определение вероятности
  • 1.2.2. Геометрическое определение вероятности
  • Вычисление вероятности события через элементы комбинаторного анализа
  • 1.2.4. Свойства вероятностей событий
  • 1.2.5. Независимые события
  • 1.2.6. Расчет вероятности безотказной работы прибора
  • Формулы для вычисления вероятности событий
  • 1.3.1. Последовательность независимых испытаний (схема Бернулли)
  • 1.3.2. Условная вероятность события
  • 1.3.4. Формула полной вероятности и формула Байеса
  • Раздел 2. Случайные величины
  • 2.1. Описание случайных величин
  • 2.1.1. Определение и способы задания случайной величины Одним из основных понятий теории вероятности является понятие случайной величины. Рассмотрим некоторые примеры случайных величин:
  • Чтобы задать случайную величину, надо указать ее закон распределения. Случайные величины принято обозначать греческими буквами ,,, а их возможные значения – латинскими буквами с индексамиxi,yi,zi.
  • 2.1.2. Дискретные случайные величины
  • Рассмотрим события Ai , содержащие все элементарные события , приводящие к значению XI:
  • Пусть pi обозначает вероятность события Ai:
  • 2.1.3. Непрерывные случайные величины
  • 2.1.4. Функция распределения и ее свойства
  • 2.1.5. Плотность распределения вероятности и ее свойства
  • 2.2. Числовые характеристики случайных величин
  • 2.2.1. Математическое ожидание случайной величины
  • 2.2.2. Дисперсия случайной величины
  • 2.2.3. Нормальное распределение случайной величины
  • 2.2.4. Биномиальное распределение
  • 2.2.5. Распределение Пуассона
  • Раздел 3. Элементы математической статистики
  • 3.1. Основные определения
  • Гистограмма
  • 3.3. Точечные оценки параметров распределения
  • Основные понятия
  • Точечные оценки математического ожидания и дисперсии
  • 3.4. Интервальные оценки
  • Понятие интервальной оценки
  • Построение интервальных оценок
  • Основные статистические распределения
  • Интервальные оценки математического ожидания нормального распределения
  • Интервальная оценка дисперсии нормального распределения
  • Заключение
  • Глоссарий
  • 4. Методические указания к выполнению лабораторных работ
  • Библиографический список
  • Лабораторная работа 1 описание случайных величин. Числовые характеристики
  • Порядок выполнения лабораторной работы
  • Лабораторная работа 2 Основные определения. Систематизация выборки. Точечные оценки параметров распределения. Интервальные оценки.
  • Понятие статистической гипотезы о виде распределения
  • Порядок выполнения лабораторной работы
  • Ячейка Значение Ячейка Значение
  • 5. Методические указания к выполнению контрольной работы Задание на контрольную работу
  • Методические указания к выполнению контрольной работы События и их вероятности
  • Случайные величины
  • Среднее квадратическое отклонение
  • Элементы математической статистики
  • 6. Блок контроля освоения дисциплины
  • Вопросы для экзамена по курсу « Математика ч.2. Теория вероятностей и элементы математической статистики»
  • Продолжение таблицы в
  • Окончание таблицы в
  • Равномерно распределенные случайные числа
  • Содержание
  • Раздел 1. Случайные события………………………………………. 18
  • Раздел 2 . Случайные величины..………………………… ….. 41
  • Раздел 3. Элементы математической статистики............... . 64
  • 4. Методические указания к выполнению лабораторных
  • 5. Методические указания к выполнению контрольной
      1. Формулы для вычисления вероятности событий

    1.3.1. Последовательность независимых испытаний (схема Бернулли)

    Предположим, что некоторый эксперимент можно проводить неоднократно при одних и тех же условиях. Пусть этот опыт производится n раз, т. е. проводится последовательность из n испытаний.

    Определение. Последовательность n испытаний называют взаимно независимой , если любое событие, связанное с данным испытанием, не зависит от любых событий, относящихся к остальным испытаниям.

    Допустим, что некоторое событие A может произойти с вероятностью p в результате одного испытания или не произойти с вероятностью q = 1- p .

    Определение . Последовательность из n испытаний образует схему Бернулли, если выполняются следующие условия:

      последовательность n испытаний взаимно независима,

    2) вероятность события A не изменяется от испытания к испытанию и не зависит от результата в других испытаниях.

    Событие A называют “ успехом” испытания, а противоположное событие - “неудачей”. Рассмотрим событие

    ={ в n испытаниях произошло ровно m “успехов”}.

    Для вычисления вероятности этого события справедлива формула Бернулли

    p () =
    , m = 1, 2, …, n , (1.6)

    где - число сочетаний из n элементов по m :

    =
    =
    .

    Пример 1.16. Три раза подбрасывают кубик. Найти:

    а) вероятность того, что 6 очков выпадет два раза;

    б) вероятность того, что число шестерок не появится более двух раз.

    Решение . “Успехом” испытания будем считать выпадение на кубике грани с изображением 6 очков.

    а) Общее число испытаний – n =3, число “успехов” – m = 2. Вероятность “успеха” - p =, а вероятность “неудачи” - q = 1 - =. Тогда по формуле Бернулли вероятность того, что результате трехразового бросания кубика два раза выпадет сторона с шестью очками, будет равна

    .

    б) Обозначим через А событие, которое заключается в том, что грань с числом очков 6 появится не более двух раз. Тогда событие можно представить в виде суммы трех несовместных событий А=
    ,

    где В 3 0 – событие, когда интересующая грань ни разу не появится,

    В 3 1 - событие, когда интересующая грань появится один раз,

    В 3 2 - событие, когда интересующая грань появится два раза.

    По формуле Бернулли (1.6) найдем

    p (А ) = р (
    ) = p (
    )=
    +
    +
    =

    =
    .

    1.3.2. Условная вероятность события

    Условная вероятность отражает влияние одного события на вероятность другого. Изменение условий, в которых проводится эксперимент, также влияет

    на вероятность появления интересующего события.

    Определение. Пусть A и B – некоторые события, и вероятность p (B )> 0.

    Условной вероятностью события A при условии, что “событие B уже произошло” называется отношение вероятности произведения данных событий к вероятности события, которое произошло раньше, чем событие, вероятность которого требуется найти. Условная вероятность обозначается как p (A B ). Тогда по определению

    p (A B ) =
    . (1.7)

    Пример 1.17. Подбрасывают два кубика. Пространство элементарных событий состоит из упорядоченных пар чисел

    (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)

    (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)

    (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)

    (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)

    (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)

    (6,1) (6,2) (6,3) (6,4) (6,5) (6,6).

    В примере 1.16 было установлено, что событие A ={число очков на первом кубике > 4} и событие C ={сумма очков равна 8} зависимы. Составим отношение

    .

    Это отношение можно интерпретировать следующим образом. Допустим, что о результате первого бросания известно, что число очков на первом кубике > 4. Отсюда следует, что бросание второго кубика может привести к одному из 12 исходов, составляющих событие A :

    (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)

    (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) .

    При этом событию C могут соответствовать только два из них (5,3) (6,2). В этом случае вероятность события C будет равна
    . Таким образом, информация о наступлении событияA оказала влияние на вероятность события C .

          Вероятность произведения событий

    Теорема умножения

    Вероятность произведения событий A 1 A 2 A n определяется формулой

    p (A 1 A 2 A n ) = p (A 1) p (A 2 A 1))p (A n A 1 A 2 A n- 1). (1.8)

    Для произведения двух событий отсюда следует, что

    p (AB ) = p (A B) p {B ) = p (B A ) p {A ). (1.9)

    Пример 1.18. В партии из 25 изделий 5 изделий бракованных. Последовательно наугад выбирают 3 изделия. Определить вероятность того, что все выбранные изделия бракованные.

    Решение. Обозначим события:

    A 1 = {первое изделие бракованное},

    A 2 = {второе изделие бракованное},

    A 3 = {третье изделие бракованное},

    A = {все изделия бракованные}.

    Событие А есть произведение трех событий A = A 1 A 2 A 3 .

    Из теоремы умножения (1.6) получим

    p (A ) = р( A 1 A 2 A 3 ) = p (A 1) p (A 2 A 1))p (A 3 A 1 A 2).

    Классическое определение вероятности позволяет найти p (A 1) – это отношение числа бракованных изделий к общему количеству изделий:

    p (A 1)= ;

    p (A 2)это отношение числа бракованных изделий, оставшихся после изъятия одного, к общему числу оставшихся изделий:

    p (A 2 A 1))= ;

    p (A 3) – это отношение числа бракованных изделий, оставшихся после изъятия двух бракованных, к общему числу оставшихся изделий:

    p (A 3 A 1 A 2)=.

    Тогда вероятность события A будет равна

    p (A ) ==
    .

    В экономике, так же как и в других областях человеческой деятельности или в природе, постоянно приходится иметь дело с событиями, которые невозможно точно предсказать. Так, объем продаж товара зависит от спроса, который может существенно изменяться, и от ряда других факторов, которые учесть практически нереально. Поэтому при организации производства и осуществлении продаж приходится прогнозировать исход такой деятельности на основе либо собственного предыдущего опыта, либо аналогичного опыта других людей, либо интуиции, которая в значительной степени тоже опирается на опытные данные.

    Чтобы каким-то образом оценить рассматриваемое событие, необходимо учитывать или специально организовывать условия, в которых фиксируется это событие.

    Осуществление определенных условий или действий для выявления рассматриваемого события носит название опыта или эксперимента .

    Событие называется случайным , если в результате опыта оно может произойти или не произойти.

    Событие называется достоверным , если оно обязательно появляется в результате данного опыта, и невозможным , если оно не может появиться в этом опыте.

    Например, выпадение снега в Москве 30 ноября является случайным событием. Ежедневный восход Солнца можно считать достоверным событием. Выпадение снега на экваторе можно рассматривать как невозможное событие.

    Одной из главных задач в теории вероятностей является задача определения количественной меры возможности появления события.

    Алгебра событий

    События называются несовместными, если они вместе не могут наблюдаться в одном и том же опыте. Так, наличие двух и трех автомашин в одном магазине для продажи в одно и то же время — это два несовместных события.

    Суммой событий называется событие, состоящее в появлении хотя бы одного из этих событий

    В качестве примера суммы событий можно назвать наличие в магазине хотя бы одного из двух товаров.

    Произведением событий называется событие, состоящее в одновременном появлении всех этих событий

    Событие, состоящее в появлении одновременно в магазине двух товаров является произведением событий: -появление одного товара, — появление другого товара.

    События образуют полную группу событий, если хотя бы одно из них обязательно произойдет в опыте.

    Пример. В порту имеется два причала для приема судов. Можно рассмотреть три события: — отсутствие судов у причалов, — присутствие одного судна у одного из причалов, — присутствие двух судов у двух причалов. Эти три события образуют полную группу событий.

    Противоположными называются два единственно возможных события, образующих полную группу.

    Если одно из событий, являющихся противоположными, обозначить через , то противоположное событие обычно обозначают через .

    Классическое и статистическое определения вероятности события

    Каждый из равновозможных результатов испытаний (опытов) называется элементарным исходом. Их обычно обозначают буквами . Например, бросается игральная кость. Элементарных исходов всего может быть шесть по числу очков на гранях.

    Из элементарных исходов можно составить более сложное событие. Так, событие выпадения четного числа очков определяется тремя исходами: 2, 4, 6.

    Количественной мерой возможности появления рассматриваемого события является вероятность.

    Наиболее широкое распространение получили два определения вероятности события: классическое и статистическое .

    Классическое определение вероятности связано с понятием благоприятствующего исхода.

    Исход называется благоприятствующим данному событию, если его появление влечет за собой наступление этого события.

    В приведенном примере рассматриваемое событие — четное число очков на выпавшей грани, имеет три благоприятствующих исхода. В данном случае известно и общее
    количество возможных исходов. Значит, здесь можно использовать классическое определение вероятности события.

    Классическое определение равняется отношению числа благоприятствующих исходов к общему числу возможных исходов

    где — вероятность события , — число благоприятствующих событию исходов, — общее число возможных исходов.

    В рассмотренном примере

    Статистическое определение вероятности связано с понятием относительной частоты появления события в опытах.

    Относительная частота появления события вычисляется по формуле

    где - число появления события в серии из опытов (испытаний).

    Статистическое определение . Вероятностью события называется число, относительно которого стабилизируется (устанавливается) относительная частота при неограниченном увеличении числа опытов.

    В практических задачах за вероятность события принимается относительная частота при достаточно большом числе испытаний.

    Из данных определений вероятности события видно, что всегда выполняется неравенство

    Для определения вероятности события на основе формулы (1.1) часто используются формулы комбинаторики, по которым находится число благоприятствующих исходов и общее число возможных исходов.

    Теория вероятностей – это раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними.

    Долгое время теория вероятностей не имела четкого определения. Оно было сформулировано лишь в 1929 году. Возникновение теории вероятностей как науки относят к средним векам и первым попыткам математического анализа азартных игр (орлянка, кости, рулетка). Французские математики XVII века Блез Паскаль и Пьер Ферма, исследуя прогнозирование выигрыша в азартных играх, открыли первые вероятностные закономерности, возникающие при бросании костей.

    Теория вероятности возникла как наука из убеждения, что в основе массовых случайных событий лежат определенные закономерности. Теория вероятности изучает данные закономерности.

    Теория вероятностей занимается изучением событий, наступление которых достоверно неизвестно. Она позволяет судить о степени вероятности наступления одних событий по сравнению с другими.

    Например: определить однозначно результат выпадения «орла» или «решки» в результате подбрасывания монеты нельзя, но при многократном подбрасывании выпадает примерно одинаковое число «орлов» и «решек», что означает, что вероятность того, что выпадет «орел» или «решка», равна 50%.

    Испытанием в этом случае называется реализация определенного комплекса условий, то есть в данном случае подбрасывание монеты. Испытание может воспроизводиться неограниченное количество раз. При этом комплекс условий включает в себя случайные факторы.

    Результатом испытания является событие . Событие бывает:

    1. Достоверное (всегда происходит в результате испытания).
    2. Невозможное (никогда не происходит).
    3. Случайное (может произойти или не произойти в результате испытания).

    Например, при подбрасывании монеты невозможное событие - монета станет на ребро, случайное событие - выпадение «орла» или «решки». Конкретный результат испытания называется элементарным событием . В результате испытания происходят только элементарные события. Совокупность всех возможных, различных, конкретных исходов испытаний называется пространством элементарных событий .

    Основные понятия теории

    Вероятность - степень возможности происхождения события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае - маловероятным или невероятным.

    Случайная величина - это величина, которая в результате испытания может принять то или иное значение, причем неизвестно заранее, какое именно. Например: число на пожарную станцию за сутки, число попадания при 10 выстрелах и т.д.

    Случайные величины можно разделить на две категории.

    1. Дискретной случайной величиной называется такая величина, которая в результате испытания может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Это множество может быть как конечным, так и бесконечным. Например, количество выстрелов до первого попадания в цель является дискретной случайной величиной, т.к. эта величина может принимать и бесконечное, хотя и счетное количество значений.
    2. Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Очевидно, что количество возможных значений непрерывной случайной величины бесконечно.

    Вероятностное пространство - понятие, введенное А.Н. Колмогоровым в 30-х годах XX века для формализации понятия вероятности, которое дало начало бурному развитию теории вероятностей как строгой математической дисциплине.

    Вероятностное пространство - это тройка (иногда обрамляемая угловыми скобками: , где

    Это произвольное множество, элементы которого называются элементарными событиями, исходами или точками;
    - сигма-алгебра подмножеств , называемых (случайными) событиями;
    - вероятностная мера или вероятность, т.е. сигма-аддитивная конечная мера, такая что .

    Теорема Муавра-Лапласа - одна из предельных теорем теории вероятностей, установлена Лапласом в 1812 году. Она утверждает, что число успехов при многократном повторении одного и того же случайного эксперимента с двумя возможными исходами приблизительно имеет нормальное распределение. Она позволяет найти приближенное значение вероятности.

    Если при каждом из независимых испытаний вероятность появления некоторого случайного события равна () и - число испытаний, в которых фактически наступает, то вероятность справедливости неравенства близка (при больших ) к значению интеграла Лапласа.

    Функция распределения в теории вероятностей - функция, характеризующая распределение случайной величины или случайного вектора; вероятность того, что случайная величина X примет значение, меньшее или равное х, где х - произвольное действительное число. При соблюдении известных условий полностью определяет случайную величину.

    Математическое ожидание - среднее значение случайной величины (это распределение вероятностей случайной величины, рассматривается в теории вероятностей). В англоязычной литературе обозначается через , в русской - . В статистике часто используют обозначение .

    Пусть задано вероятностное пространство и определенная на нем случайная величина . То есть, по определению, - измеримая функция. Тогда, если существует интеграл Лебега от по пространству , то он называется математическим ожиданием, или средним значением и обозначается .

    Дисперсия случайной величины - мера разброса данной случайной величины, т. е. ее отклонения от математического ожидания. Обозначается в русской литературе и в зарубежной. В статистике часто употребляется обозначение или . Квадратный корень из дисперсии называется среднеквадратичным отклонением, стандартным отклонением или стандартным разбросом.

    Пусть - случайная величина, определенная на некотором вероятностном пространстве. Тогда

    где символ обозначает математическое ожидание.

    В теории вероятностей два случайных события называются независимыми , если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют зависимыми , если значение одной из них влияет на вероятность значений другой.

    Простейшая форма закона больших чисел – это теорема Бернулли, утверждающая, что если вероятность события одинакова во всех испытаниях, то с увеличением числа испытаний частота события стремится к вероятности события и перестает быть случайной.

    Закон больших чисел в теории вероятностей утверждает, что среднее арифметическое конечной выборки из фиксированного распределения близко к теоретическому среднему математическому ожиданию этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти наверняка.

    Общий смысл закона больших чисел - совместное действие большого числа одинаковых и независимых случайных факторов приводит к результату, в пределе не зависящему от случая.

    На этом свойстве основаны методы оценки вероятности на основе анализа конечной выборки. Наглядным примером является прогноз результатов выборов на основе опроса выборки избирателей.

    Центральные предельные теоремы - класс теорем в теории вероятностей, утверждающих, что сумма достаточно большого количества слабо зависимых случайных величин, имеющих примерно одинаковые масштабы (ни одно из слагаемых не доминирует, не вносит в сумму определяющего вклада), имеет распределение, близкое к нормальному.

    Так как многие случайные величины в приложениях формируются под влиянием нескольких слабо зависимых случайных факторов, их распределение считают нормальным. При этом должно соблюдаться условие, что ни один из факторов не является доминирующим. Центральные предельные теоремы в этих случаях обосновывают применение нормального распределения.

    как онтологическая категория отражает меру возможности возникновения какого-либо сущего в каких-либо условиях. В отличие от математических и логической интерпретации этого понятия онтологическая В. не связывает себя с обязательностью количетвенного выражения. Значение В. раскрывается в контексте понимания детерминизма и характера развития в целом.

    Отличное определение

    Неполное определение

    ВЕРОЯТНОСТЬ

    понятие, характеризующее количеств. меру возможности появления нек-рого события при определ. условиях. В науч. познании встречаются три интерпретации В. Классическая концепция В., возникшая из математич. анализа азартных игр и наиболее полно разработанная Б. Паскалем, Я. Бернулли и П. Лапласом, рассматривает В. как отношение числа благоприятствующих случаев к общему числу всех равновозможных. Напр., ири бросании игральной кости, имеющей 6 граней, выпадение каждой из них можно ожидать с В., равной 1/6, т. к. ни одна грань не имеет преимуществ перед другой. Подобная симметричность исходов опыта специально учитывается при организации игр, но сравнительно редко встречается при исследовании объективных событий в науке и практике. Классич. интерпретация В. уступила место статистич. концепции В., в основе к-рой лежат действит. наблюдения появления нек-рого события в ходе длит. опыта при точно фиксированных условиях. Практика подтверждает, что чем чаще происходит событие, тем больше степень объективной возможности его появления, или В. Поэтому статистич. интерпретация В. опирается на понятие относит. частоты, к-рое может быть определено опытным путем. В. как теоретич. понятие никогда не совпадает с эмпирически определяемой частотой, однако во мн. случаях она практически мало отличается от относит. частоты, найденной в результате длит. наблюдений. Многие статистики рассматривают В. как «двойник» относит. частоты, к-рая определяется при статистич. исследовании результатов наблюдений

    или экспериментов. Менее реалистичным оказалось определение В. как предела относит. частот массовых событий, или коллективов, предложенное Р. Мизесом. В качестве дальнейшего развития частотного подхода к В. выдвигается диспозиционная, или пропенситивная, интерпретация В. (К. Поппер, Я. Хэккинг, М. Бунге, Т. Сетл). Согласно этой интерпретации, В. характеризует свойство порождающих условий, напр. эксперимент. установки, для получения последовательности массовых случайных событий. Именно такая установка порождает физич. диспозиции, или предрасположенности, В. к-рых может быть проверена с помощью относит. частот.

    Статистич. интерпретация В. доминирует в науч. познании, ибо она отражает специфич. характер закономерностей, присущих массовым явлениям случайного характера. Во многих физич., биологич., экономич., демографич. и др. социальных процессах приходится учитывать действие множества случайных факторов, к-рые характеризуются устойчивой частотой. Выявление этой устойчивой частоты и количеств. ее оценка с помощью В. дает возможность вскрыть необходимость, к-рая прокладывает себе путь через совокупное действие множества случайностей. В этом находит свое проявление диалектика превращения случайности в необходимость (см. Ф. Энгельс, в кн.: Маркс К. и Энгельс Ф., Соч., т. 20, с. 535-36).

    Логическая, или индуктивная, В. характеризует отношение между посылками и заключением недемонстративного и, в частности, индуктивного рассуждения. В отличие от дедукции, посылки индукции не гарантируют истинности заключения, а лишь делают его в той или иной степени правдоподобным. Это правдоподобие при точно сформулированных посылках иногда можно оценивать с помощью В. Значение этой В. чаще всего определяется посредством сравнит. понятий (больше, меньше или равно), а иногда и численным способом. Логич. интерпретацию часто используют для анализа индуктивных рассуждений и построения различных систем вероятностных логик (Р. Карнап, Р. Джефри). В семантич. концепции логич. В. часто определяется как степень подтверждения одного высказывания другими (напр., гипотезы ее эмпирич. данными) .

    В связи с развитием теорий принятия решений и игр все большее распростраиение получает т. н. персоналистская интерпретация В. Хотя В. при этом выражает степень веры субъекта и появление нек-рого события, сами В. должны выбираться с таким расчетом, чтобы удовлетворялись аксиомы исчисления В. Поэтому В. при такой интерпретации выражает не столько степень субъективной, сколько разумной веры. Следовательно, решения, принимаемые на основе такой В., будут рациональными, ибо они не учитывают психологич. особенностей и склонностей субъекта.

    С гносеологич. т. зр. различие между статистич., логич. и персоналистской интерпретациями В. состоит в том, что если первая дает характеристику объективным свойствам и отношениям массовых явлений случайного характера, то последние две анализируют особенности субъективной, познават. деятельности людей в условиях неопределенности.

    ВЕРОЯТНОСТЬ

    одно из важнейших понятий науки, характеризующее особое системное видение мира, его строения, эволюции и познания. Специфика вероятностного взгляда на мир раскрывается через включение в число базовых понятий бытия понятий случайности, независимости и иерархии (идеи уровней в структуре и детерминации систем).

    Представления о вероятности зародились еще в древности и относились к характеристике нашего знания, при этом признавалось наличие вероятностного знания, отличающегося от достоверного знания и от ложного. Воздействие идеи вероятности на научное мышление, на развитие познания прямо связано с разработкой теории вероятностей как математической дисциплины. Зарождение математического учения о вероятности относится к 17 в., когда было положено начало разработке ядра понятий, допускающих. количественную (числовую) характеристику и выражающих вероятностную идею.

    Интенсивные приложения вероятности к развитию познания приходятся на 2-ю пол. 19- 1-ю пол. 20 в. Вероятность вошла в структуры таких фундаментальных наук о природе, как классическая статистическая физика, генетика, квантовая теория, кибернетика (теория информации). Соответственно вероятность олицетворяет тот этап в развитии науки, который ныне определяется как неклассическая наука. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Теорию вероятностей обычно определяют как математическую дисциплину, изучающую закономерности массовых случайных явлений при определенных условиях. Случайность означает, что в рамках массовости бытие каждого элементарного явления не зависит и не определяется бытием других явлений. В то же время сама массовость явлений обладает устойчивой структурой, содержит определенные регулярности. Массовое явление вполне строго делится на подсистемы, и относительное число элементарных явлений в каждой из подсистем (относительная частота) весьма устойчиво. Эта устойчивость сопоставляется с вероятностью. Массовое явление в целом характеризуется распределением вероятностей, т. е. заданием подсистем и соответствующих им вероятностей. Язык теории вероятностей есть язык вероятностных распределений. Соответственно теорию вероятностей и определяют как абстрактную науку об оперировании распределениями.

    Вероятность породила в науке представления о статистических закономерностях и статистических системах. Последние суть системы, образованные из независимых или квазинезависимых сущностей, их структура характеризуется распределениями вероятностей. Но как возможно образование систем из независимых сущностей? Обычно предполагается, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между их элементами существовали достаточно устойчивые связи, которые цементируют системы. Устойчивость статистическим системам придает наличие внешних условий, внешнего окружения, внешних, а не внутренних сил. Само определение вероятности всегда опирается на задание условий образования исходного массового явления. Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии (субординации). Эта идея выражает взаимоотношения между характеристиками отдельных элементов и целостными характеристиками систем: последние как бы надстраиваются над первыми.

    Значение вероятностных методов в познании заключается в том, что они позволяют исследовать и теоретически выражать закономерности строения и поведения объектов и систем, имеющих иерархическую, «двухуровневую» структуру.

    Анализ природы вероятности опирается на частотную, статистическую ее трактовку. Вместе с тем весьма длительное время в науке господствовало такое понимание вероятности, которое получило название логической, или индуктивной, вероятности. Логическую вероятность интересуют вопросы обоснованности отдельного, индивидуального суждения в определенных условиях. Можно ли оценить степень подтверждения (достоверности, истинности) индуктивного заключения (гипотетического вывода) в количественной форме? В ходе становления теории вероятностей такие вопросы неоднократно обсуждались, и стали говорить о степенях подтверждения гипотетических заключений. Эта мера вероятности определяется имеющейся в распоряжении данного человека информацией, его опытом, воззрениями на мир и психологическим складом ума. Во всех подобных случаях величина вероятности не поддается строгим измерениям и практически лежит вне компетенции теории вероятностей как последовательной математической дисциплины.

    Объективная, частотная трактовка вероятности утверждалась в науке со значительными трудностями. Первоначально на понимание природы вероятности оказали сильное воздействие те философско-методологические взгляды, которые были характерны для классической науки. Исторически становление вероятностных методов в физике происходило под определяющим воздействием идей механики: статистические системы трактовались просто как механические. Поскольку соответствующие задачи не решались строгими методами механики, то возникли утверждения, что обращение к вероятностным методам и статистическим закономерностям есть результат неполноты наших знаний. В истории развития классической статистической физики предпринимались многочисленные попытки обосновать ее на основе классической механики, однако все они потерпели неудачу. Основания вероятности состоят в том, что она выражает собою особенности структуры определенного класса систем, иного, чем системы механики: состояние элементов этих систем характеризуется неустойчивостью и особым (не сводящимся к механике) характером взаимодействий.

    Вхождение вероятности в познание ведет к отрицанию концепции жесткого детерминизма, к отрицанию базовой модели бытия и познания, выработанных в процессе становления классической науки. Базовые модели, представленные статистическими теориями, носят иной, более общий характер: они включают в себя идеи случайности и независимости. Идея вероятности связана с раскрытием внутренней динамики объектов и систем, которая не может быть всецело определена внешними условиями и обстоятельствами.

    Концепция вероятностного видения мира, опирающаяся на абсолютизацию представлений о независимости (как и прежде парадигма жесткой детерминации), в настоящее время выявила свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем и физико-математических основ явлений самоорганизации.

    Отличное определение

    Неполное определение ↓

    Изначально, будучи всего лишь собранием сведений и эмпирических наблюдений за игрой в кости, теория вероятности стала основательной наукой. Первыми, кто придал ей математический каркас, были Ферма и Паскаль.

    От размышлений о вечном до теории вероятностей

    Две личности, которым теория вероятностей обязана многими фундаментальными формулами, Блез Паскаль и Томас Байес, известны как глубоко верующие люди, последний был пресвитерианским священником. Видимо, стремление этих двух ученых доказать ошибочность мнения о некой Фортуне, дарующей удачу своим любимчикам, дало толчок к исследованиям в этой области. Ведь на самом деле любая азартная игра с ее выигрышами и проигрышами — это всего лишь симфония математических принципов.

    Благодаря азарту кавалера де Мере, который в равной степени был игроком и человеком небезразличным к науке, Паскаль вынужден был найти способ расчета вероятности. Де Мере интересовал такой вопрос: "Сколько раз нужно выбрасывать попарно две кости, чтобы вероятность получить 12 очков превышала 50%?". Второй вопрос, крайне интересовавший кавалера: "Как разделить ставку между участниками незаконченной игры?" Разумеется, Паскаль успешно ответил на оба вопроса де Мере, который стал невольным зачинателем развития теории вероятностей. Интересно, что персона де Мере так и осталась известна в данной области, а не в литературе.

    Ранее ни один математик еще не делал попыток вычислять вероятности событий, поскольку считалось, что это лишь гадательное решение. Блез Паскаль дал первое определение вероятности события и показал, что это конкретная цифра, которую можно обосновать математическим путем. Теория вероятностей стала основой для статистики и широко применяется в современной науке.

    Что такое случайность

    Если рассматривать испытание, которое можно повторить бесконечное число раз, тогда можно дать определение случайному событию. Это один из вероятных исходов опыта.

    Опытом является осуществление конкретных действий в неизменных условиях.

    Чтобы можно было работать с результатами опыта, события обычно обозначают буквами А, B, C, D, Е…

    Вероятность случайного события

    Чтобы можно было приступить к математической части вероятности, нужно дать определения всем ее составляющим.

    Вероятность события - это выраженная в числовой форме мера возможности появления некоторого события (А или B) в результате опыта. Обозначается вероятность как P(A) или P(B).

    В теории вероятностей отличают:

    • достоверное событие гарантированно происходит в результате опыта Р(Ω) = 1;
    • невозможное событие никогда не может произойти Р(Ø) = 0;
    • случайное событие лежит между достоверным и невозможным, то есть вероятность его появления возможна, но не гарантирована (вероятность случайного события всегда в пределах 0≤Р(А)≤ 1).

    Отношения между событиями

    Рассматривают как одно, так и сумму событий А+В, когда событие засчитывается при осуществлении хотя бы одного из составляющих, А или В, или обоих - А и В.

    По отношению друг к другу события могут быть:

    • Равновозможными.
    • Совместимыми.
    • Несовместимыми.
    • Противоположными (взаимоисключающими).
    • Зависимыми.

    Если два события могут произойти с равной вероятностью, то они равновозможные .

    Если появление события А не сводит к нулю вероятность появление события B, то они совместимые.

    Если события А и В никогда не происходят одновременно в одном и том же опыте, то их называют несовместимыми . Бросание монеты - хороший пример: появление решки - это автоматически непоявление орла.

    Вероятность для суммы таких несовместимых событий состоит из суммы вероятностей каждого из событий:

    Р(А+В)=Р(А)+Р(В)

    Если наступление одного события делает невозможным наступление другого, то их называют противоположными. Тогда одно из них обозначают как А, а другое - Ā (читается как «не А»). Появление события А означает, что Ā не произошло. Эти два события формируют полную группу с суммой вероятностей, равной 1.

    Зависящие события имеют взаимное влияние, уменьшая или увеличивая вероятность друг друга.

    Отношения между событиями. Примеры

    На примерах гораздо проще понять принципы теории вероятностей и комбинации событий.

    Опыт, который будет проводиться, заключается в вытаскивании шариков из ящика, а результата каждого опыта - элементарный исход.

    Событие - это один из возможных исходов опыта - красный шар, синий шар, шар с номером шесть и т. д.

    Испытание №1. Участвуют 6 шаров, три из которых окрашены в синий цвет, на них нанесены нечетные цифры, а три других - красные с четными цифрами.

    Испытание №2. Участвуют 6 шаров синего цвета с цифрами от одного до шести.

    Исходя из этого примера, можно назвать комбинации:

    • Достоверное событие. В исп. №2 событие «достать синий шар» достоверное, поскольку вероятность его появления равна 1, так как все шары синие и промаха быть не может. Тогда как событие «достать шар с цифрой 1» - случайное.
    • Невозможное событие. В исп. №1 с синими и красными шарами событие «достать фиолетовый шар» невозможное, поскольку вероятность его появления равна 0.
    • Равновозможные события. В исп. №1 события «достать шар с цифрой 2» и «достать шар с цифрой 3» равновозможные, а события «достать шар с четным числом» и «достать шар с цифрой 2» имеют разную вероятность.
    • Совместимые события. Два раза подряд получить шестерку в процессе бросания игральной кости - это совместимые события.
    • Несовместимые события. В том же исп. №1 события «достать красный шар» и «достать шар с нечетным числом» не могут быть совмещены в одном и том же опыте.
    • Противоположные события. Наиболее яркий пример этого - подбрасывание монет, когда вытягивание орла равносильно невытягиванию решки, а сумма их вероятностей - это всегда 1 (полная группа).
    • Зависимые события . Так, в исп. №1 можно задаться целью извлечь два раза подряд красный шар. Его извлечение или неизвлечение в первый раз влияет на вероятность извлечения во второй раз.

    Видно, что первое событие существенно влияет на вероятность второго (40% и 60%).

    Формула вероятности события

    Переход от гадательных размышлений к точным данным происходит посредством перевода темы в математическую плоскость. То есть суждения о случайном событии вроде "большая вероятность" или "минимальная вероятность" можно перевести к конкретным числовым данным. Такой материал уже допустимо оценивать, сравнивать и вводить в более сложные расчеты.

    С точки зрения расчета, определение вероятности события - это отношение количества элементарных положительных исходов к количеству всех возможных исходов опыта относительно определенного события. Обозначается вероятность через Р(А), где Р означает слово «probabilite», что с французского переводится как «вероятность».

    Итак, формула вероятности события:

    Где m - количество благоприятных исходов для события А, n - сумма всех исходов, возможных для этого опыта. При этом вероятность события всегда лежит между 0 и 1:

    0 ≤ Р(А)≤ 1.

    Расчет вероятности события. Пример

    Возьмем исп. №1 с шарами, которое описано ранее: 3 синих шара с цифрами 1/3/5 и 3 красных с цифрами 2/4/6.

    На основании этого испытания можно рассматривать несколько разных задач:

    • A - выпадение красного шара. Красных шаров 3, а всего вариантов 6. Это простейший пример, в котором вероятность события равна Р(А)=3/6=0,5.
    • B - выпадение четного числа. Всего четных чисел 3 (2,4,6), а общее количество возможных числовых вариантов - 6. Вероятность этого события равна Р(B)=3/6=0,5.
    • C - выпадение числа, большего, чем 2. Всего таких вариантов 4 (3,4,5,6) из общего количества возможных исходов 6. Вероятность события С равна Р(С)=4/6=0,67.

    Как видно из расчетов, событие С имеет большую вероятность, поскольку количество вероятных положительных исходов выше, чем в А и В.

    Несовместные события

    Такие события не могут одновременно появиться в одном и том же опыте. Как в исп. №1 невозможно одновременно достать синий и красный шар. То есть можно достать либо синий, либо красный шар. Точно так же в игральной кости не могут одновременно появиться четное и нечетное число.

    Вероятность двух событий рассматривается как вероятность их суммы или произведения. Суммой таких событий А+В считается такое событие, которое состоит в появлении события А или В, а произведение их АВ - в появлении обоих. Например, появление двух шестерок сразу на гранях двух кубиков в одном броске.

    Сумма нескольких событий являет собой событие, предполагающее появление, по крайней мере, одного из них. Произведение нескольких событий - это совместное появление их всех.

    В теории вероятности, как правило, употребление союза "и" обозначает сумму, союза "или" - умножение. Формулы с примерами помогут понять логику сложения и умножения в теории вероятностей.

    Вероятность суммы несовместных событий

    Если рассматривается вероятность несовместных событий, то вероятность суммы событий равна сложению их вероятностей:

    Р(А+В)=Р(А)+Р(В)

    Например: вычислим вероятность того, что в исп. №1 с синими и красными шарами выпадет число между 1 и 4. Рассчитаем не в одно действие, а суммой вероятностей элементарных составляющих. Итак, в таком опыте всего 6 шаров или 6 всех возможных исходов. Цифры, которые удовлетворяют условие, - 2 и 3. Вероятность выпадения цифры 2 составляет 1/6, вероятность цифра 3 также 1/6. Вероятность того, что выпадет цифра между 1 и 4 равна:

    Вероятность суммы несовместимых событий полной группы равна 1.

    Так, если в опыте с кубиком сложить вероятности выпадения всех цифр, то в результате получим единицу.

    Также это справедливо для противоположных событий, например в опыте с монетой, где одна ее сторона - это событие А, а другая - противоположное событие Ā, как известно,

    Р(А) + Р(Ā) = 1

    Вероятность произведения несовместных событий

    Умножение вероятностей применяют, когда рассматривают появление двух и более несовместных событий в одном наблюдении. Вероятность того, что в нем появятся события A и B одновременно, равна произведению их вероятностей, или:

    Р(А*В)=Р(А)*Р(В)

    Например, вероятность того, что в исп. №1 в результате двух попыток два раза появится синий шар, равна

    То есть вероятность наступления события, когда в результате двух попыток с извлечением шаров будет извлечены только синие шары, равна 25%. Очень легко проделать практические эксперименты этой задачи и увидеть, так ли это на самом деле.

    Совместные события

    События считаются совместными, когда появление одного из них может совпасть с появлением другого. Несмотря на то что они совместные, рассматривается вероятность независимых событий. К примеру, бросание двух игральных костей может дать результат, когда на обеих из них выпадает цифра 6. Хотя события совпали и появились одновременно, они независимы друг от друга - могла выпасть всего одна шестерка, вторая кость на нее влияния не имеет.

    Вероятность совместных событий рассматривают как вероятность их суммы.

    Вероятность суммы совместных событий. Пример

    Вероятность суммы событий А и В, которые по отношению к друг другу совместные, равняется сумме вероятностей события за вычетом вероятности их произведения (то есть их совместного осуществления):

    Р совместн. (А+В)=Р(А)+Р(В)- Р(АВ)

    Допустим, что вероятность попадания в мишень одним выстрелом равна 0,4. Тогда событие А - попадание в мишень в первой попытке, В - во второй. Эти события совместные, поскольку не исключено, что можно поразить мишень и с первого, и со второго выстрела. Но события не являются зависимыми. Какова вероятность наступления события поражения мишени с двух выстрелов (хотя бы с одного)? Согласно формуле:

    0,4+0,4-0,4*0,4=0,64

    Ответ на вопрос следующий: "Вероятность попасть в цель с двух выстрелов равна 64%".

    Эта формула вероятности события может быть применима и к несовместным событиям, где вероятность совместно появления события Р(АВ) = 0. Это значит, что вероятность суммы несовместных событий можно считать частным случаем предложенной формулы.

    Геометрия вероятности для наглядности

    Интересно, что вероятность суммы совместных событий может быть представлена в виде двух областей А и В, которые пересекаются между собой. Как видно из картинки, площадь их объединения равна общей площади за минусом области их пересечения. Это геометрическое пояснения делают более понятной нелогичную на первый взгляд формулу. Отметим, что геометрические решения - не редкость в теории вероятностей.

    Определение вероятности суммы множества (больше двух) совместных событий довольно громоздкое. Чтобы вычислить ее, нужно воспользоваться формулами, которые предусмотрены для этих случаев.

    Зависимые события

    Зависимыми события называются в случае, если наступление одного (А) из них влияет на вероятность наступления другого (В). Причем учитывается влияние как появления события А, так и его непоявление. Хотя события и называются зависимыми по определению, но зависимо лишь одно из них (В). Обычная вероятность обозначалась как Р(В) или вероятность независимых событий. В случае с зависимыми вводится новое понятие - условная вероятность Р A (В) , которая является вероятностью зависимого события В при условии произошедшего события А (гипотезы), от которого оно зависит.

    Но ведь событие А тоже случайно, поэтому у него также есть вероятность, которую нужно и можно учитывать в осуществляемых расчетах. Далее на примере будет показано, как работать с зависимыми событиями и гипотезой.

    Пример расчета вероятности зависимых событий

    Хорошим примером для расчета зависимых событий может стать стандартная колода карт.

    На примере колоды в 36 карт рассмотрим зависимые события. Нужно определить вероятность того, что вторая карта, извлеченная из колоды, будет бубновой масти, если первая извлеченная:

    1. Бубновая.
    2. Другой масти.

    Очевидно, что вероятность второго события В зависит от первого А. Так, если справедлив первый вариант, что в колоде стало на 1 карту (35) и на 1 бубну (8) меньше, вероятность события В:

    Р A (В) =8/35=0,23

    Если же справедлив второй вариант, то в колоде стало 35 карт, и по-прежнему сохранилось полное число бубен (9), тогда вероятность следующего события В:

    Р A (В) =9/35=0,26.

    Видно, что если событие А условлено в том, что первая карта - бубна, то вероятность события В уменьшается, и наоборот.

    Умножение зависимых событий

    Руководствуясь предыдущей главой, мы принимаем первое событие (А) как факт, но если говорить по сути, оно имеет случайный характер. Вероятность этого события, а именно извлечение бубны из колоды карт, равна:

    Р(А) = 9/36=1/4

    Поскольку теория не существует сама по себе, а призвана служить в практических целях, то справедливо отметить, что чаще всего нужна вероятность произведения зависимых событий.

    Согласно теореме о произведении вероятностей зависимых событий, вероятность появления совместно зависимых событий А и В равна вероятности одного события А, умноженная на условную вероятность события В (зависимого от А):

    Р(АВ) = Р (А) *Р A (В)

    Тогда в примере с колодой вероятность извлечения двух карт с мастью бубны равна:

    9/36*8/35=0,0571, или 5,7%

    И вероятность извлечения вначале не бубны, а потом бубны, равна:

    27/36*9/35=0,19, или 19%

    Видно, что вероятность появления события В больше при условии, что первой извлекается карта масти, отличной от бубны. Такой результат вполне логичный и понятный.

    Полная вероятность события

    Когда задача с условными вероятностями становится многогранной, то обычными методами ее вычислить нельзя. Когда гипотез больше двух, а именно А1,А2,…,А n , ..образует полную группу событий при условии:

    • P(A i)>0, i=1,2,…
    • A i ∩ A j =Ø,i≠j.
    • Σ k A k =Ω.

    Итак, формула полной вероятности для события В при полной группе случайных событий А1,А2,…,А n равна:

    Взгляд в будущее

    Вероятность случайного события крайне необходима во многих сферах науки: эконометрике, статистике, в физике и т. д. Поскольку некоторые процессы невозможно описать детерминировано, так как они сами имеют вероятностный характер, необходимы особые методы работы. Теория вероятности события может быть использована в любой технологичной сфере как способ определить возможность ошибки или неисправности.

    Можно сказать, что, узнавая вероятность, мы некоторым образом делаем теоретический шаг в будущее, разглядывая его через призму формул.