Вероятность

редактировать
Раздел математики, касающийся случая и неопределенности

Вероятности выпадения нескольких чисел с использованием двух кубиков.

Вероятность раздел математики, касающийся числовых описаний того, насколько вероятно событие, или насколько вероятно, что утверждение истинно. Вероятность события - это число от 0 до 1, где, грубо говоря, 0 указывает на невозможность события, а 1 указывает на достоверность. Чем выше вероятность события, тем больше вероятность того, что оно произойдет. Простой пример - подбрасывание справедливой (беспристрастной) монеты. Поскольку монета справедливая, оба исхода («орел» и «решка») равновероятны; вероятность выпадения орла равна вероятности выпадения решки; и поскольку другие исходы невозможны, вероятность выпадения орла или решки равна 1/2 (что также можно записать как 0,5 или 50%).

Этим концепциям была дана аксиоматическая математическая формализация в теории вероятностей, которая широко используется в областях исследований, таких как математика, статистика, финансы, азартные игры, наука (в частности физика ), искусственный интеллект, машинное обучение, информатика, теория игр и философия, чтобы, например, сделать выводы о ожидаемая частота событий. Теория вероятностей также используется для описания основных механизмов и закономерностей сложных систем.

Содержание

  • 1 Интерпретации
  • 2 Этимология
  • 3 История
  • 4 Теория
  • 5 Приложения
  • 6 Математическая обработка
    • 6.1 Независимые события
    • 6.2 Парные независимые события
    • 6.3 Взаимоисключающие события
    • 6.4 Не исключающие друг друга события
    • 6.5 Условная вероятность
    • 6.6 Обратная вероятность
    • 6.7 Сводка вероятностей
  • 7 Отношение к случайности и вероятности в квантовой механике
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки
  • 11 Библиография
  • 12 Внешние ссылки

Интерпретации

Когда имея дело с экспериментами, которые являются случайными и четко определенными в чисто теоретической обстановке (например, подбрасывание честной монеты), вероятности могут быть численно описаны числом желаемые результаты, разделенные на общее количество всех результатов. Например, подбрасывание честной монеты дважды даст результаты «голова-голова», «голова-хвост», «хвост-голова» и «хвост-хвост». Вероятность получения результата «голова-голова» составляет 1 из 4 исходов, или, в числовом выражении, 1/4, 0,25 или 25%. Однако, когда дело доходит до практического применения, существует две основные конкурирующие категории вероятностных интерпретаций, приверженцы которых придерживаются разных взглядов на фундаментальную природу вероятности:

  1. объективисты присваивают числа для описания некоторого объективного или физического состояния дел. Наиболее популярной версией объективной вероятности является частотная вероятность, в которой утверждается, что вероятность случайного события обозначает относительную частоту появления результата эксперимента, когда эксперимент повторяется бесконечно. Эта интерпретация рассматривает вероятность как относительную частоту «в долгосрочной перспективе» результатов. Модификацией этого является вероятность склонности, которая интерпретирует вероятность как тенденцию некоторого эксперимента дать определенный результат, даже если он проводится только один раз.
  2. Субъективисты присваивают числа на субъективную вероятность, то есть как степень веры. Степень уверенности была интерпретирована как «цена, по которой вы купили бы или продали ставку, которая платит 1 единицу полезности, если E, 0, если не E». Самая популярная версия субъективной вероятности - байесовская вероятность, которая включает экспертные знания, а также экспериментальные данные для получения вероятностей. Экспертные знания представлены некоторым (субъективным) априорным распределением вероятностей. Эти данные включены в функцию правдоподобия . Произведение априорной вероятности и вероятности при нормализации дает апостериорное распределение вероятностей, которое включает в себя всю информацию, известную на сегодняшний день. Согласно теореме согласия Ауманна, байесовские агенты, чьи предыдущие убеждения схожи, в конечном итоге будут иметь аналогичные апостериорные убеждения. Однако достаточно разные априорные значения могут привести к разным выводам, независимо от того, сколько информации у агентов.

Этимология

Слово вероятность происходит от латинского probabilitas, что также может означать " честность ", мера авторитета свидетеля в судебном деле в Европе, и часто соотносится с знатностью свидетеля. В некотором смысле это сильно отличается от современного значения вероятности, которое, напротив, является мерой веса эмпирических данных и выводится из индуктивного мышления и статистический вывод.

История

Научное изучение вероятностей - это современное развитие математики. Азартные игры показывают, что интерес к количественной оценке идей вероятности проявлялся на протяжении тысячелетий, но точные математические описания возникли намного позже. Есть причины медленного развития математики вероятностей. В то время как азартные игры послужили толчком для математического исследования вероятностей, фундаментальные вопросы все еще неясны из-за предрассудков игроков.

Согласно Ричарду Джеффри, «До середины семнадцатого века. термин «вероятный» (лат. probabilis) означал «одобряемый» и применялся в этом смысле однозначно к мнению и к действию. Вероятное действие или мнение - это то, что разумные люди предпримут или придерживаются в данных обстоятельствах ». Однако, особенно в юридических контекстах, «вероятный» может также относиться к предложениям, для которых имелись веские доказательства.

Книга криптографических сообщений Аль-Кинди содержит самое раннее известное использование статистического вывода (9 век)

Самые ранние известные формы вероятности и статистики были разработаны ближневосточными математиками, изучавшими криптографию между 8-м и 13-м веками. Аль-Халил (717–786) написал Книгу криптографических сообщений, которая содержит первое использование перестановок и комбинаций для перечисления всех возможных арабских слов с и без гласные звуки. Аль-Кинди (801–873) впервые использовал статистический вывод в своей работе по криптоанализу и частотному анализу. Важный вклад Ибн Адлана (1187–1268) заключался в размере выборки для использования частотного анализа.

Джероламо Кардано (16 век) Христиан Гюйгенс опубликовал одну из первых книг по вероятности (17 век)

Итальянский эрудит шестнадцатого века Джероламо Кардано продемонстрировал эффективность определения шансов как отношение благоприятных исходов к неблагоприятным (что означает, что вероятность события определяется отношением благоприятных исходов к общему количеству возможных исходов). Помимо элементарной работы Кардано, доктрина вероятностей восходит к соответствию Пьера де Ферма и Блеза Паскаля (1654). Христиан Гюйгенс (1657) дал самую раннюю известную научную трактовку этого предмета. Якоб Бернулли Ars Conjectandi (посмертно, 1713) и Авраам де Доктрина шансов (1718) Муавра рассматривает этот предмет как раздел математики. Историю раннего развития самой концепции математической вероятности см. В книге Яна Хакинга «Возникновение вероятности» и Джеймса Франклина «Наука гипотез».

теория ошибок может быть прослежена до Roger Cotes Opera Miscellanea (посмертно, 1722), но мемуары подготовлены Томасом Симпсоном в 1755 г. (напечатано 1756 г.) впервые применил теорию к обсуждению ошибок наблюдения. В переиздании (1757 г.) этого мемуара излагаются аксиомы, согласно которым положительные и отрицательные ошибки равновероятны и что определенные приписываемые пределы определяют диапазон всех ошибок. Симпсон также обсуждает непрерывные ошибки и описывает кривую вероятности.

Первые два предложенных закона ошибки возникли у Пьера-Симона Лапласа. Первый закон был опубликован в 1774 году и гласил, что частота ошибки может быть выражена как экспоненциальная функция от числовой величины ошибки, без учета знака. Второй закон ошибки был предложен в 1778 году Лапласом и заявил, что частота ошибки является экспоненциальной функцией квадрата ошибки. Второй закон ошибки называется нормальным распределением или законом Гаусса. «Исторически трудно приписать этот закон Гауссу, который, несмотря на свою хорошо известную скороспелость, вероятно, не сделал этого открытия до того, как ему исполнилось два года».

Даниэль Бернулли (1778) ввел принцип максимальное произведение вероятностей системы одновременных ошибок.

Карл Фридрих Гаусс

Адриан-Мари Лежандр (1805) разработал метод наименьших квадратов и представил его в своих Новых методах определения орбиты комет (New Methods for Определение орбит комет). Не зная о вкладе Лежандра, ирландско-американский писатель Роберт Адрейн, редактор «Аналитика» (1808), первым вывел закон легкости ошибки,

ϕ (x) = ce - час 2 x 2, {\ displaystyle \ phi (x) = ce ^ {- h ^ {2} x ^ {2}},}\ phi (x) = ce ^ {- h ^ {2} x ^ {2}},

где h {\ displaystyle h}h - константа, зависящая от точности наблюдения, а c {\ displaystyle c}c - масштабный коэффициент, гарантирующий, что площадь под кривой равна 1. Он привел два доказательства, второе из которых по существу одинаково как Джон Гершель (1850). Гаусс дал первое доказательство, которое, кажется, было известно в Европе (третье после Адрена) в 1809 году. Дальнейшие доказательства были даны Лапласом ( 1810, 1812), Гаусс (1823), Джеймс Айвори (1825, 1826), Хаген (1837), Фридрих Бессель (1838), (1844, 1856) и Морган Крофтон (1870). Другими участниками были Эллис (1844), Де Морган (1864), Глейшер (1872) и Джованни Скиапарелли (1875). Формула Петерса (1856) для r, вероятная ошибка отдельного наблюдения, хорошо известна.

В девятнадцатом веке среди авторов общей теории были Лаплас, Сильвестр Лакруа (1816), Литтроу (1833), Адольф Кетле (1853), Ричард Дедекинд (1860), Гельмерт (1872), Герман Лоран (1873), Лиагре, Дидион и Карл Пирсон. Огастес Де Морган и Джордж Буль улучшили изложение теории.

В 1906 году Андрей Марков ввел понятие цепей Маркова, которые сыграли важную роль в теории случайных процессов и ее приложениях. Современная теория вероятностей, основанная на теории меры, была разработана Андреем Колмогоровым в 1931 году.

С геометрической точки зрения авторы The Educational Times сыграли важную роль (Миллер, Крофтон, МакКолл, Волстенхолм, Уотсон и Артемас Мартин ). См. интегральная геометрия для получения дополнительной информации.

Теория

Как и другие теории, теория вероятности представляет собой представление своих концепций в формальных терминах, то есть в терминах, которые могут рассматривать отдельно от их значения. Эти формальные термины регулируются правилами математики и логики, и любые результаты интерпретируются или переводятся обратно в проблемную область.

Было по крайней мере две успешные попытки формализовать вероятность, а именно формулировку Колмогорова и формулировку Кокса. В формулировке Колмогорова (см. Также вероятностное пространство ), множества интерпретируются как события, а вероятность - как мера на классе множеств. В теореме Кокса вероятность рассматривается как примитив (т.е. не анализируется далее), и акцент делается на построении последовательного присвоения значений вероятности предложениям. В обоих случаях законы вероятности одинаковы, за исключением технических деталей.

Существуют и другие методы количественной оценки неопределенности, такие как теория Демпстера – Шейфера или теория возможностей, но они существенно отличаются и несовместимы с общепринятыми законы вероятности.

Приложения

Теория вероятностей применяется в повседневной жизни для оценки риска и моделирования. Страховая отрасль и рынки используют актуарную науку для определения цен и принятия торговых решений. Правительства применяют вероятностные методы в экологическом регулировании, анализе прав (теория надежности старения и долголетия ) и финансовом регулировании.

. Хороший пример использования теории вероятностей в торговля акциями - это влияние предполагаемой вероятности любого широкомасштабного ближневосточного конфликта на цены на нефть, что оказывает волновое воздействие на экономику в целом. Оценка трейдером сырьевых товаров о том, что война более вероятна, может привести к повышению или падению цен на этот товар и сигнализирует другим трейдерам об этом мнении. Соответственно, вероятности не оцениваются ни независимо, ни обязательно рационально. Теория поведенческих финансов возникла для описания влияния такого группового мышления на ценообразование, политику, мир и конфликты.

Помимо финансовой оценки, вероятность может использоваться для анализа тенденций в биологии (например, распространение болезней), а также в экологии (например, биологические квадраты Пеннета). Как и в случае с финансами, оценка рисков может использоваться в качестве статистического инструмента для расчета вероятности возникновения нежелательных событий и может помочь в реализации протоколов, позволяющих избежать таких обстоятельств. Вероятность используется для разработки азартных игр, чтобы казино могли получать гарантированную прибыль, но при этом выплачивать игрокам достаточно частые выплаты для поощрения продолжения игры.

Открытие строгих методов оценки и объединение оценок вероятностей изменило общество.

Еще одно важное применение теории вероятностей в повседневной жизни - надежность. Многие потребительские товары, такие как автомобили и бытовая электроника, используют теорию надежности в конструкции продукта, чтобы уменьшить вероятность отказа. Вероятность отказа может повлиять на решения производителя относительно гарантии продукта .

языковая модель кеширования и другие статистические языковые модели, которые используются в обработке естественного языка Также есть примеры приложений теории вероятностей.

Математический подход

Расчет вероятности (риска) и шансов

Рассмотрим эксперимент, который может дать ряд результатов. Совокупность всех возможных результатов называется пробелом эксперимента, иногда обозначается как Ω {\ displaystyle \ Omega}\ Omega . Набор мощности пространства выборки формируется путем рассмотрения всех различных наборов возможных результатов. Например, прокатка матрицы может дать шесть возможных результатов. Один набор возможных результатов дает нечетное число на кубике. Таким образом, подмножество {1,3,5} является элементом набора мощности выборочного пространства бросков костей. Эти коллекции называются «событиями». В этом случае {1,3,5} - это событие, когда кубик выпадает на нечетное число. Если результаты, которые действительно происходят, попадают в данное событие, говорят, что событие произошло.

Вероятность - это способ присвоения каждому событию значения от нуля до единицы с требованием, чтобы событие состояло из всех возможных результатов (в нашем примере событие {1, 2,3,4,5,6}) присваивается значение единицы. Чтобы считаться вероятным, присвоение значений должно удовлетворять требованию, согласно которому для любого набора взаимоисключающих событий (событий без общих результатов, таких как события {1,6}, {3} и {2,4}), вероятность того, что произойдет хотя бы одно из событий, определяется суммой вероятностей всех отдельных событий.

Вероятность события A записывается как П (A) {\ displaystyle P (A)}P(A),p (A) {\ displaystyle p (A)}p (A) или Pr (A) {\ displaystyle {\ text {Pr }} (А)}{\ text {Pr}} (A) . Это математическое определение вероятности может распространяться на бесконечные выборочные пространства и даже на бесчисленные выборочные пространства, используя концепцию меры.

Противоположным или дополнительным событием A является событие [не A] (то есть событие A, которое не происходит), часто обозначаемое как A ', A c {\ displaystyle A', A ^ {c}}{\displaystyle A',A^{c}},A ¯, A ∁, ¬ A {\ displaystyle {\ overline {A}}, A ^ {\ complement}, \ neg A}{\ displaystyle {\ overline {A}}, A ^ {\ complement}, \ neg A} или ∼ A {\ displaystyle {\ sim} A}{\ displaystyle {\ sim} A} ; его вероятность равна P (не A) = 1 - P (A). Например, шанс не бросить шестерку на шестигранном кубике равен 1 - (шанс выбросить шестерку) = 1 - 1 6 = 5 6 {\ displaystyle = 1 - {\ tfrac {1} {6}} = {\ tfrac {5} {6}}}= 1 - {\ tfrac {1} {6}} = { \ tfrac {5} {6}} . Для более полной обработки см. Дополнительное событие.

. Если два события A и B происходят при одном выполнении эксперимента, это называется пересечением или совместной вероятностью A и B, обозначенной как P (A ∩ B) {\ displaystyle P (A \ cap B)}P (A \ cap B) .

Независимые события

Если два события, A и B, независимы, то соединение вероятность равна

P (A и B) = P (A ∩ B) = P (A) P (B). {\ displaystyle P (A {\ t_dv {and}} B) = P (A \ cap B) = P (A) P (B).}{\ Displaystyle P (A {\ t_dv {и}} B) = P (A \ cap B) = P (A) P (B).}

Например, если две монеты перевернуты, то вероятность обе головы равны 1 2 × 1 2 = 1 4 {\ displaystyle {\ tfrac {1} {2}} \ times {\ tfrac {1} {2}} = {\ tfrac {1} {4} }}{\ tfrac {1} {2}} \ times {\ tfrac {1} {2}} = {\ tfrac {1} {4}} .

Попарно независимые события

В теории вероятностей попарно независимый набор событий таков, что любые два события независимы. Обозначим через {A i, i ∈ {1, 2,..., n}} {\ displaystyle \ {{A} _ {i}, i \ in \ {1,2,..., n \} \}}{\ displaystyle \ {{A} _ {i}, i \ in \ {1,2,..., n \} \}} набор из n { \ displaystyle n}n попарно независимые события Бернулли с вероятностью возникновения P (A i) = pi {\ displaystyle \ mathbb {P} (A_ {i}) = p_ {i}}{\ displaystyle \ mathbb {P} (A_ {i}) = p_ {i}} для каждого i {\ displaystyle i}i. Тогда

P (A i ∩ A j) = pipj {\ displaystyle \ mathbb {P} (A_ {i} \ cap A_ {j}) = p_ {i} p_ {j}}{\ displaystyle \ mathbb {P} (A_ {i} \ cap A_ {j}) = p_ {i} p_ {j}} для каждой пары индексов (i, j) {\ displaystyle (i, j)}(i, j)

Любой набор взаимно независимых случайных величин попарно независим, но некоторые попарно независимые наборы не являются взаимно независимыми. Попарно независимые случайные величины с конечной дисперсией некоррелированы.

Взаимоисключающие события

Если событие A или событие B может произойти, но не оба одновременно, то они называются взаимоисключающими событиями.

Если два события являются взаимоисключающими, то вероятность возникновения обоих обозначается как P (A ∩ B) {\ displaystyle P (A \ крышка B)}P (A \ cap B) и

P (A и B) = P (A ∩ B) = 0 {\ displaystyle P (A {\ t_dv {and}} B) = P (A \ cap B) = 0}{\ displaystyle P (A {\ t_dv {and}} B) = P (A \ cap B) = 0}

Если два события являются взаимоисключающими, то вероятность любого наступления обозначается как P (A ∪ B) {\ displaystyle P ( A \ cup B)}P (A \ cup B) и

P (A или B) = P (A ∪ B) = P (A) + P (B) - P (A ∩ B) = P (A) + П (В) - 0 знак равно п (А) + п (В) {\ displaystyle P (A {\ t_dv {или}} B) = P (A \ чашка B) = P (A) + P (B) -P (A \ cap B) = P (A) + P (B) -0 = P (A) + P (B)}{\ displaystyle P (A {\ t_dv {или}} B) = P (A \ cup B) = P (A) + P (B) -P (A \ cap B) = P (A) + P (B) -0 = P (A) + P (B)}

Например, шанс выпадения 1 или 2 на шести- двусторонний die равен P (1 или 2) = P (1) + P (2) = 1 6 + 1 6 = 1 3. {\ Displaystyle P (1 {\ t_dv {или}} 2) = P (1) + P (2) = {\ tfrac {1} {6}} + {\ tfrac {1} {6}} = {\ tfrac {1} {3}}.}P (1 {\ t_dv {or}} 2) = P (1) + P (2) = {\ tfrac {1} {6}} + {\ tfrac {1} {6}} = {\ tfrac {1} {3}}.

Не исключающие друг друга события

Если события не исключают друг друга, то

P (A или B) = P (A ∪ B) = P ( А) + Р (В) - Р (А и В). {\ Displaystyle P \ left (A {\ hbox {или}} B \ right) = P (A \ cup B) = P \ left (A \ right) + P \ left (B \ right) -P \ left ( A {\ t_dv {and}} B \ right).}{\ displaystyle P \ left (A {\ hbox {или}} B \ right) = P (A \ cup B) = P \ left (A \ right) + P \ left (B \ right) -P \ left (A {\ t_dv {и}} B \ right).}

Например, при вытягивании одной карты наугад из обычной колоды карт шанс получить сердечко или лицевую карту (J, Q, K) (или то и другое) равно 13 52 + 12 52 - 3 52 = 11 26 {\ displaystyle {\ tfrac {13} {52}} + {\ tfrac {12} {52}} - {\ tfrac {3} {52}} = {\ tfrac {11} {26}}}{\ tfrac { 13} {52}} + {\ tfrac {12} {52}} - {\ tfrac {3} {52}} = {\ tfrac {11} {26}} , поскольку среди 52 карт в колоде 13 - это червы, 12 - лицевые карты, а 3 - обе: здесь возможности, включенные в «3, которые есть обе», включены в каждую из «13 червей» и «12 лицевых карт», но должны учитываться только один раз.

Условная вероятность

Условная вероятность - это вероятность некоторого события A с учетом наступления некоторого другого события B. Условная вероятность записывается как P (A ∣ B) {\ displaystyle P (A \ mid B)}P (A \ mid B) , и читается как "вероятность A при заданном B". Он определяется как

P (A ∣ B) = P (A ∩ B) P (B). {\ Displaystyle P (A \ mid B) = {\ frac {P (A \ cap B)} {P (B)}}. \,}P (A \ mid B) = {\ frac {P (A \ cap B)} {P (B)}}. \,

Если P (B) = 0 {\ displaystyle P (B) = 0}P (B) = 0 , затем P (A ∣ B) {\ displaystyle P (A \ mid B)}P (A \ mid B) формально undefined на это выражение. Однако можно определить условную вероятность для некоторых событий с нулевой вероятностью, используя σ-алгебру таких событий (например, возникающих из непрерывной случайной величины ).

Например, в мешок из 2 красных мячей и 2 синих мячей (всего 4 мяча), вероятность взять красный мяч составляет 1/2 {\ displaystyle 1/2}1/2 ; однако, если взять второй шар, вероятность того, что это будет красный или синий шар, зависит от ранее взятого шара. Например, если был взят красный шар, то вероятность снова выбрать красный шар будет 1/3 {\ displaystyle 1/3}1/3 , поскольку остались бы только 1 красный и 2 синих шара.

Обратная вероятность

В теории вероятностей и приложений, правило Байеса связывает шансы события A 1 {\ displaystyle A_ {1}}A_ {1} с событием A 2 { \ displaystyle A_ {2}}A_ {2} , до (до) и после (после) кондиционирования на другом событие B {\ displaystyle B}B . Шансы на A 1 {\ displaystyle A_ {1}}A_ {1} на событие A 2 {\ displaystyle A_ {2}}A_ {2} - это просто отношение вероятностей из двух событий. Когда представляет интерес произвольно много событий A {\ displaystyle A}A , а не только два, правило можно перефразировать как апостериорное значение пропорционально вероятности предыдущих времен, P (A | B) ∝ P (A) P (B | A) {\ displaystyle P (A | B) \ propto P (A) P (B | A)}P (A | B) \ propto P (A) P (B | A) где символ пропорциональности означает что левая часть пропорциональна (т. е. равна постоянному разу) правой части, поскольку A {\ displaystyle A}A изменяется для фиксированного или заданного B {\ displaystyle B }B (Ли, 2012; Бертч МакГрейн, 2012). В таком виде он восходит к Лапласу (1774 г.) и Курно (1843 г.); см. Fienberg (2005). См. Обратная вероятность и правило Байеса.

Сводка вероятностей

Сводка вероятностей
СобытиеВероятность
AP (A) ∈ [0, 1] {\ displaystyle P (A) \ in [0,1] \,}P (A) \ in [0,1] \,
не AP (A ∁) = 1 - P (A) {\ displaystyle P (A ^ {\ complement}) = 1-P (A) \,}{\ displaystyle P (A ^ {\ complement}) = 1-P (А) \,}
A или BP (A ∪ B) = P (A) + P (B) - P (A ∩ B) P (A ∪ B) = P (A) + P (B), если A и B являются взаимоисключающими {\ displaystyle {\ begin {align} P (A \ cup B) = P (A) + P (B) -P (A \ cap B) \\ P (A \ cup B) = P (A) + P (B) \ qquad {\ t_dv {если A и B являются взаимоисключающими}} \\\ end {align}}}{\ begin {align} P (A \ чашка B) = P (A) + P (B) -P (A \ cap B) \\ P (A \ cup B) = P (A) + P (B) \ qquad {\ t_dv {если A и B являются взаимоисключающими}} \\\ end {align}}
A и BP (A ∩ B) = P (A | B) P (B) = P (B | A) P (A) P (A ∩ B) = P (A) P (B), если A и B независимы {\ Displaystyle {\ begin {выровнены} P (A \ cap B) = P (A | B) P (B) = P (B | A) P (A) \\ P (A \ cap B) = P (A) P (B) \ qquad {\ t_dv {если A и B независимы}} \\\ end {align}}}{\ begin {align} P (A \ крышка B) = P (A | B) P (B) = P (B | A) P (A) \\ P (A \ cap B) = P (A) P (B) \ qquad {\ t_dv {если A и B независимы}} \\\ end {выровнены}}
A при BP (A ∣ B) = П (A ∩ В) п (В) знак равно п (В | A) п (A) п (В) {\ Displaystyle P (A \ середина B) = {\ гидроразрыва {P (A \ крышка B)} {P (B)}} = {\ frac {P (B | A) P (A)} {P (B)}} \,}P (A \ mid B) = {\ frac {P (A \ cap B)} {P (B)}} = {\ frac {P (B | A) P (A)} {P (B) }} \,

Связь со случайностью и вероятностью в квантовой механике

В детерминированной вселенной, основанной на ньютоновских концепциях, есть было бы маловероятно, если бы все условия были известны (демон Лапласа ) (но есть ситуации, в которых чувствительность к начальным условиям превышает нашу способность их измерить, т.е. знать их). В случае колеса рулетки , если сила руки и период действия этой силы известны, число, на котором шарик остановится, будет определенным (хотя на практике это будет вероятно, справедливо только для колеса рулетки, которое не было точно выровнено - как показал Томас А. Басс Newtonian Casino ). Это также предполагает знание инерции и трения колеса, веса, гладкости и округлости мяча, изменений скорости руки во время поворота и так далее. Таким образом, вероятностное описание может быть более полезным, чем механика Ньютона, для анализа закономерностей результатов повторяющихся бросков колеса рулетки. Физики сталкиваются с той же ситуацией в кинетической теории газов, где система, хотя и детерминированная в принципе, настолько сложна (с количеством молекул обычно порядка величины постоянной Авогадро 6,02 × 10), что возможно только статистическое описание его свойств.

Теория вероятностей требуется для описания квантовых явлений. Революционным открытием начала 20 века физика стал случайный характер всех физических процессов, которые происходят на субатомных масштабах и регулируются законами квантовой механики. Целевая волновая функция развивается детерминированно, но, согласно копенгагенской интерпретации, она имеет дело с вероятностями наблюдения, результат объясняется коллапсом волновой функции, когда наблюдение сделано. Однако потеря детерминизма ради инструментализма не получила всеобщего одобрения. Альберт Эйнштейн знаменитый заметил в письме Максу Борну : «Я убежден, что Бог не играет в кости». Как и Эйнштейн, Эрвин Шредингер, который открыл волновую функцию, полагал, что квантовая механика является статистическим приближением лежащей в основе детерминированной реальности. В некоторых современных интерпретациях статистической механики измерения квантовая декогеренция используется для объяснения появления субъективно вероятностных экспериментальных результатов.

См. Также

  • значок Портал математики
  • Портал философии
В Законе

Примечания

Ссылки

Библиография

  • Калленберг, О. (2005) Вероятностные симметрии и принципы инвариантности. Спрингер-Верлаг, Нью-Йорк. 510 стр. ISBN 0-387-25115-4
  • Калленберг, О. (2002) Основы современной вероятности, 2-е изд. Серия Спрингера в статистике. 650 с. ISBN 0-387-95313-2
  • Олофссон, Питер (2005) Вероятность, статистика и стохастические процессы, Wiley-Interscience. 504 стр. ISBN 0-471-67969-0.

Внешние ссылки

В Викицитатнике есть цитаты, связанные с: Вероятностью
Викиучебники тема: Вероятность
На Викискладе есть материалы, связанные с Вероятностью.
Последняя правка сделана 2021-06-02 07:16:55
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте