Долгосрочное среднее значение случайной величины
В теории вероятностей, ожидаемое случайной величины , обозначенное или , является обобщением средневзвешенного значения и интуитивно является арифметическим означает из большогоколичества независимых реализаций из . Ожидаемое значение также известно как ожидание, математическое ожидание, среднее, среднее или первый момент . Ожидаемая стоимость - понятие в , финансах и многих других предметах.
По определению, ожидаемому значению постоянной альтернативы равно . Ожидаемое значение случайной величины с равновероятным результатами определяется как среднее арифметическое терминов Если некоторые из вероятностей индивидуального результата не равны, тогда ожидаемое значениеопределяется как среднее взвешенное значение s, то есть сумма продуктов . Ожидаемое значение общей случайной величины включает интегрирование в смысле Лебега.
Содержание
- 1 История
- 2 Обозначения
- 3 Определение
- 3.1 Конечный случай
- 3.2 Счетно бесконечный случай
- 3.3 Абсолютно непрерывный случай
- 3.4 Общий случай
- 4 Основные
- 5 Использование и приложение
- 5.1 Обмен пределы и ожидание
- 5.2 Неравенства
- 5.3 Ожидаемые значения общих распределений
- 6 Связь с характеристической функцией
- 7 См. также
- 8 Ссылки
- 9 Литература
История
Идея математического ожидания возникла в середине 17 из исследования так называемой проблемы очков, которая стремится справедливо разделить ставкимежду двумя игроками, которые заканчивают свою игру до того, как она закончится должным образом. Эта проблема обсуждалась веками, и за эти годы было предложено множество противоречивых предложений и решений, когда она была поставлена Блезом Паскалем французским писателем и математиком-любителем Шевалье де Мере в 1654. Мере утверждал, что эту проблему невозможно решить, насколько ошибочной была математика, когда дело доходило до ее применения в реальном мире. Паскаль,будучи математиком, был спровоцирован и полон решимости решить проблему раз и навсегда.
Он начал обсуждать проблему в уже известной серии писем Пьеру де Ферма. Вскоре они независимо друг от друга придумали решение. Они решили проблему вычислительными методами, потому что их вычисления были основаны на одном и том же фундаментальном принципе. Принцип состоит в том, что стоимость будущей прибыли должна быть прямо пропорциональна шансам на ее получение. Этот принцип казался имобоим естественным. Они были очень довольны тем фактом, что они были, по сути, такое же решение, и это, в свою очередь, сделало их абсолютно решенными в том, что они решили проблему окончательно; однако они не опубликовали свои выводы. Они об этом сообщили лишь небольшому кругу общих научных друзей в Париже.
Три года спустя, в 1657 году, голландский математик Христиан Гюйгенс, только что посетивший Париж, опубликовал трактат (см. Гюйгенс (1657)) «De ratiociniis inludo ale »по теории вероятностей. В этой книге он рассмотрел проблему точек и представил решение, основанное на том же принципе, что и решения Паскаля и Ферма. Гюйгенс также расширил концепцию ожидания, добавив правила расчета ожидания в более сложных ситуациях, чем исходная задача (например, для трех или более игроков). В этом смысле эту книгу можно рассматривать как первую успешную попытку заложить основы теории вероятностей.
В предисловии к своей книге Гюйгенс написал:
Следуеттакже сказать, что в некотором времени некоторые из лучших математиков Франции занимались этим исчисления, так что никто не должен приписывать мне честь первого изобретения. Это не принадлежит мне. Но эти учащиеся, участвуют в опросе друг друга испытание, вызывают друг свои методы для решения вопросов. Поэтому я должен был изучить этот вопрос, начав с элементов, и по этой причине я не могу утверждать, что я даже начал с того же принципа. В конце концов, я обнаружил, что мои ответы во многихслучаях отличаются от их.
— Эдвардс (2002)
Таким образом, Гюйгенс узнал о Проблеме де Мере в 1655 году во время своего визита во Францию; позже, в 1656 г. из его переписки с Каркави, он узнал, что его метод по сути такой же, как и у Паскаля; так что еще до того, как его книга поступила в печать в 1657 году, он знал о приоритете Паскаля в этом вопросе.
Этимология
Ни Паскаль, ни Гюйгенс не использовали термин «ожидание» в его современном смысле. В частности,Гюйгенс пишет:
Что любой шанс или ожидание выиграть какую-либо вещь стоит ровно такую сумму, которую вы бы получили при тех же шансах и ожиданиях при честном слове.... Если я ожидаю a или b и имею равные шансы получить их, мое ожидание стоит (a + b) / 2.
Более чем сто лет спустя, в 1814 году, Пьер-Симон Лаплас опубликовал свой трактат «Аналитическая теория вероятностей», в которой понятие ожидаемой стоимости было определено явно:
… это преимущество в теориислучайности является произведением, на рассчитывают, на вероятность ее достижения; это частичная сумма, которая должна быть получена, когда мы не желаем рисковать событием, предполагаемая, что деление пропорционально вероятности. Это разделение является единственно справедливым, когда устранены все странные обстоятельства; потому что равная степень вероятности равное право на получение ожидаемой суммы. Мы будем называть это преимуществом математической надеждой.
Обозначения
Использование буквы для обозначения ожидаемого значения восходит к W. А. Уитворт в 1901 году. С тех пор стал символным популярным среди английских писателей. На немецком языке означает «Erwartungswert», на испанском - «Esperanza matemática», а на французском - «Espérance mathématique». 273>
Другое популярное обозначение - ,тогда как обычно используется в физике, а в русскоязычной литературе.
Определение
Конечный регистр
Пусть случайная величина с конечным числом конечных результатов встречается с вероятностями соответственно. ожидание для означает как
Форма всех вероятностей равна 1 (), ожидаемое значение - это взвешенное количество значений , причем значения являются весами.
Если все исходы равновероятны (то есть ), тогда средневзвешенное значение превращается в простое среднее. С другой стороны, если исходы не равновероятны, тогда простое среднее значение необходимо заменить средневзвешенным, что учитывает тот факт, что некоторые результаты более вероятны, чем другие.
Иллюстрация сходимости средних значений бросков
кубика к ожидаемому значению 3,5 по мере увеличения количества бросков (испытаний).
Примеры
- Пусть представит результат броска честного шестигранного кубика . Более конкретно, будет содержать области, отображаемых на верхней поверхности кубика после подбрасывания. Возможные значения для : 1, 2, 3, 4, 5 и 6, все из равновероятны с вероятностью 1/6. Математическое ожидание is
- Если бросить кубик раз и вычислить среднее (среднее арифметическое ) результатов, то как растет, среднее почти наверняка сходится к ожидаемому значению, факт, известный как строгий закон большие числа.
- Игра в рулетку состоит из маленького шарика и колеса с 38пронумерованными лузами по краю. Когда колесо вращается, шарик хаотично раскачивается, пока не в одном из карманов. Предположим, что случайная величина представляет (денежный) результат ставки в 1 доллар на одно число ("прямая" ставка). Если ставка выигрывает (что происходит с вероятностью 1/38 в американской рулетке), выплата составляет 35 долларов; в противном случае игрок теряет ставку. Ожидаемая прибыль от таких ставок составит
- То есть ставка в 1 доллар проигрывает , поэтому его ожидаемое значение составляет
Счетно-бесконечныйслучай
Интуитивно, ожидание случайной величины, принимающей значения в счетном наборе результатов, определяется аналогично как взвешенная сумма итоговых значений, где соответствуют вероятности реализации этой ценности. Однако проблемы сходимости, связанные с бесконечной суммой, требуют более тщательного определения. Строгое определение сначала определяет математическое ожидание неотрицательной случайной величины, а затем адаптирует его к общим случайным величинам.
Пусть будет неотрицательной случайной величиной со счетным набором результатов встречающиеся с вероятностями соответственно. Аналогично дискретному случаю, ожидаемое значение затем определяется как ряд
Обратите внимание, что, поскольку , бесконечная сумма четко определена и не зависит от порядка, в котором она вычисляется. В крайнем случае, здесь математическое ожидание может быть равно бесконечности.
Для общей (не обязательно неотрицательной) случайной величины со счетным числом текущих результатов установки и . По определению
Как и в случае неотрицательных случайных величин, снова может быть конечным или бесконечным.Третий вариант здесь заключается в том, что больше не гарантирует правильного определения. Последнее происходит всякий раз, когда .
Примеры
- Предположим, что и для , где (с (натуральный логарифм ) - это масштабный коэффициент, при котором сумма вероятностей равна 1. Тогда, используя прямое определение для неотрицательных случайных величин, мы имеем
- Пример, когда ожидание бесконечно, возникает в контексте Ул. Петербургский парадокс. Пусть и для . Еще раз, как случайная величина неотрицательна, расчет ожидаемого значения дает
- В качестве примера, гдематематическое ожидание не определено четко, предположим, что случайная величина принимает значения с вероятностями ,..., где - нормализующая константа,которая гарантирует, что сумма вероятностей равна единице.
- Следовательно, следует, что принимает значение с вероятностью для и принимает значение с оставшейся вероятностью. Точно так же принимает значение с вероятностью для и принимает значение с оставшейся вероятностью. Используя определение неотрицательных случайных величин, можно показать, что и и (см. Гармонический ряд ). Следовательно, ожидание не является четко определенным.
Абсолютно непрерывный регистр
Если - случайная величина с функция плотности вероятности из , тогда ожидаемое значение определяется как Интеграл Лебега
, где значения на сторонах четко или не согласовы одновременно.
Пример. Случайная величина с распределением Коши имеет значение функции плотности, но ожидаемое значение не определено, так как распределение большие «хвосты».
Общий случай
Как правило, если является случайной величиной, определенно в вероятностном пространстве , затем ожидаемое значение , обозначается , определяется как интеграл Лебега
Для многомерных случайных величин их ожидаемое значение равно определяется для каждого компонента. То есть
и для случайной матрицы с элементами ,
Основные свойства
Основные свойства ниже (и их названия жирным шрифтом) повторяют илисразу следуют из интеграла Лебега. Обратите внимание, что буквы «а.с.» обозначают «почти наверняка » - центральное свойство интеграла Лебега. По сути, говорят, что неравенство типа почти верно, когда вероятностная мера приписывает нулевую массу дополнительному событию .
- Для общей случайной величина определите, как и раньше, и , обратите внимание, что , причем как , так и неотрицательно, тогда:
- Пусть обозначает индикаторную функцию для события , тогда
- Формулы в терминах CDF: Если является кумулятивным функцией распределения вероятностной меры и - случайная величина, тогда
- , где взятых на себя совместных решений взятых на себя взят в смысле Lebesgue-Stieltjes. Здесь - расширенное вещественное числостроки.
- Кроме того,
- с интегралами, взятыми в смысле Лебега.
- Доказательство второй формулы следует.
Доказательство. |
Для произвольного
Последнее равенство выполняется, потому что где означает, что и, следовательно, И наоборот, если где , затем и
Подынтегральное выражение вприведенном вышевыражении для неотрицательно, поэтому применяется теорема Тонелли, и порядок интегрирования может быть изменен без изменения результата. Имеем
Рассуждая, как указано выше,
и
Напоминая, что завершаетдоказательство. |
- Неотрицательность: Если (as), то .
- Линейность ожидания: Оператор ожидаемого значения (или оператор ожидания ) является линейным в том смысле, что для любых случайных величин и и константа ,
- , если правая часть четко определена. Это означает, что ожидаемое значение суммы любого конечного числа случайных величин является суммой ожидаемых значений отдельных случайных величин, а ожидаемое значениелинейномасштабируется с мультипликативной константой.
- Монотонность: Если (as), и оба и существуют, тогда .
- Доказательство следует из линейности и свойства неотрицательности для , поскольку (as).
- Отсутствие мультипликативности: В общем, ожидаемое значение не является мультипликативным, т. Е. не обязательно равно . Если и являются независимыми, то можнопоказать,что . Если случайные величины зависимы от, то обычно , хотя в особых случаях зависимости равенство может выполняться.
- Закон бессознательного статистика : Ожидаемое значение измеримой функции , , учитывая, что имеет функцию плотности вероятности , дается внутренним произведением из и :
- Эта формула также верна в многомерном случае, когда - это функция нескольких случайных величин, а - их плотность соединения.
- Не -вырожденность: Если , затем (as).
- Для случайной величины с четко определенным математическим ожиданием: .
- Следующие утверждения относительно случайной величины являются эквивалент:
- существует и конечен.
- Оба и конечны.
- конечно.
- Поуказанным вышепричинам выражения "является интегрируемым "и" ожидаемое значение конечно "взаимозаменяемо используются в этой статье.
- Если , затем (as). Аналогичным образом, если , затем (as).
- Если и , затем
- Если (as), то . Другими словами, если X и Y - случайные величины, которые принимают разные значения с вероятностью ноль, то ожидание X будет равно ожиданию Y.
- Если (as) для некоторой константы , тогда . В частности, для случайной величины с четкоопределенным ожиданием . Хорошо определенное ожидание подразумевает, что существует одно число или, скорее, одна константа, определяющая ожидаемое значение. Из этого следует, что математическое ожидание этой константы - это просто исходное ожидаемое значение.
- Для неотрицательной целочисленной случайной величины
Доказательство. |
Если - P (X>n) ≥ P (X = + ∞)>0, {\ displaystyle \ operatorname {P} (X>n) \ geq \ operatorname {P} (X = + \ infty)>0,}
, поэтому ряд справа расходится к + ∞, {\ displaystyle + \ infty,}и равенство выполняется.
Если P (X = + ∞) знак равно 0, {\ displaystyle \ operatorname {P} (X = + \ infty) = 0,}, затем - ∑ n = 0 ∞ P (X>n) = ∑ n = 0 ∞ ∑ j = n + 1 ∞ P ( X = j). {\displaystyle \sum _{n=0}^{\infty }\operatorname {P} (X>n)=\sum _{n= 0}^{\infty }\sum _{j=n+1}^{\infty }\operatorname {P} (X=j).}
Define the infinite upper-triangular matrix - M = [ P ( X = 1) P ( X = 2) P ( X = 3) ⋯ P ( X = n) ⋯ P ( X = 2) P ( X = 3) ⋯ P ( X = n) ⋯ P ( X = 3) ⋯ P ( X = n) ⋯ ⋱ ⋮ P ( X = n) ⋯ ⋱ ]. {\displaystyle M={\begin{bmatrix}\operatorname {P} (X=1)\operatorname {P} (X=2)\operatorname {P} (X=3)\cdots \operatorname {P} (X=n)\cdots \\\operatorname {P} (X=2)\operatorname {P} (X=3)\cdots \operatorname {P} (X=n)\cdots \\\operatorname {P} (X=3)\cdots \operatorname {P} (X=n)\cdots \\\ddots \vdots \\\operatorname {P} (X=n)\cdots \\\ddots \end{bmatrix}}.}
The double series ∑ i = 1 ∞ ∑ j = i ∞ P ( X = j) {\displaystyle \textstyle \sum _{i=1}^{\infty }\sum _{j=i}^{\infty }\operatorname {P} (X=j)}is the sum of M {\displaystyle M}'s elements if summation is done row by row. Since every summand is non-negative, the series either converges absolutely or diverges to + ∞. {\displaystyle +\infty.}In both cases, changing summation order does not affect the sum. Changing summation order, from row-by-row to column-by-column, gives us - ∑ n = 0 ∞ ∑ j = n + 1 ∞ P ( X = j) = ∑ j = 1 ∞ ∑ n = 0 j − 1 P ( X = j) = ∑ j = 1 ∞ j P ( X = j) = ∑ j = 0∞ j P (X = j) = E [X]. {\ displaystyle {\ begin {align} \ sum _ {n = 0} ^ {\ infty} \ sum _ {j = n + 1} ^ {\ infty} \ operatorname {P} (X = j) = \ sum _ {j = 1} ^ {\ infty} \ sum _ {n = 0} ^ {j-1} \ operatorname {P} (X = j) \\ = \ sum _ {j = 1} ^ { \ infty} j \ OperatorName {P} (X = j) \\ = \ sum _ {j = 0} ^ {\ infty} j \ operatorname {P} (X = j) \\ = \ operatorname {E } [X]. \ End {align}}}
|
Использование и приложения
Ожидание случайной переменной играет важную роль вразличных контекстах. Например, в теории принятия решений, Часто предполагается, что агент, делающий оптимальный выбор в контексте неполной информации, максимизирует ожидаемое значение своей функции полезности. Для другого примера, в statistics, где ищут оценки для неизвестных параметров на основе доступных данных, оценка сама по себе является случайной величиной. В таких условиях желательным критерием «хорошей» оценки является то, что она несмещена ;то есть ожидаемое значение оценки равно истинному значению базовый параметр.
Можно построить ожидаемое значение, равное вероятности события, взяв ожидание индикаторной функции, которое равно единице, если событие произошло, и нулю в противном случае. Это отношение можно использовать для перевода свойств ожидаемых значений в свойства вероятностей, например с использованием закона больших чисел для обоснования оценки вероятностей по частотам.
Ожидаемыезначения степеней X называются несмещенным способом и имеет свойство минимизировать сумму квадратов остатков (сумма квадратов разностей между наблюдениями и оценкой ). Закон больших чисел демонстрирует (при довольно мягких условиях), что по мере увеличения размера выборки , дисперсия эта оценка становится меньше.
Это свойство часто используется в самых разных приложениях, включая общие задачи статистической оценки и машинного обучения, для оценки (вероятностных) интересующих величин с помощью методы Монте-Карло, поскольку большинство представляющих интерес величин можно записать в терминах математического ожидания, например п (X ∈ A) = E [1 A] {\ displaystyle \ operatorname {P} ({X \ in {\ mathcal {A}}}) = \ operatorname {E} [{\ mathbf { 1}} _ {\ mathcal {A}}]}, где 1 A {\ displaystyle {\ mathbf {1}} _ {\ mathcal {A}}} - индикаторная набор функцияфункция A {\ displaystyle {\ mathcal {A}}}.
Масса распределения вероятностей сбалансированной на ожидаемом значении, здесь распределение с ожидаемым значением α / (α + β).
В классической механике, центр масс является концепцией, аналогичной математическому ожиданию. Например, предположим, что X - дискретная случайная величина со значениями x i и гарантирует вероятности p i. Теперь рассмотрим невесомый стержень,на котором размещены грузы вточках x i вдоль стержня и имеющий массу p i (сумма которых равна единице). Точка балансировки стержня - E [X].
Ожидаемые значения информативных вычислений дисперсии с помощью формулы для дисперсии
- Var (X) = E [X 2] - (E [X]) 2. {\ displaystyle \ operatorname {Var} (X) = \ operatorname {E} [X ^ {2}] - (\ operatorname {E} [X]) ^ {2}.}
Очень важное применение математическое ожидание находится в области квантовой механики. Среднеезначение квантово-механического оператора A ^ {\ displaystyle {\ hat {A}}}, работающего с квантовым состоянием вектором | ψ⟩ {\ Displaystyle | \ psi \ rangle}записывается как ⟨A ^⟩ = ⟨ψ | А | ψ⟩ {\ Displaystyle \ langle {\ hat {A}} \ rangle = \ langle \ psi | А | \ psi \ rangle}. неопределенность в A ^ {\ displaystyle {\ hat {A}}}может быть рассчитана по формуле (Δ A) 2 =⟨A ^ 2⟩ - ⟨A ^⟩ 2 {\ displaystyle (\Delta A) ^ {2} = \ langle {\ hat {A}} ^ {2} \ rangle - \ langle {\ hat {A}} \ rangle ^ {2}}.
Перестановка пределов и ожиданий
Как правило, E [X n] → E [X] {\ displaystyle \ operatorname {E} [X_ {n}] \ to \ operatorname { E} [X]}несмотря на X n → X {\ displaystyle X_ {n} \ to X}точечно. Таким образом, нельзя поменять местами пределы и ожидания без дополнительных условий на случайные величины. Чтобы убедиться вэтом, пусть U {\ displaystyle U}будет случайной величиной, равномерно распределенной на [0, 1] {\ displaystyle [0,1]}. Для n ≥ 1, {\ displaystyle n \ geq 1,}определить последовательность случайных величин
- X n = n ⋅ 1 {U ∈ [0, 1 n]}, {\ displaystyle X_ {n} = n \ cdot \ mathbf {1} \ left \ {U \ in \ left [0, {\ tfrac {1} {n}} \ right] \ right \},}
с 1 {A} {\ displaystyle {\ mathbf {1}} \ {A \}}является индикаторнойфункцией событий A {\ displaystyle A}. Отсюда следует, что X n → 0 {\ displaystyle X_ {n} \ to 0}(a.s). Но E [X n] = N n P ⋅ (U ∈ [0, 1 n]) = N ⋅ 1 n = 1 {\ Displaystyle \ OperatorName {E} [X_ {n}] = n \ cdot \ operatorname {P} \ left (U \ in \ left [0, {\ tfrac {1} {n}} \ right] \ right) = n \ cdot {\ tfrac {1} {n}} = 1}для каждого n {\ displaystyle n}. Следовательно, lim n → ∞ E [X n] = 1 ≠ 0 = E [lim n → ∞ X n]. {\displaystyle \ lim _ {n \ to \ infty} \ operat orname {E} [X_ {n}] = 1 \ neq 0 = \ operatorname {E} \ left [\ lim _ {n \ to \ infty} X_ { n} \ right].}
Аналогично для общей последовательности случайных величин {Y n: n ≥ 0} {\ displaystyle \ {Y_ {n}: n \ geq 0 \}}, оператор ожидаемого значения не является σ {\ displaystyle \ sigma}-additive, т.е.
- E [∑ n = 0 ∞ Y n] ≠ ∑ n = 0 ∞ E [Да нет]. {\ displaystyle \ operatorname {E} \ left [\ sum _ {n = 0} ^ {\infty} Y_ {n} \ right] \ neq \ sum _ {n = 0} ^{\ infty} \ operatorname {E } [Y_ {n}].}
Пример легко получить, задав Y 0 = X 1 {\ displaystyle Y_ {0} = X_ {1}}и YN знак равно Икс N + 1 - Икс N {\ Displaystyle Y_ {n} = X_ {n + 1} -X_ {n}}для n ≥ 1 {\ Displaystyle п \ geq 1}, где X n {\ displaystyle X_ {n}}как в предыдущем примере.
Ряд результатов сходимости задают точные условия, которые позволяют менять пределы иожидания, как указано ниже.
- Теорема омонотонной сходимости : Пусть {X n: n ≥ 0} {\ displaystyle \ {X_ {n}: n \ geq 0 \}}будет последовательностью случайных переменные, с 0 ≤ Икс N ≤ Икс n + 1 {\ displaystyle 0 \ leq X_ {n} \ leq X_ {n + 1}}(as) для каждого n ≥ 0 {\ displaystyle n \ geq 0}. Кроме того, пусть X n → X {\ displaystyle X_ {n} \ to X}поточечно. Тогда теорема о монотонной сходимости утверждает, что lim nE [X n] = E [X]. {\ displaystyle \ lim _{n} \ operatorname {E} [X_ {n}] = \ operatorname {E} [X].}
- Используя теорему о монотонной сходимости, можно показать, что математическое ожидание действительно удовлетворяет счетной адитивности для неотрицательные случайные величины. В частности, пусть {X i} i = 0 ∞ {\ displaystyle \ {X_ {i} \} _ {i = 0} ^ {\ infty}}быть неотрицательными случайными величинами. Из теоремы о монотонной сходимости следует, что
- E [∑i = 0 ∞ X i] = ∑ i = 0 ∞ E [X i]. {\ displ aystyle \ operatorname {E} \ left [\ sum _ {i = 0} ^ {\ infty} X_ {i} \ right] = \ sum _ {i = 0} ^ {\ infty} \ operatorname {E} [X_ {i}].}
- Лемма Фату : Пусть {X n ≥ 0: n ≥ 0} {\ displaystyle \ {X_ {n} \ geq 0: n \ geq 0 \} }- последовательность неотрицательных случайных величин. Лемма Фату утверждает, что
- E [lim inf n X n] ≤ lim inf n E [X n]. {\ displaystyle \ operatorname {E} [\ liminf _ {n} X_ {n}] \ leq \ liminf_ {n} \ operatorname {E} [X_ {n}].}
- Следствие. Пусть Икс N ≥ 0 {\ Displaystyle X_ {n} \ geq 0}с E [X n] ≤ C {\ displaystyle \ operatorname {E} [X_ {n}] \ leq C}для всех n ≥ 0 {\ displaystyle n \ geq 0}. Если X n → X {\ displaystyle X_ {n} \ to X}(as), то E [X] ≤ C. {\ displaystyle \ operatorname {E} [ X] \ leq C.}
- Доказательство заключается в том, что X = lim inf n X n {\ displaystyle \ textstyle X= \ liminf _ {n} X_ {n}}(as) иприменяя лемму Фату.
- Теорема о доминирующей сходимости : Пусть {X n: n ≥ 0} {\ displaystyle \ {X_ {n}: n \ geq 0 \}}- последовательность случайных величин. Если X n → X {\ displaystyle X_ {n} \ to X}точечно (а.с.), | X n | ≤ Y ≤ + ∞ {\ Displaystyle | X_ {n} | \ leq Y \ leq + \ infty}(a.s.) и E [Y] < ∞ {\displaystyle \operatorname {E} [Y]<\infty }. Тогда, согласно теореме о доминирующей сходимости,
- E | X | ≤ E [Y] < ∞ {\displaystyle \operatorname {E} |X|\leq \operatorname {E} [Y]<\infty };
- lim n E [X n] = E [X] {\ displaystyle\ lim _ {n} \ operatorname {E} [X_ {n}] = \ operatorname {E} [ X]}
- lim n E | X n - X | = 0. {\ displaystyle \ lim _ {n} \ operatorname {E} | X_ {n} -X | = 0.}
- Равномерная интегрируемость : в некоторых случаях равенство lim n E [Икс N] знак равно Е [lim n Икс N] {\ displaystyle \ displaystyle \ lim _ {n} \ OperatorName {E} [X_ {n}] = \ operatorname {E} [\ lim _ {n} X_ {n}]}выполняется, когда последовательность {Xn} {\ displaystyle \ {X_ {n} \}} равномерно интегрируема.
Неравенства
Существует ряд неравенств, связанных с ожидаемыми значениями функций случайных величин. Следующий список включает некоторые из самых простых.
- Неравенство Маркова : для неотрицательной случайной величины X {\ displaystyle X}и a>0 {\ displaystyle a>0},неравенство Маркова P утверждает, что
- (Икс ≥ a) ≤ E [X] a. {\ Displaystyle \ operatorname {P} (X \ geq a) \ leq {\ frac {\ operatorname {E} [X]} {a}}.}
- Неравенство Биенайме-Чебышева : пусть X {\ displaystyle X}будет произвольной случайной величиной с конечным ожидаемым размером E [X] {\ displaystyle \ operatorname {E} [X]}и конечная дисперсия Var [X] ≠ 0 {\ displaystyl e \ operatorname {Var} [X] \ neq 0}. НеравенствоБьенайме-Чебышева гласит, что для любого действительного числа k>0 {\ displaystyle k>0},
- P (| X - E [X] | ≥ К Вар [X]) ≤ 1 К 2. {\ Displaystyle \ OperatorName {P} {\ Bigl (} {\ Bigl |} X- \ OperatorName {E} [X] {\ Bigr |} \ geq k { \ sqrt {\ operat orname {Var} [X]}} {\ Bigr)} \ leq {\ frac {1} {k ^ {2}}}.}
- Неравенство Дженсена : пусть f : R → R {\ displaystyle f: {\ mathbb {R}} \ to {\ mathbb {R}}}быть Borel выпуклой функцией и X {\ displaystyle X}случайная величина такая, что E | X | < ∞ {\displaystyle \operatorname {E} |X|<\infty }. Тогда
- f (E (X)) ≤ E (f (X)). {\ displaystyle f (\ operatorname {E} (X)) \ leq \ operatorname {E} (f (X)).}
- (Обратите внимание, что правая часть определенаправильно, даже если X {\ displaystyle X}не являетсяконечным. На самом деле, как отмечалось выше, конечность E | X | {\ displaystyle \ operatorname {E} | X |}означает, что X {\ displaystyle X}конечно как; таким, f (X) {\ displaystyle f (X)}образом определяется как).
- Неравенство Ляпунова: Пусть 0 < s < t {\displaystyle 0
. Неравенство Ляпунова утверждает, что
- (E | X | s) 1 / s ≤ (E | X | t) 1 / t. {\ displaystyle \ left (\ operatorname{E} | X | ^ {s} \ right) ^ {1 / s} \ leq \ left (\ operatorname {E} | X| ^ {t} \ right) ^ {1 / t}.}
- Доказательство. Применение неравенства Дженсена к | X | с {\ displaystyle | X | ^ {s}}и g (x) = | х | т / с {\ Displaystyle г (х) = | х | ^ {т / с}}, получаем | E | X s | | т / с ≤ E | X s | t / s = E | X | т {\ displaystyle {\ Bigl |} \ operatorname {E} | X ^ {s} | {\ Bigr |} ^ {t / s} \ leq \ operatorname {E} | X ^ {s} | ^ {t / s}= \ operatorname {E} | X | ^ {t}}. Получение корня tth {\displaystyle t ^ {th}}из каждой стороны завершает доказательство.
- Неравенство Коши - Буняковского - Шварца : неравенство Коши - Буняковского - Шварца утверждает, что
- (E [XY]) 2 ≤ E [X 2] ⋅ E [Y 2]. {\ displaystyle (\ operatorname {E} [XY]) ^ {2} \ leq \ operatorname {E} [X ^ {2}] \ cdot \ operatorname {E} [Y ^ {2}].}
- Неравенство Гёльдера : пусть p {\ displaystyle p} и q {\ displaystyle q}удовлетворяют 1 ≤ p ≤ ∞ {\ displ aystyle 1 \ leq p \ leq \ infty}, 1 ≤ q ≤ ∞ {\ displaystyle 1 \ leq q \ leq \ infty}и 1 / p + 1 / q = 1 {\ Стиль отображения 1 / p + 1 / q = 1}. Неравенство Гёльдера утверждает, что
- E | X Y | ≤ (E | X | p) 1 / p (E | Y | q) 1 / q. {\ displaystyle \ operatorname {E} | XY | \ leq (\ operatorname {E} | X | ^ {p}) ^ {1 / p} (\ operatorname {E} | Y | ^ {q}) ^ {1 / q}.}
- неравенство Минковского : пусть p {\ displaystyle p}будетположительным вещественным лицом, удовлетворяющим 1 ≤ p ≤ ∞ {\ displaystyle 1 \ leq р \ leq \ infty}. Пусть, кроме того, E | X | p < ∞ {\displaystyle \operatorname {E} |X|^{p}<\infty }и E | Y | р < ∞ {\displaystyle \operatorname {E} |Y|^{p}<\infty }. Тогда согласно неравенству Минковского E | X + Y | р < ∞ {\displaystyle \operatorname {E} |X+Y|^{p}<\infty }и
- (E | X + Y | p) 1 / p ≤ (E | X | p) 1 / p + (E | Y | p) 1 / p. {\ Displaystyle {\ Bigl (} \ OperatorName {E} | X + Y | ^ {p} {\ Bigr)} ^ {1/ p} \ leq {\ Bigl (} \ operatorname {E} | X | ^ { p} {\ Bigr)} ^ {1 / p} + {\Bigl (} \ operatorname {E} | Y | ^ {p} {\ Bigr)} ^ {1 / p}.}
Ожидаемые общие значения распределения
Распределение | Обозначение | Среднее E (X) |
---|
Бернулли | X ∼ b (1, p) {\ displaystyle X \ sim ~ b (1, p)} | p {\ displaystyle p} |
Биномиальное | X ∼ B (n, p) {\ displaystyle X \ sim B (n, p)} | np {\ displaystyle np} |
Пуассон | Икс ∼ п о (λ) {\ displaystyle X \ simPo (\ lambda)} | λ {\ displaystyle \ lambda} |
геометрический | X ∼ Geometric (p) {\ displaystyle X \ sim Geometric (p)} | 1 / p {\ displaystyle 1 / p} |
Uniform | X ∼ U (a, b) {\ displaystyle X \ sim U (a, b)} | (a + b) / 2 {\ displaystyle (a + b) / 2} |
Exponential | X ∼ exp (λ) {\ displaystyle X \ sim \ exp (\ lambda)} | 1 / λ {\ displaystyle 1 / \ lambda} |
нормальный | X ∼ N (μ, σ 2) {\ displaystyle X \ sim N (\ mu, \ sigma ^ {2})} | μ {\ displayst yle \ mu} |
Стандартный d Нормальный | Икс ∼ N (0, 1) { \ Displaystyle X\ sim N (0,1)} | 0 {\ displaystyle 0} |
Парето | X ∼ P ar (α) {\ displaystyle X \ sim Par (\ alpha)} | α / (α + 1) {\ displaystyle \ alpha / (\ alpha +1)}если α>1 {\ displaystyle \ alpha>1} |
Коши | X ∼ C (x 0, γ) {\displaystyle X \ sim Cauchy (x_ {0}, \ gamma)} | undefined |
Связь схарактеристической функцией
Функция плотности вероятности f X {\ displaystyle f_ {X}}скалярной случайной величины X {\ displaystyle X}связано с его характерной функцией φ X {\ displaystyle \ varphi _ {X}}по формуле обращения:
- f X (x) = 1 2 π ∫ R e - itx φ X (t) dt. {\ displaystyle f_ {X} (x) = {\ frac {1} {2 \ pi}} \ int _ {\ mathbb {R}} e ^ {- itx}\ varphi _ {X} (t) \, dt.}
Для ожидаемого значения g (X) {\ displ aystyle g (X)}(где g: R → R {\ displaystyle g: {\ mathbb {R }} \ to {\ mathbb {R}}}- это функция Бореля ), мы можем использовать эту формулу обращения, чтобы получить
- E [g (X)] = 1 2 π R g (x) [∫ R e - itx φ X (t) dt] dx. {\ displaystyle \ operatorname {E} [g (X)] = {\ frac {1} {2 \ pi}} \ int _ {\ mathbb {R}} g (x) \ left [\ int _ {\ mathbb {R}} e ^ {- itx} \ varphi _ {X} (t)\, dt \ right] \, dx.}
Если E [g (X)] {\ displaystyle \ operat orname {E} [g (X)]}конечно, изменяя порядок интегрирования, получаем, в соответствии с теоремой Фубини - Тонелли,
- E [g (X)] = 1 2 π ∫ RG (T) φ Икс (t) dt, {\ Displaystyle \ OperatorName {E} [g (X)] = {\ frac {1} {2 \ pi}} \ int _ {\ mathbb {R}} G ( t) \ varphi _ {X} (t) \, dt,}
где
- G (t) = ∫ R g (x) e - itxdx {\ displaystyle G (t) = \ int _ {\ mathbb {R}} g (x) e ^ {- itx} \, dx}
-преобразование Фурье для g (x). {\ displaystyle g (x).} Выражение для E [g (X)] {\ displaystyle \ operatorname {E} [g (X)]}также непосредственно следует из теоремы Планшереля.
См. также
- Центр масс
- Центральная тенденция
- Неравенство Чебышева (неравенство по параметрам местоположения и масштаба)
- Условное ожидание
- Ожидание (общее термин)
- Ожидаемое значение (квантовая механика)
- Закон общего ожидания -ожидаемое значение условного ожидаемого значения X при заданном Y такое же, какожидаемое значение X.
- Момент (математика)
- Нелинейное ожидание (обобщение ожидаемого значения)
- Уравнение Вальда - уравнение для вычислений ожидаемого значения случайного числа случайных величин
Ссылки
Литература