Кумулянт

редактировать

В теории вероятностей и статистике кумулянты κnраспределение вероятностей - это набор величин, которые обеспечивают альтернативу моментам распределения. Моменты определяют кумулянты в том смысле, что любые два распределения вероятностей, моменты которых идентичны, также будут иметь одинаковые кумулянты, и аналогично кумулянты определяют моменты.

Первый кумулянт - это среднее, второй кумулянт - это дисперсия, а третий кумулянт такой же, как третий центральный момент. Но кумулянты четвертого и более высокого порядка не равны центральным моментам. В некоторых случаях теоретические решения проблем в терминах кумулянтов проще, чем с использованием моментов. В частности, когда две или более случайных величин статистически независимы, кумулянт n-го порядка их суммы равен сумме их кумулянтов n-го порядка. Кроме того, кумулянты третьего и более высокого порядка нормального распределения равны нулю, и это единственное распределение с этим свойством.

Так же, как и для моментов, когда совместные моменты используются для наборов случайных величин, можно определить совместные кумулянты.

Содержание
  • 1 Определение
    • 1.1 Альтернативное определение кумулянтной производящей функции
  • 2 Использование в статистике
  • 3 Кумулянты некоторых дискретных распределений вероятностей
  • 4 Кумулянты некоторых непрерывных распределений вероятностей
  • 5 Некоторые свойства производящей функции кумулянта
  • 6 Некоторые свойства кумулянтов
    • 6.1 Инвариантность и эквивариантность
    • 6.2 Однородность
    • 6.3 Аддитивность
    • 6.4 Отрицательный результат
    • 6.5 Кумулянты и моменты
    • 6.6 Кумулянты и разбиения по множествам
    • 6.7 Кумулянты и комбинаторика
  • 7 Совместные кумулянты
    • 7.1 Условные кумулянты и закон общего кумулянта
  • 8 Отношение к статистической физике
  • 9 История
  • 10 Кумулянты в Обобщенные настройки
    • 10.1 Формальные кумулянты
    • 10.2 Белл-числа
    • 10.3 Кумулянты полиномиальной последовательности биномиального типа
    • 10.4 Свободные кумулянты
  • 11 См. также
  • 12 Ссылки
  • 13 Внешние ссылки
Определение

Кумулянты случайной величины X определяются с помощью кумулянта. t-порождающая функция K (t), которая является натуральным логарифмом от порождающей функции :

K (t) = log ⁡ E ⁡ [e t X]. {\ displaystyle K (t) = \ log \ operatorname {E} \ left [e ^ {tX} \ right].}{\ displaystyle K (t) = \ log \ operatorname {E} \ left [e ^ {tX} \ right].}

Кумулянты κ n получаются из разложения в степенной ряд кумулянтная производящая функция:

K (t) = ∑ n = 1 ∞ κ ntnn! знак равно μ t + σ 2 t 2 2 + ⋯. {\ Displaystyle К (т) = \ сумма _ {п = 1} ^ {\ infty} \ каппа _ {п} {\ гидроразрыва {т ^ {п}} {п!}} = \ му т + \ сигма ^ { 2} {\ frac {t ^ {2}} {2}} + \ cdots.}{\ displaystyle K (t) = \ sum _ {n = 1} ^ {\ infty} \ kappa _ {n} {\ frac {t ^ {n}} {n!}} = \ mu t + \ sigma ^ {2} {\ frac {t ^ {2}} {2}} + \ cdots.}

Это разложение является рядом Маклорена, поэтому n-й кумулянт может быть получен путем дифференцирования вышеуказанных расширение n раз и оценка результата на нуле:

κ n = K (n) (0). {\ displaystyle \ kappa _ {n} = K ^ {(n)} (0).}\ каппа _ {n} = K ^ {(n)} (0).

Если функция, генерирующая момент, не существует, кумулянты могут быть определены в терминах взаимосвязи между кумулянтами и обсуждаемыми моментами позже.

Альтернативное определение кумулянтной производящей функции

Некоторые авторы предпочитают определять кумулянт-генерирующую функцию как натуральный логарифм характеристической функции, которую иногда также называют вторая характеристическая функция,

H (t) = log ⁡ E ⁡ [eit X] = ∑ n = 1 ∞ κ n (it) nn! знак равно μ это - σ 2 T 2 2 + ⋯ {\ Displaystyle H (t) = \ log \ operatorname {E} \ left [e ^ {itX} \ right] = \ sum _ {n = 1} ^ {\ infty } \ kappa _ {n} {\ frac {(it) ^ {n}} {n!}} = \ mu it- \ sigma ^ {2} {\ frac {t ^ {2}} {2}} + \ cdots}{\ displaystyle H (t) = \ log \ OperatorName {E} \ left [e ^ {itX} \ right] = \ sum _ {n = 1} ^ {\ infty} \ kappa _ {n} {\ frac {(it) ^ {n}} {n!}} = \ mu it- \ sigma ^ {2} {\ frac { t ^ {2}} {2}} + \ cdots}

Преимущество H (t) - в некотором смысле функция K (t), вычисляемая для чисто мнимых аргументов - состоит в том, что E [e] хорошо определено для всех действительных значений t, даже если E [e] не определен должным образом для всех реальных значений t, например, когда существует "слишком большая" вероятность того, что X имеет большую величину. Хотя функция H (t) будет хорошо определена, она, тем не менее, будет имитировать K (t) с точки зрения длины его ряда Маклорена, который может не выходить за пределы (или, в редких случаях, даже на) линейный порядок в аргументе t и, в частности, количество хорошо определенных кумулянтов не изменится. Тем не менее, даже когда H (t) не имеет длинного ряда Маклорена, его можно использовать непосредственно при анализе и, в частности, добавлении случайных величин. И распределение Коши (также называемое лоренцевым), и в более общем плане стабильные распределения (связанные с распределением Леви) являются примерами распределений, для которых разложения производящих функций в степенной ряд имеют лишь конечное число четко определенных терминов.

Использование в статистике

Работа с кумулянтами может иметь преимущество перед использованием моментов, потому что для статистически независимых случайных величин X и Y,

KX + Y (t) = log ⁡ E ⁡ [ et (X + Y)] = log ⁡ (E ⁡ [et X] E ⁡ [et Y]) = log ⁡ E ⁡ [et X] + log ⁡ E ⁡ [et Y] = KX (t) + KY ( т), {\ Displaystyle {\ begin {выровнено} K_ {X + Y} (t) = \ log \ operatorname {E} \ left [e ^ {t (X + Y)} \ right] \\ [5pt ] = \ log \ left (\ operatorname {E} \ left [e ^ {tX} \ right] \ operatorname {E} \ left [e ^ {tY} \ right] \ right) \\ [5pt] = \ log \ operatorname {E} \ left [e ^ {tX} \ right] + \ log \ operatorname {E} \ left [e ^ {tY} \ right] \\ [5pt] = K_ {X} (t) + K_ {Y} (t), \ end {align}}}{\ displaystyle {\ begin {align} K_ {X + Y} (t) = \ log \ operatorname {E} \ left [e ^ {t ( X + Y)} \ right] \\ [5pt] = \ log \ left (\ operatorname {E} \ left [e ^ {tX} \ right] \ operatorname {E} \ left [e ^ {tY} \ right] \ right) \\ [5pt] = \ log \ operatorname {E} \ left [e ^ {tX} \ right] + \ log \ operatorname {E} \ left [e ^ {tY} \ right] \\ [5pt] = K_ {X} (t) + K_ {Y} (t), \ end {align}}}

так, чтобы каждый кумулянт суммы независимых случайных величин был суммой соответствующих кумулянтов слагаемых. То есть, когда слагаемые статистически независимы, среднее значение суммы - это сумма средних, дисперсия суммы - это сумма дисперсий, третий кумулянт (который оказывается третьим центральным моментом) суммы является суммой третьих кумулянтов и так далее для каждого порядка кумулянтов.

Распределение с заданными кумулянтами κ n можно аппроксимировать с помощью ряда Эджворта.

кумулянтов некоторых дискретных распределений вероятностей
  • Постоянные случайные величины X = μ. Кумулянтная производящая функция K (t) = μt. Первый кумулянт равен κ 1 = K '(0) = μ, а остальные кумулянты равны нулю, κ 2 = κ 3 = κ 4 =... = 0.
  • Распределения Бернулли, (количество успехов в одном испытании с вероятностью успеха p). Кумулянтная производящая функция K (t) = log (1 - p + pe). Первые кумулянты: κ 1 = K '(0) = p и κ 2 = K ′ ′ (0) = p · (1 - p). Кумулянты удовлетворяют формуле рекурсии
κ n + 1 = p (1 - p) d κ n d p. {\ displaystyle \ kappa _ {n + 1} = p (1-p) {\ frac {d \ kappa _ {n}} {dp}}.}\ kappa _ {n + 1} = p (1-p) {\ frac { d \ каппа _ {n}} {dp}}.
  • геометрические распределения, ( количество неудач перед одним успехом с вероятностью успеха p в каждом испытании). Кумулянтная производящая функция K (t) = log (p / (1 + (p - 1) e)). Первые кумулянты: κ 1 = K ′ (0) = p - 1, и κ 2 = K ′ ′ (0) = κ 1 p. Подстановка p = (μ + 1) дает K (t) = −log (1 + μ (1 − e)) и κ 1 = μ.
  • Распределения Пуассона . Кумулянтная производящая функция K (t) = μ (e - 1). Все кумулянты равны параметру: κ 1 = κ 2 = κ 3 =... = μ.
  • биномиальные распределения, (количество успешных испытаний в n независимых испытаниях с вероятностью p успеха в каждом испытании). Частный случай n = 1 - это распределение Бернулли. Каждый кумулянт просто в n раз больше соответствующего кумулянта соответствующего распределения Бернулли. Кумулянтная производящая функция K (t) = n log (1 - p + pe). Первые кумулянты: κ 1 = K ′ (0) = np и κ 2 = K ′ ′ (0) = κ 1 (1 - p). Подстановка p = μ · n дает K '(t) = ((μ - n) · e + n) и κ 1 = μ. Предельный случай n = 0 - это распределение Пуассона.
  • Отрицательные биномиальные распределения (количество неудач до r успехов с вероятностью p успеха в каждом испытании). Частный случай r = 1 - геометрическое распределение. Каждый кумулянт просто в r раз больше соответствующего кумулянта соответствующего геометрического распределения. Производная кумулянтной производящей функции равна K '(t) = r · ((1 - p) · e − 1). Первые кумулянты: κ 1 = K '(0) = r · (p − 1), и κ 2 = K' '(0) = κ 1 · стр. Подстановка p = (μ · r + 1) дает K ′ (t) = ((μ + r) e - r) и κ 1 = μ. Сравнение этих формул с формулами биномиального распределения объясняет название «отрицательное биномиальное распределение». Предельный случай r = 0 является распределением Пуассона.

Представляем отношение дисперсии к среднему

ε = μ - 1 σ 2 = κ 1 - 1 κ 2, { \ displaystyle \ varepsilon = \ mu ^ {- 1} \ sigma ^ {2} = \ kappa _ {1} ^ {- 1} \ kappa _ {2},}\ varepsilon = \ mu ^ {- 1} \ sigma ^ {2} = \ kappa _ {1} ^ {- 1} \ kappa _ {2},

вышеуказанные распределения вероятностей получают единую формулу для производная кумулянтной производящей функции:

K ′ (t) = μ ⋅ (1 + ε ⋅ (e - t - 1)) - 1. {\ displaystyle K '(t) = \ mu \ cdot (1+ \ varepsilon \ cdot (e ^ {- t} -1)) ^ {- 1}.}K'(t)=\mu \cdot (1+\varepsilon \cdot (e^{-t}-1))^{-1}.

Вторая производная:

K ″ (т) знак равно g ′ (t) ⋅ (1 + et ⋅ (ε - 1-1)) - 1 {\ displaystyle K '' (t) = g '(t) \ cdot (1 + e ^ {t} \ cdot (\ varepsilon ^ {- 1} -1)) ^ {- 1}}K''(t)=g'(t)\cdot (1+e^{t}\cdot (\varepsilon ^{-1}-1))^{-1}

подтверждающий, что первый кумулянт равен κ 1 = K ′ (0) = μ, а второй кумулянт равен κ 2 = K ′ ′ (0) = με. Постоянные случайные величины X = μ имеют ε = 0. Биномиальные распределения имеют ε = 1 - p, так что 0 < ε < 1. The Poisson distributions have ε = 1. The negative binomial distributions have ε = p so that ε>1. Обратите внимание на аналогию с классификацией конических сечений по эксцентриситету : окружности ε = 0, эллипсы 0 < ε < 1, parabolas ε = 1, hyperbolas ε>1.

Кумулянты некоторых непрерывных распределений вероятностей
Некоторые свойства кумулянтной производящей функции

Кумулянтная производящая функция K (t), если она существует, является бесконечно дифференцируемой и выпуклой, и проходит через Его первая производная монотонно изменяется в открытом интервале от инфимума до супремума носителя распределения вероятностей, а его вторая производная строго положительна везде, где она определена, кроме для град. спровоцировать распределение одной точечной массы. Кумулянт-производящая функция существует тогда и только тогда, когда хвосты распределения мажорируются экспоненциальным убыванием , то есть (см. нотация Big O )

∃ c>0, F (x) = O (e - cx), x → - ∞; и ∃ d>0, 1 - F (x) = O (e - dx), x → + ∞; {\ displaystyle {\ begin {align} \ существует c>0, \, \, F (x) = O (e ^ {- cx}), x \ to - \ infty; {\ text {and}} \\ [4pt] \ exists d>0, \, \, 1-F (x) = O (e ^ {- dx}), x \ to + \ infty; \ end {align}}}{\displaystyle {\begin{aligned}\exists c>0, \, \, F (x) = O (e ^ {- cx}), x \ to - \ infty; {\ text {and}} \\ [4pt] \ exists d>0, \, \, 1-F (x) = O (e ^ {- dx}), x \ to + \ infty; \ end {align}}}

где F {\ displaystyle F}F - кумулятивная функция распределения. Кумулянт-генерирующая функция будет иметь вертикальную асимптоту (s) в точной нижней грани такого c, если такая нижняя грань существует, и в supremum такого d, если такая верхняя грань бывший ists, иначе он будет определен для всех действительных чисел.

Если опора случайной величины X имеет конечные верхние или нижние границы, то ее кумулянт-производящая функция y = K (t), если она существует, приближается к асимптоте (s), наклон которого равен верхнему и / или нижнему пределу опоры,

y = (t + 1) inf supp ⁡ X - μ (X) и y = (t - 1) sup supp ⁡ Икс + μ (Икс), {\ Displaystyle {\ begin {align} y = (t + 1) \ inf \ operatorname {supp} X- \ mu (X), {\ text {and}} \\ [5pt ] y = (t-1) \ sup \ operatorname {supp} X + \ mu (X), \ end {align}}}{\ displaystyle {\ begin {выровнено} y = (t + 1) \ inf \ operatorname {supp} X- \ mu (X), {\ text { и}} \\ [5pt] y = (t-1) \ sup \ operatorname {supp} X + \ mu (X), \ end {align}}}

соответственно, лежащих над обеими этими линиями всюду. (интегралы

∫ - ∞ 0 [t inf supp ⁡ X - K ′ (t)] dt, ∫ ∞ 0 [t inf supp ⁡ X - K ′ (t)] dt {\ displaystyle \ int _ {- \ infty} ^ {0} \ left [t \ inf \ operatorname {supp} X-K '(t) \ right] \, dt, \ qquad \ int _ {\ infty} ^ {0} \ left [t \ inf \ operatorname {supp} X-K '(t) \ right] \, dt}{\displaystyle \int _{-\infty }^{0}\left[t\inf \operatorname {supp} X-K'(t)\right]\,dt,\qquad \int _{\infty }^{0}\left[t\inf \operatorname {supp} X-K'(t)\right]\,dt}

дают пересечения по оси y этих асимптот, поскольку K (0) = 0.)

Для сдвига распределения на c, KX + c (t) = KX (t) + ct. {\ displaystyle K_ {X + c} (t) = K_ {X} (t) + ct.}K_ {X + c} (t) = K_ {X} (t) + ct. Для вырожденной точечной массы в точке c cgf представляет собой прямую линию K c ( t) = ct {\ displaystyle K_ {c} (t) = ct}K_ {c} (t) = ct и в более общем плане KX + Y = KX + KY {\ displaystyle K_ {X + Y} = K_ { X} + K_ {Y}}K_ {X + Y} = K_ {X} + K_ {Y} тогда и только тогда, когда X и Y независимы и их cgfs существуют; (субзависимость и наличие вторых моментов, достаточных для обозначения независимости.)

естественное экспоненциальное семейство распределения может быть реализовано путем сдвига или преобразования K (t), и регулируя его по вертикали, чтобы он всегда проходил через начало координат: если f - это PDF-файл с cgf K (t) = log ⁡ M (t), {\ displaystyle K (t) = \ log M (t),}K (t) = \ l og M (t), и f | θ {\ displaystyle f | \ theta}f | \ theta - его естественное экспоненциальное семейство, тогда f (x ∣ θ) = 1 M (θ) e θ xf (x), {\ displaystyle f (x \ mid \ theta) = {\ frac {1} {M (\ theta)}} e ^ {\ theta x} f (x),}{\ displaystyle f (x \ mid \ theta) = {\ frac {1} {M (\ theta)}} e ^ {\ theta x} е (x),} и K (t ∣ θ) = К (t + θ) - K (θ). {\ displaystyle K (t \ mid \ theta) = K (t + \ theta) -K (\ theta).}{\ displaystyle K (t \ mid \ theta) = K (t + \ theta) -K (\ theta).}

Если K (t) конечно для диапазона t 1< Re(t) < t2, то если t 1< 0 < t2, то K (t) аналитична и бесконечно дифференцируема при t 1< Re(t) < t2. Более того, при t вещественных и t 1< t < t2K (t) строго выпукло, а K '(t) строго возрастает.

Некоторые свойства кумулянтов

Инвариантность и эквивариантность

Первый кумулянт - сдвиг- эквивариант ; все остальные инвариантны относительно сдвига . Это означает, что если мы обозначим через κ n (X) n-й кумулянт распределения вероятностей случайной величины X, то для любой константы c:

  • κ 1 (X + c) знак равно κ 1 (Икс) + с и {\ displaystyle \ kappa _ {1} (X + c) = \ kappa _ {1} (X) + c ~ {\ text {и}}}\ каппа _ {1} (X + c) = \ kappa _ {1} (X) + c ~ {\ text {and}}
  • κ n ( Икс + с) знак равно κ N (Икс) для п ≥ 2. {\ Displaystyle \ каппа _ {n} (X + c) = \ каппа _ {n} (X) ~ {\ text {for}} ~ n \ geq 2.}\ kappa _ {n} (X + c) = \ kappa _ {n} (X) ~ {\ text {for}} ~ n \ geq 2.

Другими словами, сдвиг случайной величины (добавление c) сдвигает первый кумулянт (среднее значение) и не влияет ни на один из остальных.

Однородность

n-й кумулянт однороден степени n, т.е. если c - любая константа, то

κ n (c X) = c n κ n (X). {\ displaystyle \ kappa _ {n} (cX) = c ^ {n} \ kappa _ {n} (X).}{ \ Displaystyle \ kappa _ {n} (cX) = c ^ {n} \ kappa _ {n} (X).}

Аддитивность

Если X и Y независимы случайные величины, то κ n (X + Y) = κ n (X) + κ n (Y).

Отрицательный результат

Учитывая результаты для кумулянтов нормального распределения, можно надеяться найти семейства распределений, для которых κ m = κ m + 1 = ⋯ = 0 для некоторого m>3, при этом кумулянты низшего порядка (от 3 до m - 1) не равны нулю. Таких раздач нет. Основной результат здесь состоит в том, что кумулянтная производящая функция не может быть полиномом конечного порядка степени выше 2.

Кумулянты и моменты

моментная производящая функция задана по:

M (t) = 1 + ∑ n = 1 ∞ μ n ′ tnn! = ехр ⁡ (∑ n = 1 ∞ κ n t n n!) = ехр ⁡ (K (t)). {\ displaystyle M (t) = 1 + \ sum _ {n = 1} ^ {\ infty} {\ frac {\ mu '_ {n} t ^ {n}} {n!}} = \ exp \ left (\ sum _ {n = 1} ^ {\ infty} {\ frac {\ kappa _ {n} t ^ {n}} {n!}} \ right) = \ exp (K (t)).}{\displaystyle M(t)=1+\sum _{n=1}^{\infty }{\frac {\mu '_{n}t^{n}}{n!}}=\exp \left(\sum _{n=1}^{\infty }{\frac {\kappa _{n}t^{n}}{n!}}\right)=\exp(K(t)).}

Таким образом, кумулянтная производящая функция является логарифмом производящей функции момента

K (t) = log ⁡ M (t). {\ displaystyle K (t) = \ log M (t).}K (t) = \ log M (t).

Первый кумулянт - это ожидаемое значение ; второй и третий кумулянты являются соответственно вторым и третьим центральными моментами (второй центральный момент - это дисперсия ); но старшие кумулянты не являются ни моментами, ни центральными моментами, а скорее более сложными полиномиальными функциями моментов.

Моменты могут быть восстановлены в терминах кумулянтов путем вычисления n-й производной от exp ⁡ (K (t)) {\ displaystyle \ exp (K (t))}\ exp (K (t)) при t = 0 {\ displaystyle t = 0}t = 0 ,

μ n ′ = M (n) (0) = dn exp ⁡ (K (t)) dtn | т = 0. {\ displaystyle \ mu '_ {n} = M ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n} \ exp (K (t))} {\ mathrm {d} t ^ {n}}} \ right | _ {t = 0}.}{\displaystyle \mu '_{n}=M^{(n)}(0)=\left.{\frac {\mathrm {d} ^{n}\exp(K(t))}{\mathrm {d} t^{n}}}\right|_{t=0}.}

Аналогичным образом, кумулянты могут быть восстановлены с точки зрения моментов, вычисляя n-ю производную от log ⁡ M ( t) {\ displaystyle \ log M (t)}\ log M (t) при t = 0 {\ displaystyle t = 0}t = 0 ,

κ n = K (n) (0) = dn log ⁡ M (t) dtn | т = 0. {\ displaystyle \ kappa _ {n} = K ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n} \ log M (t)} {\ mathrm {d} t ^ {n}}} \ right | _ {t = 0}.}{\ displaystyle \ kappa _ {n} = K ^ {(n)} (0) = \ влево. {\ frac {\ mathrm {d} ^ {n} \ log M (t)} {\ mathrm {d} t ^ {n}}} \ right | _ {t = 0}.}

Явное выражение для n-го момента в терминах первых n кумулянтов и наоборот может быть получено с помощью Формула Фаа ди Бруно для высших производных сложных функций. В общем,

μ n ′ = ∑ k = 1 n B n, k (κ 1,…, κ n - k + 1) {\ displaystyle \ mu '_ {n} = \ sum _ {k = 1} ^ {n} B_ {n, k} (\ kappa _ {1}, \ ldots, \ kappa _ {n-k + 1})}\mu '_{n}=\sum _{k=1}^{n}B_{n,k}(\kappa _{1},\ldots,\kappa _{n-k+1})
κ n = ∑ k = 1 n (- 1) к - 1 (к - 1)! В N, К (μ 1 ′,…, μ N - K + 1 ′), {\ Displaystyle \ kappa _ {n} = \ sum _ {k = 1} ^ {n} (- 1) ^ {k- 1} (k-1)! B_ {n, k} (\ mu '_ {1}, \ ldots, \ mu' _ {n-k + 1}),}{\displaystyle \kappa _{n}=\sum _{k=1}^{n}(-1)^{k-1}(k-1)!B_{n,k}(\mu '_{1},\ldots,\mu '_{n-k+1}),}

где B n, k {\ displaystyle B_ {n, k}}B _ {{n, k}} являются неполными (или частичными) полиномами Белла.

аналогичным образом, если среднее значение дается как μ {\ displaystyle \ mu}\ mu , производящая функция центрального момента задается выражением

C (t) = E ⁡ [et (x - μ)] = e - μ t M (t) = exp ⁡ (K ( т) - μ T), {\ Displaystyle С (т) = \ OperatorName {E} [е ^ {т (х- \ му)}] = е ^ {- \ му т} M (т) = \ ехр ( K (t) - \ mu t),}{\ displaystyle C (t) = \ operatorname {E} [e ^ {t (x- \ mu)}] = e ^ {- \ mu t} M (t) = \ ехр (К (т) - \ му т),}

и n-й центральный момент получается в терминах кумулянтов как

μ n = C (n) (0) = dndtn exp ⁡ (K (t) - μ t) | t = 0 = ∑ k = 1 n B n, k (0, κ 2,…, κ n - k + 1). {\ displaystyle \ mu _ {n} = C ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n}} {\ mathrm {d} t ^ {n}} } \ exp (K (t) - \ mu t) \ right | _ {t = 0} = \ sum _ {k = 1} ^ {n} B_ {n, k} (0, \ kappa _ {2}, \ ldots, \ kappa _ {n-k + 1}).}{\ displaystyle \ mu _ {n} = C ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n}} {\ mathrm {d} t ^ {n}}} \ exp (K (t) - \ mu t) \ right | _ {t = 0} = \ sum _ {k = 1} ^ {n} B_ {n, k} (0, \ kappa _ {2}, \ ldots, \ kappa _ {nk + 1}).}

Кроме того, для n>1 n-й кумулянт с точки зрения центральных моментов равен

κ n = K (n) ( 0) = dndtn (log ⁡ C (t) + μ t) | Т знак равно 0 знак равно ∑ К знак равно 1 N (- 1) К - 1 (К - 1)! B n, k (0, μ 2,…, μ n - k + 1). {\ displaystyle {\ begin {align} \ kappa _ {n} = K ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n}} {\ mathrm {d } t ^ {n}}} (\ log C (t) + \ mu t) \ right | _ {t = 0} \\ [4pt] = \ sum _ {k = 1} ^ {n} (- 1) ^ {k-1} (k-1)! B_ {n, k} (0, \ mu _ {2}, \ ldots, \ mu _ {n-k + 1}). \ End {align} }}{\ displaystyle {\ begin {align} \ kappa _ {n} = K ^ {(n)} (0) = \ left. {\ frac {\ mathrm {d} ^ {n}} {\ mathrm {d} t ^ {n}}} (\ log C (t) + \ mu t) \ right | _ {t = 0} \\ [4pt] = \ sum _ {k = 1} ^ {n} (- 1) ^ {k-1} (k-1)! B_ {n, k} (0, \ mu _ {2}, \ ldots, \ mu _ {n-k + 1}). \ End {align}}}

n-й момент μ′nявляется полиномом n-й степени от первых n кумулянтов. Первые несколько выражений:

μ 1 ′ = κ 1 μ 2 ′ = κ 2 + κ 1 2 μ 3 ′ = κ 3 + 3 κ 2 κ 1 + κ 1 3 μ 4 ′ = κ 4 + 4 κ. 3 κ 1 + 3 κ 2 2 + 6 κ 2 κ 1 2 + κ 1 4 μ 5 ′ = κ 5 + 5 κ 4 κ 1 + 10 κ 3 κ 2 + 10 κ 3 κ 1 2 + 15 κ 2 2 κ 1 + 10 κ 2 κ 1 3 + κ 1 5 μ 6 ′ = κ 6 + 6 κ 5 κ 1 + 15 κ 4 κ 2 + 15 κ 4 κ 1 2 + 10 κ 3 2 + 60 κ 3 κ 2 κ 1 + 20 κ 3 κ 1 3 + 15 κ 2 3 + 45 κ 2 2 κ 1 2 + 15 κ 2 κ 1 4 + κ 1 6. {\ displaystyle {\ begin {align} \ mu '_ {1} = {} \ kappa _ {1} \\ [5pt] \ mu' _ {2} = {} \ kappa _ {2} + \ каппа _ {1} ^ {2} \\ [5pt] \ mu '_ {3} = {} \ kappa _ {3} +3 \ kappa _ {2} \ kappa _ {1} + \ kappa _ { 1} ^ {3} \\ [5pt] \ mu '_ {4} = {} \ kappa _ {4} +4 \ kappa _ {3} \ kappa _ {1} +3 \ kappa _ {2} ^ {2} +6 \ kappa _ {2} \ kappa _ {1} ^ {2} + \ kappa _ {1} ^ {4} \\ [5pt] \ mu '_ {5} = {} \ каппа _ {5} +5 \ каппа _ {4} \ каппа _ {1} +10 \ каппа _ {3} \ каппа _ {2} +10 \ каппа _ {3} \ каппа _ {1} ^ {2 } +15 \ каппа _ {2} ^ {2} \ каппа _ {1} +10 \ каппа _ {2} \ каппа _ {1} ^ {3} + \ каппа _ {1} ^ {5} \\ [5pt] \ mu '_ {6} = {} \ kappa _ {6} +6 \ kappa _ {5} \ kappa _ {1} +15 \ kappa _ {4} \ kappa _ {2} +15 \ каппа _ {4} \ каппа _ {1} ^ {2} +10 \ каппа _ {3} ^ {2} +60 \ каппа _ {3} \ каппа _ {2} \ каппа _ {1} +20 \ каппа _ {3} \ каппа _ {1} ^ {3} \\ {} + 15 \ каппа _ {2} ^ {3} +45 \ каппа _ {2} ^ {2} \ каппа _ {1 } ^ {2} +15 \ kappa _ {2} \ kappa _ {1} ^ {4} + \ kappa _ {1} ^ {6}. \ End {align}}}{\displaystyle {\begin{aligned}\mu '_{1}={}\kappa _{1}\\[5pt]\mu '_{2}={}\kappa _{2}+\kappa _{1}^{2}\\[5pt]\mu '_{3}={}\kappa _{3}+3\kappa _{2}\kappa _{1}+\kappa _{1}^{3}\\[5pt]\mu '_{4}={}\kappa _{4}+4\kappa _{3}\kappa _{1}+3\kappa _{2}^{2}+6\kappa _{2}\kappa _{1}^{2}+\kappa _{1}^{4}\\[5pt]\mu '_{5}={}\kappa _{5}+5\kappa _{4}\kappa _{1}+10\kappa _{3}\kappa _{2}+10\kappa _{3}\kappa _{1}^{2}+15\kappa _{2}^{2}\kappa _{1}+10\kappa _{2}\kappa _{1}^{3}+\kappa _{1}^{5}\\[5pt]\mu '_{6}={}\kappa _{6}+6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+15\kappa _{4}\kappa _{1}^{2}+10\kappa _{3}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+20\kappa _{3}\kappa _{1}^{3}\\{}+15\kappa _{2}^{3}+45\kappa _{2}^{2}\kappa _{1}^{2}+15\kappa _{2}\kappa _{1}^{4}+\kappa _{1}^{6}.\end{aligned}}}

«Штрих» отличает моменты μ ′ n из центральных моментов μn. Чтобы выразить центральные моменты как функции кумулянтов, просто исключите из этих многочленов все члены, в которых κ 1 появляется как множитель:

μ 1 = 0 μ 2 = κ 2 μ 3 = κ 3 μ 4 = κ 4 + 3 κ 2 2 μ 5 = κ 5 + 10 κ 3 κ 2 μ 6 = κ 6 + 15 κ 4 κ 2 + 10 κ 3 2 + 15 κ 2 3. {\ Displaystyle {\ begin {align} \ mu _ {1} = 0 \\ [4pt] \ mu _ {2} = \ kappa _ {2} \\ [4pt] \ mu _ {3} = \ kappa _ {3} \\ [4pt] \ mu _ {4} = \ kappa _ {4} +3 \ kappa _ {2} ^ {2} \\ [4pt] \ mu _ {5} = \ kappa _ {5} +10 \ kappa _ {3} \ kappa _ {2} \\ [4pt] \ mu _ {6} = \ kappa _ {6} +15 \ kappa _ {4} \ kappa _ {2} +10 \ kappa _ {3} ^ {2} +15 \ kappa _ {2} ^ {3}. \ End {align}}}{\ displaystyle {\ begin {align} \ mu _ {1} = 0 \\ [4pt] \ mu _ {2} = \ kappa _ {2} \\ [4pt] \ mu _ {3} = \ kappa _ {3} \\ [4pt] \ mu _ {4} = \ kappa _ {4} +3 \ kappa _ {2} ^ {2} \\ [4pt] \ mu _ {5} = \ kappa _ {5} +10 \ kappa _ { 3} \ kappa _ {2} \\ [4pt] \ mu _ {6} = \ kappa _ {6} +15 \ kappa _ {4} \ kappa _ {2} +10 \ kappa _ {3} ^ {2} +15 \ каппа _ {2} ^ {3}. \ end {align}}}

Аналогично n-й кумулянт κ n - многочлен n-й степени от первых n нецентральных моментов. Первые несколько выражений:

κ 1 = μ 1 ′ κ 2 = μ 2 ′ - μ 1 ′ 2 κ 3 = μ 3 ′ - 3 μ 2 ′ μ 1 ′ + 2 μ 1 ′ 3 κ 4 = μ 4 ′ - 4 μ 3 ′ μ 1 ′ - 3 μ 2 ′ 2 + 12 μ 2 ′ μ 1 ′ 2 - 6 μ 1 ′ 4 κ 5 = μ 5 ′ - 5 μ 4 ′ μ 1 ′ - 10 μ 3 ′ μ 2 ′ + 20 μ 3 ′ μ 1 ′ 2 + 30 μ 2 ′ 2 μ 1 ′ - 60 μ 2 ′ μ 1 ′ 3 + 24 μ 1 ′ 5 κ 6 = μ 6 ′ - 6 μ 5 ′ μ 1 ′ - 15 μ 4 ′ μ 2 ′ + 30 μ 4 ′ μ 1 ′ 2 - 10 μ 3 ′ 2 + 120 μ 3 ′ μ 2 ′ μ 1 ′ - 120 μ 3 ′ μ 1 ′ 3 + 30 μ 2 ′ 3 - 270 μ 2 ′ 2 μ 1 ′ 2 + 360 μ 2 ′ μ 1 ′ 4 - 120 μ 1 ′ 6 {\ displaystyle {\ begin {align} \ kappa _ {1} = {} \ mu '_ {1} \\ [4pt] \ kappa _ {2} = {} \ mu '_ {2} - {\ mu' _ {1}} ^ {2} \\ [4pt] \ kappa _ {3} = {} \ mu '_ {3} -3 \ mu' _ {2} \ mu '_ {1} +2 {\ mu' _ {1}} ^{3} \\ [4pt] \ kappa _ {4} = {} \ mu '_ {4} -4 \ mu' _ {3} \ mu '_ {1} -3 {\ mu' _ {2 }} ^ {2} +12 \ mu '_ {2} {\ mu' _ {1}} ^ {2} -6 {\ mu '_ {1}} ^ {4} \\ [4pt] \ kappa _ {5} = {} \ mu '_ {5} -5 \ mu' _ {4} \ mu '_ {1} -10 \ mu' _ {3} \ mu '_ {2} +20 \ mu '_ {3} {\ mu' _ {1}} ^ {2} +30 {\ mu '_ {2}} ^ {2} \ mu' _ {1} -60 \ mu '_ {2} {\ mu '_ {1}} ^ {3} + 24 {\ mu' _ {1}} ^ {5} \\ [4pt] \ kappa _ {6} = {} \ mu '_ {6} -6 \ mu '_ {5} \ mu' _ {1} -15 \ mu '_ {4} \ mu' _ {2} +30 \ mu '_ {4} {\ mu' _ {1}} ^ {2} -10 {\ mu '_ {3}} ^ {2} +120 \ mu' _ {3} \ mu '_ {2} \ mu' _ {1} \\ {} - 120 \ mu '_ {3} {\ mu' _ {1}} ^ {3} +30 {\ mu '_ {2}} ^ {3} -270 {\ mu' _ {2}} ^ {2} { \ mu '_ {1}} ^ {2} +360 \ mu' _ {2} {\ mu '_ {1}} ^ {4} -120 {\ mu' _ {1}} ^ {6} \ end {align}}}{\displaystyle {\begin{aligned}\kappa _{1}={}\mu '_{1}\\[4pt]\kappa _{2}={}\mu '_{2}-{\mu '_{1}}^{2}\\[4pt]\kappa _{3}={}\mu '_{3}-3\mu '_{2}\mu '_{1}+2{\mu '_{1}}^{3}\\[4pt]\kappa _{4}={}\mu '_{4}-4\mu '_{3}\mu '_{1}-3{\mu '_{2}}^{2}+12\mu '_{2}{\mu '_{1}}^{2}-6{\mu '_{1}}^{4}\\[4pt]\kappa _{5}={}\mu '_{5}-5\mu '_{4}\mu '_{1}-10\mu '_{3}\mu '_{2}+20\mu '_{3}{\mu '_{1}}^{2}+30{\mu '_{2}}^{2}\mu '_{1}-60\mu '_{2}{\mu '_{1}}^{3}+24{\mu '_{1}}^{5}\\[4pt]\kappa _{6}={}\mu '_{6}-6\mu '_{5}\mu '_{1}-15\mu '_{4}\mu '_{2}+30\mu '_{4}{\mu '_{1}}^{2}-10{\mu '_{3}}^{2}+120\mu '_{3}\mu '_{2}\mu '_{1}\\{}-120\mu '_{3}{\mu '_{1}}^{3}+30{\mu '_{2}}^{3}-270{\mu '_{2}}^{2}{\mu '_{1}}^{2}+360\mu '_{2}{\mu '_{1}}^{4}-120{\mu '_{1}}^{6}\end{aligned}}}

Чтобы выразить кумулянты κ n для n>1 как функции центральных моментов, исключите из этих многочленов все члены, в μ '1 выступают в качестве которых множителя:

κ 2 = μ 2 {\ displaystyle \ k appa _ {2} = \ му _ {2} \,}\ kappa _ {2} = \ му _ {2} \,
κ 3 = μ 3 {\ displaystyle \ kappa _ {3} = \ mu _ {3} \,}\ kappa _ {3} = \ mu _ {3} \,
κ 4 = μ 4 - 3 μ 2 2 {\ displaystyle \ kappa _ {4} = \ mu _ {4} -3 {\ mu _ {2}} ^ {2} \,}\ kappa _ {4} = \ mu _ {4} -3 {\ mu _ {2}} ^ {2} \,
κ 5 = μ 5 - 10 μ 3 μ 2 {\ displaystyle \ kappa _ {5} = \ mu _ {5} -10 \ mu _ {3} \ mu _ {2} \,}\ kappa _ {5} = \ mu _ {5} -10 \ mu _ {3} \ mu _ {2} \,
κ 6 = μ 6 - 15 μ 4 μ 2 - 10 μ 3 2 + 30 μ 2 3. {\ displaystyle \ kappa _ {6} = \ mu _ {6} -15 \ mu _ {4} \ mu _ {2} -10 {\ mu _ {3}} ^ {2} +30 {\ mu _ {2}} ^ {3} \,.}\ kappa _ {6} = \ mu _ {6} -15 \ mu _ {4} \ mu _ {2} -10 {\ mu _ {3}} ^ {2} +30 {\ mu _ {2}} ^ {3} \,.

Чтобы выразить кумулянты κ n для n>2 как функции от стандартизованных центральных моментов, также установите μ '2 = 1 в полиномах:

κ 3 = μ 3 {\ displaystyle \ kappa _ {3} = \ mu _ {3} \,}\ kappa _ {3} = \ mu _ {3} \,
κ 4 = μ 4 - 3 {\ Displaystyle \ каппа _ {4} = \ му _ {4} -3 \,}\ kappa _ {4} = \ mu _ {4} -3 \,
κ 5 = μ 5 - 10 μ 3 {\ displaystyle \ kappa _ {5} = \ му _ {5} -10 \ му _ {3} \,}\ kappa _ {5} = \ mu _ {5} -10 \ mu _ {3} \,
κ 6 = μ 6 - 15 μ 4 - 10 μ 3 2 + 30. {\ displaystyle \ kappa _ {6} = \ mu _ { 6} -15 \ mu _ {4} -10 {\ mu _ {3}} ^ {2} +30 \,.}\ kappa _ {6} = \ mu _ {6} -15 \ mu _ {4} -10 {\ mu _ {3}} ^ {2} +30 \,.

Кумулянты также связ аны с моментами следующая формулой рекурсии :

κ n = μ n ′ - ∑ m = 1 n - 1 (n - 1 m) κ m μ n - м '. {\ displaystyle \ kappa _ {n} = \ mu '_ {n} - \ sum _ {m = 1} ^ {n-1} {n-1 \ select m} \ kappa _ {m} \ mu _ { nm} '.}{\displaystyle \kappa _{n}=\mu '_{n}-\sum _{m=1}^{n-1}{n-1 \choose m}\kappa _{m}\mu _{n-m}'.}

Кумулянты и разбиения множеств

Эти многочлены имеют замечательную комбинаторную интерпретацию: коэффициенты подсчитывают превосход разбиения множеств. Общий вид этих многочленов:

μ n ′ = ∑ π ∈ Π ∏ B ∈ π κ | B | {\ displaystyle \ mu '_ {n} = \ sum _ {\ pi \, \ in \, \ Pi} \ prod _ {B \, \ in \, \ pi} \ kappa _ {| B |}}{\displaystyle \mu '_{n}=\sum _{\pi \,\in \,\Pi }\prod _{B\,\in \,\pi }\kappa _{|B|}}

, где

  • π пробегает список всех разделов набора размера n;
  • «B ∈ π» означает, что B является одним из «блоков», на который разбивается набор; и
  • | B | - размер множества B.

Таким образом, каждый моном представляет собой постоянное произведение кумулянтов, в котором сумма индексов равна n (например, в члене κ 3κ2κ1сумма индексов составляет 3 + 2 + 2 + 1 = 8; это появляется в полиноме, который выражает 8-й момент как функцию первых восьми кумулянтов). Каждому члену соответствует раздел целого числа n. Коэффициент в каждом члене - это количество разделов набора из n элементов, которые сворачиваются в раздел с целым числом n, когда элементы набора становятся неразличимыми.

Кумулянты и комбинаторика

Дальнейшую связь между кумулянтами и комбинаторикой можно найти в работе Джан-Карло Рота, где ссылки на теорию инвариантов, симметричные функции и биномиальные параметры изучаются с помощью умбрального исчисления.

совместных кумулянтов

совместных кумулянтов нескольких случайныхин X 1,..., X n определяется аналогичной кумулянтной производящей функцией

K (t 1, t 2,…, tn) = log ⁡ E (e ∑ j = 1 ntj X j). {\ Displaystyle К (т_ {1}, т_ {2}, \ точки, t_ {п}) = \ журнал E (\ mathrm {e} ^ {\ сумма _ {j = 1} ^ {n} t_ {j } X_ {j}}).}K (t_ {1}, t_ {2}, \ dots, t_ {n}) = \ log E (\ mathrm {e} ^ {\ sum _ {j = 1} ^ {n} t_ {j} X_ {j}}).

Следовательно,

κ (X 1,…, X n) = ∑ π (| π | - 1)! (- 1) | π | - 1 ∏ В ∈ π E (∏ я ∈ BX я) {\ Displaystyle \ каппа (X_ {1}, \ точки, X_ {п}) = \ сумма _ {\ пи} (| \ пи | -1)! (-1) ^ {| \ пи | -1} \ prod _ {B \ in \ pi} E \ left (\ prod _ {i \ in B} X_ {i} \ right)}\ kappa (X_ {1}, \ dots, X_ {n}) = \ sum _ {\ pi} (| \ pi | -1)! (- 1) ^ {| \ pi | -1} \ prod _ {B \ in \ pi} E \ left (\ prod _ {я \ in B} X_ {i} \ right)

где π запускается по списку всех разбиений {1,..., n}, B проходит по списку всех блоков разбиения π, и | π | количество частей в разделе. Например,

κ (X, Y, Z) = E ⁡ (XYZ) - E ⁡ (XY) E ⁡ (Z) - E ⁡ (XZ) E ⁡ (Y) - E ⁡ (YZ) E ⁡ ( X) + 2 E ⁡ (X) E ⁡ (Y) E ⁡ (Z). {\ displaystyle \ kappa (X, Y, Z) = \ operatorname {E} (XYZ) - \ operatorname {E} (XY) \ operatorname {E} (Z) - \ operatorname {E} (XZ) \ operatorname { E} (Y) - \ operatorname {E} (YZ) \ operatorname {E} (X) +2 \ operatorname {E} (X) \ operatorname {E} (Y) \ operatorname {E} (Z). \,}{\ displaystyle \ kappa (X, Y, Z) = \ operatorname {E} (XYZ) - \ operatorname {E} (XY) \ operatorname { E} (Z) - \ operatorname {E} (XZ) \ operatorname {E} (Y) - \ operatorname {E} (YZ) \ operatorname {E} (X) +2 \ operatorname {E} (X) \ имя оператора {E} (Y) \ имя оператора {E} (Z). \,}

Если какие-либо из этих случайных величин идентичны, например, если X = Y, то применяются формулы же, например

κ (X, X, Z) = E ⁡ (X 2 Z) - 2 E ⁡ (XZ) E ⁡ (X) - E ⁡ (X 2) E ⁡ (Z) + 2 E (X) 2 E ⁡ (Z), {\ displaystyle \ kappa (X, X, Z) = \ operatorname {E} (X ^ {2} Z) -2 \ operatorname {E} (XZ) \ operatorname {E} (X) - \ operatorname {E} (X ^ {2}) \ operatorname {E} (Z) +2 \ operatorname {E} (X) ^ {2} \ operatorname {E} (Z), \,}{\ displaystyle \ kappa (X, X, Z) = \ operatorname {E} (X ^ {2} Z) -2 \ operatorname {E} (XZ) \ operatorname {E} (X) - \ OperatorName {E} (X ^ {2}) \ operatorname {E} (Z) +2 \ operatorname {E} (X) ^ {2} \ operatorname {E} (Z), \,}

хотя для таких повторяющихся чисел есть более лаконичные формулы. Для случайных векторов с нулевым средним

κ (X, Y, Z) = E ⁡ (X Y Z). {\ Displaystyle \ каппа (X, Y, Z) = \ OperatorName {E} (XYZ). \,}{\ displaystyle \ kappa (X, Y, Z) = \ operatorname {E} (XYZ). \,}
κ (X, Y, Z, W) = E ⁡ (XYZW) - E ⁡ (XY) E ⁡ (ZW) - E ⁡ (XZ) E ⁡ (YW) - E ⁡ (XW) E ⁡ (YZ). {\ displaystyle \ kappa (X, Y, Z, W) = \ operatorname {E} (XYZW) - \ operatorname {E} (XY) \ operatorname {E} (ZW) - \ operatorname {E} (XZ) \ OperatorName {E} (YW) - \ operatorname {E} (XW) \ operatorname {E} (YZ). \,}{\ displaystyle \ kappa (X, Y, Z, W) = \ operatorname {E} (XYZW) - \ operatorname {E} (XY) \ operatorname {E} (ZW) - \ operatorname {E} (XZ) \ operatorname {E} (YW) - \ operatorname {E} (XW) \ operatorname {E} (YZ). \,}

Совокупный кумулянт только одной случайной величиной является ее математическим ожиданием и величиной их двух случайных величин это ковариация. Если некоторые из случайных величин независимы от всех других, то любой кумулянт, включающий две (или более) независимых случайных величин, равенство нулю. Если все n случайных величин одинаковы, то объединенный кумулянт является n-м обычным кумулянтом.

Комбинаторный смысл выражения моментов через кумулянты легче понять, чем кумулянтов через моменты:

E ⁡ (X 1 ⋯ X n) = ∑ π ∏ B ∈ π κ (X i: i ∈ B). {\ displaystyle \ operatorname {E} (X_ {1} \ cdots X_ {n}) = \ sum _ {\ pi} \ prod _ {B \ in \ pi} \ kappa (X_ {i}: i \ in B).}{\ displaystyle \ operatorname {E} (X_ {1} \ cdots X_ {n}) = \ sum _ {\ pi} \ prod _ {B \ in \ pi} \ kappa (X_ {i}: i \ in B).}

Например:

E ⁡ (XYZ) = κ (X, Y, Z) + κ (X, Y) κ (Z) + κ (X, Z) κ (Y) + κ ( Y, Z) κ (X) + κ (X) κ (Y) κ (Z). {\ Displaystyle \ OperatorName {E} (XYZ) = \ каппа (X, Y, Z) + \ каппа (X, Y) \ каппа (Z) + \ каппа (X, Z) \ каппа (Y) + \ каппа (Y, Z) \ каппа (X) + \ каппа (X) \ каппа (Y) \ каппа (Z). \,}{\ displaystyle \ operatorname {E} (XYZ) = \ kappa (X, Y, Z) + \ каппа (X, Y) \ каппа (Z) + \ каппа (X, Z) \ каппа (Y) + \ каппа (Y, Z) \ каппа (X) + \ каппа (X) \ каппа (Y) \ каппа (Z). \,}

Еще одним важным свойством совместных кумулянтов является полилинейность:

κ (X + Y, Z 1, Z 2,…) = κ (X, Z 1, Z 2,…) + κ (Y, Z 1, Z 2,…). {\ Displaystyle \ каппа (Икс + Y, Z_ {1}, Z_ {2}, \ точки) = \ каппа (Х, Z_ {1}, Z_ {2}, \ ldots) + \ каппа (Y, Z_ { 1}, Z_ {2}, \ ldots). \,}{\ displaystyle \ kappa (X + Y, Z_ {1}, Z_ {2}, \ dots) = \ kappa (X, Z_ {1}, Z_ {2}, \ ldots) + \ kappa (Y, Z_ {1}, Z_ {2}, \ ldots). \,}

Подобно тому, как второй кумулянт - это дисперсия, совместный кумулянт всего двух случайных величин - это ковариация. Знакомая сущность

var ⁡ (X + Y) = var ⁡ (X) + 2 cov ⁡ (X, Y) + var ⁡ (Y) {\ displaystyle \ operatorname {var} (X + Y) = \ operatorname { var} (X) +2 \ operatorname {cov} (X, Y) + \ operatorname {var} (Y) \,}{\ displaystyle \ operatorname {var} (X + Y) = \ operatorname {var} (X) +2 \ operatorname {cov} (X, Y) + \ OperatorName {var} (Y) \,}

обобщается на кумулянты:

κ n (X + Y) = ∑ j = 0 n (nj) κ (X,…, X ⏟ j, Y,…, Y ⏟ n - j). {\ displaystyle \ kappa _ {n} (X + Y) = \ sum _ {j = 0} ^ {n} {n \ select j} \ kappa (\, \ underbrace {X, \ dots, X} _ { j}, \ underbrace {Y, \ dots, Y} _ {nj} \,). \,}{\ displaystyle \ kappa _ {n} (X + Y) = \ sum _ {j = 0} ^ {n} {n \ выберите j} \ kappa (\, \ underbrac е {X, \ точки, X} _ {j}, \ underbrace {Y, \ dots, Y} _ {nj} \,). \,}

Условные кумулянты и закон общей кумулянты

Закон общего ожидания и закон полной дисперсии естественным образом обобщаются на условные кумулянты. Случай n = 3, выраженный на языке (центральных) моментов, не на языке кумулянтов, говорит, что

μ 3 (X) = E ⁡ (μ 3 (X ∣ Y)) + μ 3 (E ⁡ (X ∣ Y)) + 3 cov ⁡ (E ⁡ (X ∣ Y), var ⁡ (X ∣ Y)). {\ displaystyle \ mu _ {3} (X) = \ operatorname {E} (\ mu _ {3} (X \ mid Y)) + \ mu _ {3} (\ operatorname {E} (X \ mid Y)))) + 3 \ operatorname {cov} (\ operatorname {E} (X \ mid Y), \ operatorname {var} (X \ mid Y)).}{\ displaystyle \ mu _ {3} (X) = \ operatorname {E} (\ mu _ {3} (X \ mid Y)) + \ mu _ {3} (\ operatorname {E} (X \ mid Y)) + 3 \ operatorname {cov} (\ operatorname {E} (X \ mid Y), \ operatorname {var} (X \ середина Y)).}

В общем,

κ (X 1,…, Икс N) знак равно ∑ π κ (κ (Икс π 1 ∣ Y),…, κ (X π b ∣ Y)) {\ displaystyle \ kappa (X_ {1}, \ dots, X_ {n})) = \ sum _ {\ pi} \ kappa (\ kappa (X _ {\ pi _ {1}} \ mid Y), \ dots, \ kappa (X _ {\ pi _ {b}} \ mid Y))}{\ displaystyle \ kappa (X_ {1}, \ dots, X_ {n}) = \ сумма _ {\ pi} \ kappa (\ kappa (X _ {\ pi _ {1}} \ mid Y), \ dots, \ kappa (X _ {\ pi _ {b}} \ mid Y))}

где

  • сумма берется по всем разбиениям π набора {1,..., n} индексов, и
  • π1,..., π b - все «блоки» разбиения π; выражение κ (X πm) указывает, что совокупный кумулянт случайных величин, индексы которых находятся в этом блоке разбиения.
Отношение к статистической физике

В статистической физике многие обширные количества - то есть количества, которые пропорциональны объему или размеру данной системы - связаны к кумулянтам случайных величин. Глубокая связь заключается в том, что в большой системе такая обширная величина, как энергия или количество частиц, может рассматриваться как сумма (скажем) энергии, связанной с рядом почти независимых областей. Тот факт, что кумулянты этих почти независимых случайных величин будут (почти) складываться, делает разумным предположение, что большие количества должны быть связаны с кумулянтами.

Система, находящаяся в равновесии с термостатом при температуре T, имеет флуктуирующую внутреннюю энергию E, которую можно рассматривать как случайную величину, взятую из распределения E ∼ p (E) {\ displaystyle E \ sim p (E)}{\ displaystyle E \ sim p (E)} . статистическая сумма системы:

Z (β) = ⟨exp ⁡ (- β E)⟩, {\ displaystyle Z (\ beta) = \ langle \ exp (- \ beta E) \ rangle, \,}Z (\ beta) = \ langle \ exp (- \ beta E) \ rangle, \,

где β = 1 / (kT), а k - постоянная Больцмана и запись ⟨A⟩ {\ displaystyle \ langle A \ rangle}\ langle A \ rangle был использован вместо E ⁡ [A] {\ displaystyle \ operatorname {E} [A]}{\ displaystyle \ operatorname {E} [A]} для математического ожидания, чтобы избежать путаницы с энергией, E. Следовательно, первый и второй кумулянты для энергии E дают среднюю энергию и теплоемкость.

⟨E⟩ c = ∂ журнал ⁡ Z ∂ (- β) = ⟨E⟩ {\ displaystyle \ langle E \ rangle _ {c} = {\ frac {\ partial \ log Z} {\ partial (- \ бета)}} = \ langle E \ rangle}{\ displaystyle \ langle E \ rangle _ {c} = {\ frac {\ partial \ log Z} {\ partial (- \ beta)}} = \ langle E \ rangle}
⟨E 2⟩ c = ∂ ⟨E⟩ c ∂ (- β) = k T 2 ∂ ⟨E⟩ ∂ T = k T 2 C {\ displaystyle \ langle E ^ {2} \ rangle _ {c} = {\ frac {\ partial \ langle E \ rangle _ {c}} {\ partial (- \ beta)}} = kT ^ {2} {\ frac {\ partial \ langle E \ rangle} {\ partial T}} = kT ^ {2} C}{\ displaystyle \ langle E ^ {2 } \ rangle _ {c} = {\ frac {\ partial \ langle E \ rangle _ {c}} {\ partial (- \ beta)}} = kT ^ {2} {\ frac {\ partial \ langle E \ rangle} {\ partial T}} = kT ^ {2} C}

свободная энергия Гельмгольца, выраженная через

F (β) = - β - 1 log ⁡ Z (β) {\ displaystyle F (\ beta) = - \ beta ^ {- 1} \ log Z (\ beta) \,}{\ displaystyle F (\ beta) = - \ beta ^ {- 1} \ log Z (\ beta) \,}

дополнительно связывает термодинамические величины с кумулянтной производящей функцией для энергии. Термодинамические свойства, которые являются производными от свободной энергии, такие как ее внутренняя энергия, энтропия и удельная теплоемкость, все могут быть легко выражены через эти кумулянты. Другая свободная энергия может быть функцией других переменных, таких как магнитное поле или химический потенциал μ {\ displaystyle \ mu}\ mu , например

Ом знак равно - β - 1 журнал ⁡ (⟨ехр ⁡ (- β E - β μ N)⟩), {\ displaystyle \ Omega = - \ beta ^ {- 1} \ log (\ langle \ exp (- \ beta E- \ beta \ mu N) \ rangle), \,}{\ displaystyle \ Omega = - \ beta ^ {- 1} \ log (\ langle \ exp (- \ beta E- \ beta \ mu N) \ rangle), \,}

где N - количество частиц, а Ω {\ displaystyle \ Omega}\ Omega - великий потенциал. Опять же, тесная взаимосвязь между определением свободной энергии и кумулянтной производящей функцией подразумевает, что различные производные этой свободной энергии могут быть записаны в терминах совместных кумулянтов E и N. История кумулянтов обсуждается Андерсом Халдом.

Кумулянты были впервые представлены Торвальдом Н. Тиле в 1889 году, который назвал их полуинвариантами. Впервые они были названы кумулянтами в статье 1932 года Рональда Фишера и Джона Уишарта. Фишеру о работе Тиле публично напомнил Нейман, который также отмечает ранее опубликованные цитаты Тиле, доведенные до сведения Фишера. Стивен Стиглер сказал, что название кумулянт было предложено Фишеру в письме от Гарольда Хотеллинга.. В статье, опубликованной в 1929 году, Фишер назвал их функциями кумулятивного момента. Статистическая сумма в статистической физике была введена Джозией Уиллардом Гиббсом в 1901 году. Свободную энергию часто называют свободной энергией Гиббса. В статистической механике кумулянты также известны как функции Урселла, относящиеся к публикации 1927 года.

Кумулянты в обобщенных параметрах настройки

Формальные кумулянты

В более общем смысле, кумулянты последовательности {m n : n = 1, 2, 3,...}, не обязательно моменты любого распределения вероятностей, по определению, являются

1 + ∑ N знак равно 1 ∞ mntnn! знак равно ехр ⁡ (∑ N = 1 ∞ κ ntnn!), {\ displaystyle 1+ \ sum _ {n = 1} ^ {\ infty} {\ frac {m_ {n} t ^ {n}} {n!} } = \ exp \ left (\ sum _ {n = 1} ^ {\ infty} {\ frac {\ kappa _ {n} t ^ {n}} {n!}} \ right),}{\ displaystyle 1+ \ sum _ {n = 1} ^ {\ infty} {\ frac {m_ {n} t ^ {n}} {n!}} = \ Exp \ left (\ sum _ {n = 1} ^ { \ infty} {\ frac {\ kappa _ {n} t ^ {n}} {n!}} \ right),}

где значения κ n для n = 1, 2, 3,... находят формально, т. е. только с помощью алгебры, не обращая внимания на вопросы о том, сходится ли какой-либо ряд. При формальной работе все трудности «проблемы кумулянтов» отсутствуют. Самый простой пример - второй кумулянт распределения вероятностей всегда должен быть неотрицательным и равен нулю, только если все старшие кумулянты равны нулю. На формальные кумулянты такие ограничения не распространяются.

Bell-числа

В комбинаторике n-ое Bell-число - это количество разделов набора размера n. Все кумулянты последовательности чисел Белла равны 1. Числа Белла - это моменты распределения Пуассона с ожидаемым значением 1.

Кумулянты полиномиальной последовательности биномиального типа

Для любой последовательности {κ n : n = 1, 2, 3,...} скаляров в поле нулевой характеристики, считающимися формальными кумулянтами, там - соответствующая последовательность {μ ′: n = 1, 2, 3,... } формальных моментов, заданных полиномами выше. Для этих полиномов постройте последовательность полиномов следующим образом. Из полинома

μ 6 ′ = κ 6 + 6 κ 5 κ 1 + 15 κ 4 κ 2 + 15 κ 4 κ 1 2 + 10 κ 3 2 + 60 κ 3 κ 2 κ 1 + 20 κ 3 κ 1 3 + 15 κ 2 3 + 45 κ 2 2 κ 1 2 + 15 κ 2 κ 1 4 + κ 1 6 {\ displaystyle {\ begin {align} \ mu '_ {6} = {} \ kappa _ {6} +6 \ каппа _ {5} \ каппа _ {1} +15 \ каппа _ {4} \ каппа _ {2} +15 \ каппа _ {4} \ каппа _ {1} ^ {2} +10 \ каппа _ {3} ^ {2} +60 \ каппа _ {3} \ каппа _ {2} \ каппа _ {1} +20 \ каппа _ {3} \ каппа _ {1} ^ {3} \\ { } + 15 \ каппа _ {2} ^ {3} +45 \ каппа _ {2} ^ {2} \ каппа _ {1} ^ {2} +15 \ каппа _ {2} \ каппа _ {1} ^ {4} + \ kappa _ {1} ^ {6} \ end {align}}}{\displaystyle {\begin{aligned}\mu '_{6}={}\kappa _{6}+6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+15\kappa _{4}\kappa _{1}^{2}+10\kappa _{3}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+20\kappa _{3}\kappa _{1}^{3}\\{}+15\kappa _{2}^{3}+45\kappa _{2}^{2}\kappa _{1}^{2}+15\kappa _{2}\kappa _{1}^{4}+\kappa _{1}^{6}\end{aligned}}}

создать новый многочлен в них плюс одна дополнительная переменная x:

p 6 (x) = κ 6 x + (6 κ 5 κ 1 + 15 κ 4 κ 2 + 10 κ 3 2) x 2 + (15 κ 4 κ 1 2 + 60 κ 3 κ 2 κ 1 + 15 κ 2 3) x 3 + (45 κ 2 2 κ 1 2) Икс 4 + (15 κ 2 κ 1 4) Икс 5 + (κ 1 6) Икс 6, {\ Displaystyle {\ begin {align} p_ {6} (x) = {} \ kappa _ {6} \, х + (6 \ каппа _ {5} \ каппа _ {1} +15 \ каппа _ {4} \ каппа _ {2} +10 \ каппа _ {3} ^ {2}) \, x ^ {2} + (15 \ каппа _ {4} \ каппа _ {1} ^ {2} +60 \ каппа _ {3} \ каппа _ {2} \ каппа _ {1} +15 \ каппа _ { 2} ^ {3}) \, x ^ {3} \\ {} + (45 \ kappa _ {2} ^ {2} \ kappa _ {1} ^ {2}) \, x ^ {4} + (15 \ каппа _ {2} \ каппа _ {1} ^ {4}) \, x ^ {5} + (\ kappa _ {1} ^ {6}) \, x ^ {6}, \ end {align}}}{\ displaystyle {\ begin {align} p_ {6} (x) = {} \ каппа _ {6} \, x + (6 \ каппа _ {5} \ каппа _ {1} + 15 \ каппа _ {4} \ каппа _ {2} +10 \ каппа _ {3} ^ {2 }) \, x ^ {2} + (15 \ каппа _ {4} \ каппа _ {1} ^ {2} +60 \ kappa _ {3} \ kappa _ {2} \ kappa _ {1} +15 \ kappa _ {2} ^ {3}) \, x ^ {3} \\ {} + (45 \ kappa _ {2} ^ {2} \ kappa _ {1} ^ {2}) \, x ^ {4} + (15 \ каппа _ {2} \ каппа _ {1} ^ {4}) \, х ^ {5} + (\ каппа _ {1} ^ {6}) \, x ^ {6 }, \ end {align}}}

, обобщите шаблон. Шаблон состоит в том, что количество блоков в вышеупомянутых разделах является показателем x. Каждый коэффициент является полиномом от кумулянтов; это полиномы Белла, названные в честь Эрика Темпл Белла.

. Эта последовательность полиномов имеет биномиальный тип. Фактически, никаких последовательностей биномиального не существует; каждая полиномиальная последовательность биномиального типа полностью основана на своей последовательности формальных кумулянтов.

Свободные кумулянты

В приведенной выше формуле моментного кумулянта

E (X 1 ⋯ X n) = ∑ π ∏ В ∈ π κ (Икс я: я ∈ В) {\ Displaystyle E (X_ {1} \ cdots X_ {n}) = \ сумма _ {\ pi} \ prod _ {B \, \ in \, \ pi} \ kappa (X_ {i}: i \ in B)}{\ displaystyle E (X_ {1} \ cdots X_ {n}) = \ sum _ {\ pi} \ prod _ {B \, \ in \, \ pi} \ kappa (X_ {i}: i \ in B)}

для совместных кумулянтов, одна сумма по всем разбиениям блоков {1,..., n}. Если вместо этого суммировать только по непересекающимся разделам, то решая эти формулы для κ {\ displaystyle \ kappa}\ kappa в терминах моментов, получаем свободные кумулянты, а не обычные кумулянты, описанные выше. Эти свободные кумулянты были введены Роландом Спайхером и играют центральную роль в теории свободной вероятности. В этой теории вместо рассмотрения независимость случайных величин, определенных в терминах тензорных произведений алгебр случайных величин, вместо этого свободная величина случайных величин, определенных в терминах свободных произведений алгебр.

Обычные кумулянты степени выше 2 из нормального распределения равны нулю. Свободные кумулянты степени выше 2 в распределении полукругов Вигнера равны нулю. В этом отношении роли распределения Вигнера в свободной теории вероятностей аналогичной роли нормального распределения в традиционной теории вероятностей.

См. Также
Ссылки
Внешние ссылки
Последняя правка сделана 2021-05-16 11:23:21
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте