Распределение продукта

редактировать

A распределение продукта - это распределение вероятностей, построенное как распределение продукта из случайных величин, имеющих два других известных распределения. Для двух статистически независимых случайных величин X и Y распределение случайной величины Z, которое формируется как продукт

Z = X Y {\ displaystyle Z = XY}Z=XY

, является распределением продукта.

Содержание

  • 1 Алгебра случайных величин
  • 2 Вывод независимых случайных величин
    • 2.1 Доказательство
    • 2.2 Альтернативное доказательство
    • 2.3 Байесовская интерпретация
  • 3 Ожидание произведения случайных величин
  • 4 Дисперсия произведения независимых случайных величин
  • 5 Характеристическая функция произведения случайных величин
  • 6 Преобразование Меллина
  • 7 Особые случаи
    • 7.1 Логнормальные распределения
    • 7.2 Равномерно распределенные независимые случайные величины
    • 7.3 Независимые центрально-нормальные распределения
    • 7.4 Коррелированные центральные нормальные распределения
    • 7.5 Коррелированные нецентральные нормальные распределения
    • 7.6 Независимые комплексные центрально-нормальные распределения
    • 7.7 Независимые комплексные нецентральные нормальные распределения
    • 7.8 Гамма-распределения
    • 7.9 Бета-распределения
    • 7.10 Равномерные и гамма-распределения
    • 7.11 Гамма-распределения и распределения Парето
  • 8 В теоретической информатике
  • 9 См. Также
  • 10 Примечания
  • 11 Источники

Алгебра случайных чисел v ariables

Продукт представляет собой один из типов алгебры для случайных величин: с распределением продукта связаны распределение соотношений, распределение сумм (см. Список сверток распределений вероятностей ) и разностного распределения. В более общем плане можно говорить о комбинациях сумм, разностей, произведений и соотношений.

Многие из этих распределений описаны в книге Мелвина Д. Спрингера 1979 г. «Алгебра случайных величин».

Вывод независимых случайных величин

Если X {\ displaystyle X}Xи Y {\ displaystyle Y}Y- две независимые непрерывные случайные величины, описываемые функциями плотности вероятности f X {\ displaystyle f_ {X} }f_{X}и f Y {\ displaystyle f_ {Y}}f_{Y}, то функция плотности вероятности Z = XY {\ displaystyle Z = XY}Z=XYis

f Z (z) = ∫ - ∞ ∞ f X (x) f Y (z / x) 1 | х | d x. {\ displaystyle f_ {Z} (z) = \ int _ {- \ infty} ^ {\ infty} f_ {X} \ left (x \ right) f_ {Y} \ left (z / x \ right) {\ frac {1} {| x |}} \, dx.}f_{Z}(z)=\int _{{-\infty }}^{{\infty }}f_{X}\left(x\right)f_{Y}\left(z/x\right){\frac {1}{|x|}}\,dx.

Доказательство

Сначала мы записываем кумулятивную функцию распределения из Z {\ displaystyle Z}{\displaystyle Z}начиная с его определения

FZ (z) = def P (Z ≤ z) = P (XY ≤ z) = P (XY ≤ z, X ≥ 0) + P (XY ≤ z, X ≤ 0) = P (Y ≤ z / X, X ≥ 0) + P (Y ≥ z / X, X ≤ 0) = ∫ 0 ∞ f X (x) ∫ - ∞ z / xf Y (y) dydx + ∫ - ∞ 0 е Икс (Икс) ∫ Z / Икс ∞ е Y (Y) dydx {\ Displaystyle {\ begin {align} F_ {Z} (z) \, {\ stackrel {\ text {def}} {= }} \ \ mathbb {P} (Z \ leq z) \\ = \ mathbb {P} (XY \ leq z) \\ = \ mathbb {P} (XY \ leq z, X \ geq 0) + \ mathbb {P} (XY \ leq z, X \ leq 0) \\ = \ mathbb {P} (Y \ leq z / X, X \ geq 0) + \ mathbb {P} (Y \ geq z / X, X \ leq 0) \\ = \ int _ {0} ^ {\ infty} f_ {X} \ left (x \ right) \ int _ {- \ infty} ^ {z / x} f_ {Y } \ left (y \ right) \, dy \, dx + \ int _ {- \ infty} ^ {0} f_ {X} \ left (x \ right) \ int _ {z / x} ^ {\ infty} f_ {Y} \ left (y \ right) \, dy \, dx \ end {align}}}{\displaystyle {\begin{aligned}F_{Z}(z)\,{\stackrel {\text{def}}{=}}\ \mathbb {P} (Z\leq z)\\=\mathbb {P} (XY\leq z)\\=\mathbb {P} (XY\leq z,X\geq 0)+\mathbb {P} (XY\leq z,X\leq 0)\\=\mathbb {P} (Y\leq z/X,X\geq 0)+\mathbb {P} (Y\geq z/X,X\leq 0)\\=\int _{0}^{\infty }f_{X}\left(x\right)\int _{-\infty }^{z/x}f_{Y}\left(y\right)\,dy\,dx+\int _{-\infty }^{0}f_{X}\left(x\right)\int _{z/x}^{\infty }f_{Y}\left(y\right)\,dy\,dx\end{aligned}}}

Находим желаемое веселье плотности вероятности ction, взяв производную от обеих сторон по z {\ displaystyle z}z. Поскольку в правой части z {\ displaystyle z}zпоявляется только в пределах интегрирования, производная легко вычисляется с использованием основной теоремы исчисления и правило цепочки. (Обратите внимание на отрицательный знак, который необходим, когда переменная встречается в нижнем пределе интегрирования.)

f Z (z) = ∫ 0 ∞ f X (x) f Y (z / x) 1 xdx - ∫ - ∞ 0 f X (x) f Y (z / x) 1 xdx = ∫ 0 ∞ f X (x) f Y (z / x) 1 | х | d x + ∫ - ∞ 0 f X (x) f Y (z / x) 1 | х | d x = ∫ - ∞ ∞ f X (x) f Y (z / x) 1 | х | d x. {\ displaystyle {\ begin {align} f_ {Z} (z) = \ int _ {0} ^ {\ infty} f_ {X} (x) f_ {Y} (z / x) {\ frac {1 } {x}} \, dx- \ int _ {- \ infty} ^ {0} f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {x}} \, dx \\ = \ int _ {0} ^ {\ infty} f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {| x |}} \, dx + \ int _ { - \ infty} ^ {0} f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {| x |}} \, dx \\ = \ int _ {- \ infty } ^ {\ infty} f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {| x |}} \, dx. \ end {align}}}{\displaystyle {\begin{aligned}f_{Z}(z)=\int _{0}^{\infty }f_{X}(x)f_{Y}(z/x){\frac {1}{x}}\,dx-\int _{-\infty }^{0}f_{X}(x)f_{Y}(z/x){\frac {1}{x}}\,dx\\=\int _{0}^{\infty }f_{X}(x)f_{Y}(z/x){\frac {1}{|x|}}\,dx+\int _{-\infty }^{0}f_{X}(x)f_{Y}(z/x){\frac {1}{|x|}}\,dx\\=\int _{-\infty }^{\infty }f_{X}(x)f_{Y}(z/x){\frac {1}{|x|}}\,dx.\end{aligned}}}

где абсолютное значение используется для удобного объединения двух терминов.

Альтернативное доказательство

Более быстрое и компактное доказательство начинается с того же шага написания кумулятивного распределения Z {\ displaystyle Z}{\displaystyle Z}, начиная с его определения:

FZ (z) = def P (Z ≤ z) = P (XY ≤ z) = ∫ - ∞ ∞ ∫ - ∞ ∞ f X (x) f Y (y) u (z - xy) dydx {\ displaystyle {\ begin {align} F_ {Z} (z) {\ overset {\ underset {\ mathrm {def}} {}} {=}} \ \ \ mathbb {P} (Z \ leq z) \\ = \ mathbb {P} (XY \ leq z) \\ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} f_ {X} \ left ( x \ right) f_ {Y} \ left (y \ right) u \ left (z-xy \ right) \, dy \, dx \ end {align}}}{\displaystyle {\begin{aligned}F_{Z}(z){\overset {\underset {\mathrm {def} }{}}{=}}\ \ \mathbb {P} (Z\leq z)\\=\mathbb {P} (XY\leq z)\\=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }f_{X}\left(x\right)f_{Y}\left(y\right)u\left(z-xy\right)\,dy\,dx\end{aligned}}}

где u (.) { \ displaystyle u \ left (. \ right)}{\displaystyle u\left(.\right)}- это ступенчатая функция Хевисайда, служащая для ограничения области интегрирования значениями x {\ displaystyle x}xи y {\ displaystyle y}yудовлетворяющий xy ≤ z {\ displaystyle xy \ leq z}{\displaystyle xy\leq z}.

Мы находим желаемую функцию плотности вероятности, взяв производную от обе стороны относительно z {\ displaystyle z}z.

f Z (z) = ∫ - ∞ ∞ ∫ - ∞ ∞ f X (x) f Y (y) δ (z - xy) dydx = ∫ - ∞ ∞ f X (x) f Y (z / x) [∫ - ∞ ∞ δ (z - xy) dy] dx = ∫ - ∞ ∞ f X (x) f Y (z / x) 1 | х | d x. {\ displaystyle {\ begin {align} f_ {Z} (z) = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} f_ {X} \ left (x \ right) f_ {Y} \ left (y \ right) \ delta (z-xy) \, dy \, dx \\ = \ int _ {- \ infty} ^ {\ infty} f_ {X} \ left (x \ right) f_ {Y} \ left (z / x \ right) \ left [\ int _ {- \ infty} ^ {\ infty} \ delta (z-xy) \, dy \ right] \, dx \\ = \ int _ {- \ infty} ^ {\ infty} f_ {X} \ left (x \ right) f_ {Y} \ left (z / x \ right) {\ frac {1} { | x |}} \, dx. \ end {align}}}{\displaystyle {\begin{aligned}f_{Z}(z)=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }f_{X}\left(x\right)f_{Y}\left(y\right)\delta (z-xy)\,dy\,dx\\=\int _{-\infty }^{\infty }f_{X}\left(x\right)f_{Y}\left(z/x\right)\left[\int _{-\infty }^{\infty }\delta (z-xy)\,dy\right]\,dx\\=\int _{-\infty }^{\infty }f_{X}\left(x\right)f_{Y}\left(z/x\right){\frac {1}{|x|}}\,dx.\end{aligned}}}

где мы используем свойства преобразования и масштабирования дельта-функции Дирака δ {\ displaystyle \ delta}\delta .

Более интуитивное описание процедуры показано на рисунке ниже. Совместное pdf f X (x) f Y (y) {\ displaystyle f_ {X} (x) f_ {Y} (y)}{\displaystyle f_{X}(x)f_{Y}(y)}существует в x {\ displaystyle x}x-y {\ displaystyle y}yплоскость и дуга постоянного значения z {\ displaystyle z}zпоказаны в виде заштрихованной линии. Чтобы найти предельную вероятность f Z (z) {\ displaystyle f_ {Z} (z)}{\displaystyle f_{Z}(z)}на этой дуге, проинтегрируйте по приращениям площади dxdyf (x, y) {\ displaystyle dx \, dy \; f (x, y)}{\displaystyle dx\,dy\;f(x,y)}на этом контуре.

Диаграмма, иллюстрирующая распределение продукта двух переменных.

Начиная с y = zx {\ displaystyle y = {\ frac {z} {x}}}{\displaystyle y={\frac {z}{x}}}, мы имеем dy = - zx 2 dx = - yxdx {\ displaystyle dy = - {\ frac {z} {x ^ {2}}} \, dx = - {\ frac {y} {x}} \, dx}{\displaystyle dy=-{\frac {z}{x^{2}}}\,dx=-{\frac {y}{x}}\,dx}. Таким образом, приращение вероятности составляет δ p = f (x, y) d x | d y | = f X (x) f Y (z / x) y | х | dxdx {\ displaystyle \ delta p = f (x, y) \, dx \, | dy | = f_ {X} (x) f_ {Y} (z / x) {\ frac {y} {| x |} } \, dx \, dx}{\displaystyle \delta p=f(x,y)\,dx\,|dy|=f_{X}(x)f_{Y}(z/x){\frac {y}{|x|}}\,dx\,dx}. Поскольку z = yx {\ displaystyle z = yx}{\displaystyle z=yx}подразумевает dz = ydx {\ displaystyle dz = y \, dx}{\displaystyle dz=y\,dx}, мы можем связать приращение вероятности к z {\ displaystyle z}z-инкремент, а именно δ p = f X (x) f Y (z / x) 1 | х | d x d z {\ displaystyle \ delta p = f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {| x |}} \, dx \, dz}{\displaystyle \delta p=f_{X}(x)f_{Y}(z/x){\frac {1}{|x|}}\,dx\,dz}. Затем интегрирование по x {\ displaystyle x}xдает f Z (z) = ∫ f X (x) f Y (z / x) 1 | х | dx {\ displaystyle f_ {Z} (z) = \ int f_ {X} (x) f_ {Y} (z / x) {\ frac {1} {| x |}} \, dx}{\displaystyle f_{Z}(z)=\int f_{X}(x)f_{Y}(z/x){\frac {1}{|x|}}\,dx}.

А Байесовская интерпретация

Пусть X ∼ f (x) {\ displaystyle X \ sim f (x)}{\displaystyle X\sim f(x)}будет случайной выборкой, взятой из распределения вероятностей fx (x) {\ displaystyle f_ {x} (x)}{\displaystyle f_{x}(x)}. Масштабирование X {\ displaystyle X}Xна θ {\ displaystyle \ theta}\theta генерирует выборку из масштабированного распределения θ X ∼ 1 | θ | FX (Икс θ) {\ Displaystyle \ theta X \ sim {\ frac {1} {| \ theta |}} f_ {x} \ left ({\ frac {x} {\ theta}} \ right)}{\displaystyle \theta X\sim {\frac {1}{|\theta |}}f_{x}\left({\frac {x}{\theta }}\right)}, которое можно записать как условное распределение gx (x | θ) = 1 | θ | fx (x θ) {\ displaystyle g_ {x} (x | \ theta) = {\ frac {1} {| \ theta |}} f_ {x} \ left ({\ frac {x} {\ theta}} \ right)}{\displaystyle g_{x}(x|\theta)={\frac {1}{|\theta |}}f_{x}\left({\frac {x}{\theta }}\right)}.

Пусть θ {\ displaystyle \ theta}\theta будет случайной величиной с pdf f θ (θ) {\ displaystyle f _ {\ theta} (\ theta) }{\displaystyle f_{\theta }(\theta)}, распределение масштабированной выборки становится f X (θ x) = g X (x ∣ θ) f θ (θ) {\ displaystyle f_ {X} (\ theta x) = g_ {X} (x \ mid \ theta) f _ {\ theta} (\ theta)}{\displaystyle f_{X}(\theta x)=g_{X}(x\mid \theta)f_{\theta }(\theta)}и интегрируя θ {\ displaystyle \ theta}\theta , получаем hx (x) знак равно ∫ - ∞ ∞ г Икс (x | θ) е θ (θ) d θ {\ displaystyle h_ {x} (x) = \ int _ {- \ infty} ^ {\ infty} g_ { X} (x | \ theta) f _ {\ theta} (\ theta) d \ theta}{\displaystyle h_{x}(x)=\int _{-\infty }^{\infty }g_{X}(x|\theta)f_{\theta }(\theta)d\theta }, поэтому θ X {\ displaystyle \ theta X}{\displaystyle \theta X}берется из этого распределение θ X ∼ час X (x) {\ displaystyle \ theta X \ sim h_ {X} (x)}{\displaystyle \theta X\sim h_{X}(x)}. Однако, заменяя определение g {\ displaystyle g}g, мы также получаем h X (x) = ∫ - ∞ ∞ 1 | θ | ех (Икс θ) е θ (θ) d θ {\ Displaystyle h_ {X} (x) = \ int _ {- \ infty} ^ {\ infty} {\ frac {1} {| \ theta |}} f_ {x} \ left ({\ frac {x} {\ theta}} \ right) f _ {\ theta} (\ theta) \, d \ theta}{\displaystyle h_{X}(x)=\int _{-\infty }^{\infty }{\frac {1}{|\theta |}}f_{x}\left({\frac {x}{\theta }}\right)f_{\theta }(\theta)\,d\theta }который имеет ту же форму, что и распределение продукта над. Таким образом, байесовское апостериорное распределение h X (x) {\ displaystyle h_ {X} (x)}{\displaystyle h_{X}(x)}является распределением произведения двух независимых случайных выборок θ {\ displaystyle \ theta} \theta и X {\ displaystyle X} X .

Для случая, когда одна переменная дискретна, пусть θ {\ displaystyle \ theta}\theta имеет вероятность P i {\ displaystyle P_ {i}}P_{i}на уровнях θ i {\ displaystyle \ theta _ {i}}{\displaystyle \theta _{i}}с ∑ i P i = 1 {\ displaystyle \ sum _ {i} P_ {i} = 1}{\displaystyle \sum _{i}P_{i}=1}. Условная плотность: f X (x ∣ θ i) = 1 | θ i | fx (x θ я) {\ displaystyle f_ {X} (x \ mid \ theta _ {i}) = {\ frac {1} {| \ theta _ {i} |}} f_ {x} \ left ({ \ frac {x} {\ theta _ {i}}} \ right)}{\displaystyle f_{X}(x\mid \theta _{i})={\frac {1}{|\theta _{i}|}}f_{x}\left({\frac {x}{\theta _{i}}}\right)}. Следовательно, f X (θ x) = ∑ P i | θ i | е Икс (Икс θ я) {\ displaystyle f_ {X} (\ theta x) = \ sum {\ frac {P_ {i}} {| \ theta _ {i} |}} f_ {X} \ left ({ \ frac {x} {\ theta _ {i}}} \ right)}{\displaystyle f_{X}(\theta x)=\sum {\frac {P_{i}}{|\theta _{i}|}}f_{X}\left({\frac {x}{\theta _{i}}}\right)}.

Ожидание произведения случайных величин

Когда две случайные величины статистически независимы, ожидание их произведения является произведением их ожидания . Это может быть доказано с помощью Закона общего ожидания :

E ⁡ (XY) = EY ⁡ (EXY ∣ Y ⁡ (XY ∣ Y)) {\ displaystyle \ operatorname {E} (XY) = \ operatorname { E} _ {Y} (\ operatorname {E} _ {XY \ mid Y} (XY \ mid Y))}\operatorname{E}(X Y) = \operatorname{E}_Y ( \operatorname{E}_{X Y \mid Y} (X Y \mid Y))

Во внутреннем выражении Y является константой. Следовательно:

EXY ∣ Y ⁡ (XY ∣ Y) = Y ⋅ EX ∣ Y ⁡ [X] {\ displaystyle \ operatorname {E} _ {XY \ mid Y} (XY \ mid Y) = Y \ cdot \ OperatorName {E} _ {X \ mid Y} [X]}\operatorname{E}_{X Y \mid Y} (X Y \mid Y) = Y\cdot \operatorname{E}_{X\mid Y}[X]
E ⁡ (XY) = EY ⁡ (Y ⋅ EX ∣ Y ⁡ [X]) {\ displaystyle \ operatorname {E} (XY) = \ OperatorName {E} _ {Y} (Y \ cdot \ operatorname {E} _ {X \ mid Y} [X])}\operatorname{E}(X Y) = \operatorname{E}_Y ( Y\cdot \operatorname{E}_{X\mid Y}[X])

Это верно, даже если X и Y статистически зависимы. Однако в целом EX ∣ Y ⁡ [X] {\ displaystyle \ operatorname {E} _ {X \ mid Y} [X]}\operatorname{E}_{X\mid Y}[X]является функцией Y. В частном случае в где X и Y статистически независимы, это константа, не зависящая от Y. Следовательно:

E ⁡ (XY) = EY ⁡ (Y ⋅ EX ⁡ [X]) {\ displaystyle \ operatorname {E} (XY) = \ OperatorName {E} _ {Y} (Y \ cdot \ operatorname {E} _ {X} [X])}\operatorname{E}(X Y) = \operatorname{E}_Y ( Y\cdot \operatorname{E}_{X}[X])
E ⁡ (XY) = EX ⁡ (X) ⋅ EY ⁡ (Y) {\ displaystyle \ operatorname {E} (XY) = \ operatorname {E} _ {X} (X) \ cdot \ operatorname {E} _ {Y} (Y)}\operatorname{E}(X Y) = \operatorname{E}_X(X) \cdot \operatorname{E}_Y(Y)

Дисперсия произведения независимых случайных величин

Пусть X, Y {\ displaystyle X, Y}X,Yбудут некоррелированными случайными величинами со средними μ X, μ Y, {\ displaystyle \ mu _ {X}, \ mu _ {Y},}{\displaystyle \mu _{X},\mu _{Y},}и дисперсии σ X 2, σ Y 2 {\ displaystyle \ sigma _ {X} ^ {2}, \ sigma _ {Y} ^ {2}}{\displaystyle \sigma _{X}^{2},\sigma _{Y}^{2}}. Дисперсия произведения XY равна

Var ⁡ (XY) = (σ X 2 + μ X 2) (σ Y 2 + μ Y 2) - μ X 2 μ Y 2 {\ displaystyle \ operatorname {Var} ( XY) = (\ sigma _ {X} ^ {2} + \ mu _ {X} ^ {2}) (\ sigma _ {Y} ^ {2} + \ mu _ {Y} ^ {2}) - \ mu _ {X} ^ {2} \ mu _ {Y} ^ {2}}{\displaystyle \operatorname {Var} (XY)=(\sigma _{X}^{2}+\mu _{X}^{2})(\sigma _{Y}^{2}+\mu _{Y}^{2})-\mu _{X}^{2}\mu _{Y}^{2}}

В случае произведения более двух переменных, если X 1 ⋯ X n, n>2 { \ displaystyle X_ {1} \ cdots X_ {n}, \; \; n>2}{\displaystyle X_{1}\cdots X_{n},\;\;n>2} статистически независимы, тогда дисперсия их продукта составляет

Var ⁡ (X 1 X 2 ⋯ X n) = ∏ i = 1 n (σ я 2 + μ я 2) - ∏ я знак равно 1 N μ я 2 {\ Displaystyle \ OperatorName {Var} (X_ {1} X_ {2} \ cdots X_ {n}) = \ prod _ {я = 1 } ^ {n} (\ sigma _ {i} ^ {2} + \ mu _ {i} ^ {2}) - \ prod _ {i = 1} ^ {n} \ mu _ {i} ^ {2 }}{\displaystyle \operatorname {Var} (X_{1}X_{2}\cdots X_{n})=\prod _{i=1}^{n}(\sigma _{i}^{2}+\mu _{i}^{2})-\prod _{i=1}^{n}\mu _{i}^{2}}

Характеристическая функция произведения случайных величин

Предположим, что X, Y - независимые случайные величины. Характеристическая функция X равна φ X (t) {\ displaystyle \ varphi _ {X} (t)}\varphi _{X}(t), и распределение Y известно. Тогда из закона полного ожидания мы имеем

φ Z (t) = E ⁡ (eit XY) = EY ⁡ (EXY ∣ Y ⁡ (eit XY ∣ Y)) = EY ⁡ ( ЕХ ∣ Y ⁡ (т.е. XY ∣ Y)) = EY ⁡ (φ X (t Y)) {\ displaystyle {\ begin {align} \ varphi _ {Z} (t) = \ operatorname {E} (e ^ {itXY}) \\ = \ operatorname {E} _ {Y} (\ operatorname {E} _ {XY \ mid Y} (e ^ {itXY} \ mid Y)) \\ = \ operatorname {E} _ {Y} (\ operatorname {E} _ {X \ mid Y} (e ^ {itXY} \ mid Y)) \\ = \ operatorname {E} _ {Y} (\ varphi _ {X} (tY)) \ end {align}}}{\displaystyle {\begin{aligned}\varphi _{Z}(t)=\operatorname {E} (e^{itXY})\\=\operatorname {E} _{Y}(\operatorname {E} _{XY\mid Y}(e^{itXY}\mid Y))\\=\operatorname {E} _{Y}(\operatorname {E} _{X\mid Y}(e^{itXY}\mid Y))\\=\operatorname {E} _{Y}(\varphi _{X}(tY))\end{aligned}}}

Если известны характеристические функции и распределения как X, так и Y, то в качестве альтернативы φ Z (t) = EX ⁡ (φ Y (t X)) {\ displaystyle \ varphi _ {Z} (t) = \ operatorname {E} _ {X} (\ varphi _ {Y} (tX))}{\displaystyle \varphi _{Z}(t)=\operatorname {E} _{X}(\varphi _{Y}(tX))}также имеет место.

преобразование Меллина

преобразование Меллина распределения f (x) {\ displaystyle f (x)}f(x)только с поддержкой на x ≥ 0 {\ displaystyle x \ geq 0}x\geq 0и случайная выборка X {\ displaystyle X}Xравна

M f (x) = φ (s) = ∫ 0 ∞ xs - 1 f (x) dx = E ⁡ [X s - 1]. {\ displaystyle {\ mathcal {M}} f (x) = \ varphi (s) = \ int _ {0} ^ {\ infty} x ^ {s-1} f (x) \, dx = \ operatorname { E} [X ^ {s-1}].}{\displaystyle {\mathcal {M}}f(x)=\varphi (s)=\int _{0}^{\infty }x^{s-1}f(x)\,dx=\operatorname {E} [X^{s-1}].}

Обратное преобразование:

M - 1 φ (s) = f (x) = 1 2 π i ∫ c - i ∞ c + i ∞ x - s φ (s) ds. {\ displaystyle {\ mathcal {M}} ^ {- 1} \ varphi (s) = f (x) = {\ frac {1} {2 \ pi i}} \ int _ {ci \ infty} ^ {c + i \ infty} x ^ {- s} \ varphi (s) \, ds.}{\displaystyle {\mathcal {M}}^{-1}\varphi (s)=f(x)={\frac {1}{2\pi i}}\int _{c-i\infty }^{c+i\infty }x^{-s}\varphi (s)\,ds.}

если X и Y {\ displaystyle X {\ text {and}} Y}{\displaystyle X{\text{ and }}Y}являются двумя независимыми случайными выборками из разных распределений, то преобразование Меллина их продукта равно произведению их преобразований Меллина:

MXY (s) = MX (s) MY (s) {\ displaystyle {\ mathcal {M }} _ {XY} (s) = {\ mathcal {M}} _ {X} (s) {\ mathcal {M}} _ {Y} (s)} \mathcal{M}_{XY}(s) = \mathcal{M}_X(s)\mathcal{M}_Y(s)

Если s ограничено целыми значениями, более простой результат:

E ⁡ [(XY) n] = E ⁡ [X n] E ⁡ [Y n] {\ displaystyle \ operatorname {E} [(XY) ^ {n}] = \ operatorname {E } [X ^ {n}] \; \ operatorname {E} [Y ^ {n}]}{\displaystyle \operatorname {E} [(XY)^{n}]=\operatorname {E} [X^{n}]\;\operatorname {E} [Y^{n}]}

Таким образом, моменты случайного произведения XY {\ displaystyle XY}{\displaystyle XY}являются произведение соответствующих моментов X и Y {\ displaystyle X {\ text {and}} Y}{\displaystyle X{\text{ and }}Y}, и это распространяется на нецелочисленные моменты, например

E ⁡ [XY p ] = Е ⁡ [Икс п] Е ⁡ [Y п] {\ Displaystyle \ OperatorName {E} [{\ sqrt [{p}] {XY}}] = \ operatorname {E} [{\ sqrt [{p}] {X}}] \; \ operatorname {E} [{\ sqrt [{p}] {Y} }]}{\displaystyle \operatorname {E} [{\sqrt[{p}]{XY}}]=\operatorname {E} [{\sqrt[{p}]{X}}]\;\operatorname {E} [{\sqrt[{p}]{Y}}]}.

PDF функции может быть восстановлен по ее моментам с помощью метода аппроксимации седловой точки.

Еще один результат: для независимого X Y

E ⁡ [X p Y q] = E ⁡ [X p] E ⁡ [Y q] {\ displaystyle \ operatorname {E} [X ^ {p} Y ^ {q}] = \ operatorname {E} [X ^ {p}] \ operatorname {E} [Y ^ {q}]}{\displaystyle \operatorname {E} [X^{p}Y^{q}]=\operatorname {E} [X^{p}]\operatorname {E} [Y^{q}]}

Пример гамма-распределения Чтобы проиллюстрировать, как произведение моментов дает гораздо более простой результат, чем нахождение моментов распределения произведения, пусть X, Y {\ displaystyle X, Y}X,Yвыбирается из двух гамма-распределений, Γ (θ) - 1 x θ - 1 e - x {\ displaystyle \ Gamma (\ theta) ^ {- 1} x ^ { \ theta -1} e ^ {- x}}{\displaystyle \Gamma (\theta)^{-1}x^{\theta -1}e^{-x}}с параметрами θ = α, β {\ displaystyle \ theta = \ alpha, \ beta}{\displaystyle \theta =\alpha,\beta }, моменты которых

E ⁡ [X p] = ∫ 0 ∞ xp Γ (x, θ) dx = Γ (θ + p) Γ (θ). {\ displaystyle \ operatorname {E} [X ^ {p}] = \ int _ {0} ^ {\ infty} x ^ {p} \ Gamma (x, \ theta) \, dx = {\ frac {\ Gamma (\ theta + p)} {\ Gamma (\ theta)}}.}{\displaystyle \operatorname {E} [X^{p}]=\int _{0}^{\infty }x^{p}\Gamma (x,\theta)\,dx={\frac {\Gamma (\theta +p)}{\Gamma (\theta)}}.}

Умножение соответствующих моментов дает результат преобразования Меллина

E ⁡ [(XY) p] = E ⁡ [X p] E ⁡ [Y п] знак равно Γ (α + p) Γ (α) Γ (β + p) Γ (β) {\ displaystyle \ operatorname {E} [(XY) ^ {p}] = \ operatorname {E} [X ^ {p}] \; \ operatorname {E} [Y ^ {p}] = {\ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)}} \; {\ frac {\ Gamma (\ beta + p)} {\ Gamma (\ beta)}}}{\displaystyle \operatorname {E} [(XY)^{p}]=\operatorname {E} [X^{p}]\;\operatorname {E} [Y^{p}]={\frac {\Gamma (\alpha +p)}{\Gamma (\alpha)}}\;{\frac {\Gamma (\beta +p)}{\Gamma (\beta)}}}

Независимо, известно, что произведение двух независимых гамма-выборок имеет распределение

f (z, α, β) = 2 Γ (α) - 1 Γ (β) - 1 z α + β 2 - 1 К α - β (2 z), z ≥ 0 {\ displaystyle f (z, \ alpha, \ beta) = 2 \ Gamma (\ alpha) ^ {- 1} \ Gamma (\ beta) ^ {- 1} z ^ {{\ frac {\ alpha + \ beta} {2}} - 1} K _ {\ alpha - \ beta} (2 {\ sqrt {z}}), \; z \ geq 0}{\displaystyle f(z,\alpha,\beta)=2\Gamma (\alpha)^{-1}\Gamma (\beta)^{-1}z^{{\frac {\alpha +\beta }{2}}-1}K_{\alpha -\beta }(2{\sqrt {z}}),\;z\geq 0}.

Чтобы найти моменты этого, сделайте замену переменной y = 2 z {\ displaystyle y = 2 {\ sqrt {z}}}{\displaystyle y=2{\sqrt {z}}}, упрощая аналогичные интегралы до:

∫ 0 ∞ zp К ν (2 z) dz знак равно 2 - 2 p - 1 ∫ 0 ∞ y 2 p + 1 K ν (y) dy {\ displaystyle \ int _ {0} ^ {\ infty} z ^ {p} K_ {\ nu} (2 {\ sqrt {z}}) \, dz = 2 ^ {- 2p-1} \ int _ {0} ^ {\ infty} y ^ {2p + 1} K _ {\ nu} ( y) \, dy}{\displaystyle \int _{0}^{\infty }z^{p}K_{\nu }(2{\sqrt {z}})\,dz=2^{-2p-1}\int _{0}^{\infty }y^{2p+1}K_{\nu }(y)\,dy}

таким образом

2 ∫ 0 ∞ z α + β 2 - 1 K α - β (2 z) dz = 2 - (α + β) - 2 p + 1 ∫ 0 ∞ y (α + β) + 2 п - 1 К α - β (y) dy {\ displaystyle 2 \ int _ {0} ^ {\ infty} z ^ {{\ frac {\ alpha + \ beta} {2}} -1} K _ {\ alpha - \ beta} (2 {\ sqrt {z}}) \, dz = 2 ^ {- (\ alpha + \ beta) -2p + 1} \ int _ {0} ^ {\ infty} y ^ {(\ alpha + \ beta) + 2p-1} K _ {\ alpha - \ beta} (y) \, dy}{\displaystyle 2\int _{0}^{\infty }z^{{\frac {\alpha +\beta }{2}}-1}K_{\alpha -\beta }(2{\sqrt {z}})\,dz=2^{-(\alpha +\beta)-2p+1}\int _{0}^{\infty }y^{(\alpha +\beta)+2p-1}K_{\alpha -\beta }(y)\,dy}

Определенный интеграл

∫ 0 ∞ y μ K ν (y) dy знак равно 2 μ - 1 Γ (1 + μ + ν 2) Γ (1 + μ - ν 2) {\ displaystyle \ int _ {0} ^ {\ infty} y ^ {\ mu} K _ {\ nu} (y) \, dy = 2 ^ {\ mu -1} \ Gamma \ left ({\ frac {1+ \ mu + \ nu} {2}} \ right) \ Gamma \ left ({\ frac {1+ \ mu - \ nu} {2}} \ right)}{\displaystyle \int _{0}^{\infty }y^{\mu }K_{\nu }(y)\,dy=2^{\mu -1}\Gamma \left({\frac {1+\mu +\nu }{2}}\right)\Gamma \left({\frac {1+\mu -\nu }{2}}\right)}хорошо задокументирован, и, наконец, мы имеем
E [Z p] = 2 - (α + β) - 2 p + 1 2 ( α + β) + 2 p - 1 Γ (α) Γ (β) Γ ((α + β + 2 p) + (α - β) 2) Γ ((α + β + 2 p) - (α - β) 2) = Γ (α + p) Γ (β + p) Γ (α) Γ (β) {\ displaystyle {\ begin {align} E [Z ^ {p}] = {\ frac {2 ^ {- (\ alpha + \ beta) -2p + 1} \; 2 ^ {(\ alpha + \ beta) + 2p-1}} {\ Gamma (\ alpha) \; \ Gamma (\ beta)}} \ Gamma \ left ({\ frac {(\ alpha + \ beta + 2p) + (\ alpha - \ beta)} {2}} \ right) \ Gamma \ left ({\ frac {(\ alpha + \ beta + 2p) - (\ alpha - \ beta)} {2}} \ right) \\\\ = {\ frac {\ Gamma (\ alpha + p) \, \ Gamma (\ beta + p)} {\ Gamma (\ alpha) \, \ Gamm a (\ beta)}} \ end {выровнен}}}{\displaystyle {\begin{aligned}E[Z^{p}]={\frac {2^{-(\alpha +\beta)-2p+1}\;2^{(\alpha +\beta)+2p-1}}{\Gamma (\alpha)\;\Gamma (\beta)}}\Gamma \left({\frac {(\alpha +\beta +2p)+(\alpha -\beta)}{2}}\right)\Gamma \left({\frac {(\alpha +\beta +2p)-(\alpha -\beta)}{2}}\right)\\\\={\frac {\Gamma (\alpha +p)\,\Gamma (\beta +p)}{\Gamma (\alpha)\,\Gamma (\beta)}}\end{aligned}}}

который, после некоторых трудностей, согласился с результатом продукта момента выше.

Если X, Y строятся независимо от гамма-распределения с элементами формы α, β {\ displaystyle \ alpha, \; \ beta}{\displaystyle \alpha,\;\beta }, то

E ⁡ [X п Y q] знак равно Е ⁡ [Икс п] Е ⁡ [Y q] знак равно Γ (α + p) Γ (α) Γ ( β + q) Γ (β) {\ displaystyle \ operatorname {E} [X ^ {p} Y ^ {q}] = \ operatorname {E} [X ^ {p}] \; \ operatorname {E} [Y ^ {q}] = {\ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)}} \; {\ frac {\ Gamma (\ beta + q)} {\ Gamma (\ beta)}}}{\displaystyle \operatorname {E} [X^{p}Y^{q}]=\operatorname {E} [X^{p}]\;\operatorname {E} [Y^{q}]={\frac {\Gamma (\alpha +p)}{\Gamma (\alpha)}}\;{\frac {\Gamma (\beta +q)}{\Gamma (\beta)}}}

Этот тип результата универсально верен, поскольку для двумерных независимых независимых производителей fx, y (x, y) = е Икс (Икс) е Y (Y) {\ Displaystyle f_ {x, y} (x, y) = f_ {X} (x) f_ {Y} (y)}{\displaystyle f_{x,y}(x,y)=f_{X}(x)f_{Y}(y)}таким образом

E ⁡ [X p Y q] = ∫ x = - ∞ ∞ ∫ y = - ∞ ∞ xpyqfx, y (x, y) dydx = ∫ x = - ∞ ∞ xp [∫ y = - ∞ ∞ yqf Y (y) dy] е Икс (x) dx знак равно ∫ x = - ∞ ∞ xpf X (x) dx ∫ y = - ∞ ∞ yqf Y (y) dy = E ⁡ [X p] E ⁡ [Y q] {\ displaystyle { \ begin {align} \ operatorname {E} [X ^ {p} Y ^ {q}] = \ int _ {x = - \ infty} ^ {\ infty} \ int _ {y = - \ infty} ^ {\ infty} x ^ {p} y ^ {q} f_ {x, y} (x, y) \, dy \, dx \\ = \ int _ {x = - \ infty} ^ {\ infty} x ^ {p} {\ Big [} \ int _ {y = - \ infty} ^ {\ infty} y ^ {q} f_ {Y} (y) \, dy {\ Big]} f_ {X} ( x) \, dx \\ = \ int _ {x = - \ infty} ^ {\ infty} x ^ {p} f_ {X} (x) \, dx \ int _ {y = - \ infty} ^ {\ infty} y ^ {q} f_ {Y} (y) \, dy \\ = \ operatorname {E} [X ^ {p}] \; \ operatorname {E} [Y ^ {q}] \ end {align}}}{\displaystyle {\begin{aligned}\operatorname {E} [X^{p}Y^{q}]=\int _{x=-\infty }^{\infty }\int _{y=-\infty }^{\infty }x^{p}y^{q}f_{x,y}(x,y)\,dy\,dx\\=\int _{x=-\infty }^{\infty }x^{p}{\Big [}\int _{y=-\infty }^{\infty }y^{q}f_{Y}(y)\,dy{\Big ]}f_{X}(x)\,dx\\=\int _{x=-\infty }^{\infty }x^{p}f_{X}(x)\,dx\int _{y=-\infty }^{\infty }y^{q}f_{Y}(y)\,dy\\=\operatorname {E} [X^{p}]\;\operatorname {E} [Y^{q}]\end{aligned}}}

или, что эквивалентно, ясно, что X p и Y q {\ displaystyle X ^ {p} {\ text { and}} Y ^ {q}}{\displaystyle X^{p}{\text{ and }}Y^{q}}- независимые переменные.

Особые случаи

Логнормальные распределения

Распределение произведений двух случайных величин, которые имеют логнормальные распределения, снова является логнормальным. Это сам по себе частный случай более общего набора результатов, где логарифм произведения может быть записан как сумма логарифмов. Таким образом, в тех случаях, когда простой результат может быть найден в списке сверток распределения вероятностей, где сворачиваемое распределение распределений логарифмов компонентов продукта, результат может быть преобразован в обеспечение распространения продукта. Однако этот подход полезен только тогда, когда логарифмы компонентов продукта входят в некоторые стандартные стандартные распределители.

Равномерно распределенные независимые случайные величины

Пусть Z {\ displaystyle Z}Zработа двух независимых независимых Z = X 1 X 2 {\ displaystyle Z = X_ {1} X_ {2}}{\displaystyle Z=X_{1}X_{2}}, каждый из которых равномерно распределен на интервале [0,1], возможно, результат преобразования копулы. Как отмечалось выше в разделе «Логнормальные распределения», операции свертки PDF в домене соответствуют произведению значений выборки в исходном домене. Таким образом, выполняя преобразование u = ln ⁡ (x) {\ displaystyle u = \ ln (x)}{\displaystyle u=\ln(x)}, такое, что p U (u) | d u | = p X (x) | d x | {\ Displaystyle р_ {U} (и) \, | дю | = p_ {X} (x) \, | dx |}{\displaystyle p_{U}(u)\,|du|=p_{X}(x)\,|dx|}, каждая вариация распределяется независимо от u как

p U (u) = p X (x) / | d u / d x | = 1 x - 1 = eu, - ∞ < u ≤ 0 {\displaystyle p_{U}(u)=p_{X}(x)/|du/dx|={\frac {1}{x^{-1}}}=e^{u},\;\;-\infty {\displaystyle p_{U}(u)=p_{X}(x)/|du/dx|={\frac {1}{x^{-1}}}=e^{u},\;\;-\infty <u\leq 0}.

, а свертка двух распределений - автосвертка

c (y) = ∫ u = 0 yeuey - udu = - u = y 0 eydu = - yey, - ∞ < y ≤ 0 {\displaystyle c(y)=\int _{u=0}^{y}e^{u}e^{y-u}du=-\int _{u=y}^{0}e^{y}du=-ye^{y},\;\;-\infty {\displaystyle c(y)=\int _{u=0}^{y}e^{u}e^{y-u}du=-\int _{u=y}^{0}e^{y}du=-ye^{y},\;\;-\infty <y\leq 0}

Затем повторно преобразуйте переменную в z = ey {\ displaystyle z = e ^ {y}}{\displaystyle z=e^{y}}, получив распределение

c 2 (z) = c Y (y) / | d z / d y | = - yeyey = - y = пер ⁡ (1 / z) {\ Displaystyle c_ {2} (z) = c_ {Y} (y) / | dz / dy | = {\ frac {-ye ^ {y}} {e ^ {y}}} = - y = \ ln (1 / z)}{\displaystyle c_{2}(z)=c_{Y}(y)/|dz/dy|={\frac {-ye^{y}}{e^{y}}}=-y=\ln(1/z)}на интервале [0,1]

Для произведений нескольких (>2) независимых выборок характерная функция маршрут использования благоприятным. Если мы определим y ~ = - y {\ displaystyle {\ tilde {y}} = - y}{\displaystyle {\tilde {y}}=-y}, тогда c (y ~) {\ displaystyle c ({\ tilde { y}})}{\displaystyle c({\tilde {y}})}выше - это Гамма-распределение формы 1 и масштабного коэффициента 1, c (y ~) = y ~ e - y ~ {\ displaystyle c ( {\ tilde {y}}) = {\ tilde {y}} e ^ {- {\ tilde {y}}}}{\displaystyle c({\tilde {y}})={\tilde {y}}e^{-{\tilde {y}}}}, и его известный CF равен (1 - it) - 1 {\ Displaystyle (1-оно) ^ {- 1}}{\displaystyle (1-it)^{-1}}. Обратите внимание, что | d y ~ | = | d y | {\ displaystyle | d {\ tilde {y}} | = | dy |}{\displaystyle |d{\tilde {y}}|=|dy|}, поэтому якобиан равенство единице.

Свертка n {\ displaystyle n}nнезависимый выбор из Y ~ {\ displaystyle {\ tilde {Y}}}{\displaystyle {\tilde {Y}}}поэтому имеет CF (1-it) - n {\ displaystyle (1-it) ^ {- n}}{\displaystyle (1-it)^{-n}}, который, как известно, CF гамма-распределения формы n {\ Displaystyle n }n:

сп (Y ~) = Γ (n) - 1 y ~ (n - 1) e - y ~ = Γ (n) - 1 (- y) (n - 1) ey {\ displaystyle c_ {n } ({\ tilde {y}}) = \ Gamma (n) ^ {- 1} {\ tilde {y}} ^ {(n-1)} e ^ {- {\ tilde {y}}} = \ Гамма (n) ^ {- 1} (- y) ^ {(n-1)} e ^ {y}}{\displaystyle c_{n}({\tilde {y}})=\Gamma (n)^{-1}{\tilde {y}}^{(n-1)}e^{-{\tilde {y}}}=\Gamma (n)^{-1}(-y)^{(n-1)}e^{y}}.

Выполнение обратного преобразования z = ey {\ displaystyle z = e ^ {y}}{\displaystyle z=e^{y}}получаем PDF продукта n образцов:

fn (z) = cn (y) | d z / d y | Знак равно Γ (п) - 1 (- журнал ⁡ г) п - 1 е у / е у = (- журнал ⁡ г) п - 1 (п - 1)! {\ displaystyle f_ {n} (z) = {\ frac {c_ {n} (y)} {| dz / dy |}} = \ Gamma (n) ^ {- 1} {\ Big (} - \ log z {\ Big)} ^ {n-1} e ^ {y} / e ^ {y} = { \ frac {{\ Big (} - \ log z {\ Big)} ^ {n-1}} {(n-1)! \; \; \;}}}{\displaystyle f_{n}(z)={\frac {c_{n}(y)}{|dz/dy|}}=\Gamma (n)^{-1}{\Big (}-\log z{\Big)}^{n-1}e^{y}/e^{y}={\frac {{\Big (}-\log z{\Big)}^{n-1}}{(n-1)!\;\;\;}}}

Следующий, более простой вывод из Stackexchange согласуется с этим результатом. Прежде всего, если Z 2 = X 1 X 2 {\ displaystyle Z_ {2} = X_ {1} X_ {2}}{\displaystyle Z_{2}=X_{1}X_{2}}, его CDF будет

FZ 2 (z) = Pr [Z 2 ≤ z] = ∫ x = 0 1 Pr [X 2 ≤ zx] f X 1 (x) dx = ∫ x = 0 zdx + ∫ x = z 1 zxdx = z - z log ⁡ z, 0 < z ≤ 1 {\displaystyle {\begin{aligned}F_{Z_{2}}(z)=\Pr {\Big [}Z_{2}\leq z{\Big ]}=\int _{x=0}^{1}\Pr {\Big [}X_{2}\leq {\frac {z}{x}}{\Big ]}f_{X_{1}}(x)\,dx\\=\int _{x=0}^{z}dx+\int _{x=z}^{1}{\frac {z}{x}}\,dx\\=z-z\log z,\;\;0{\displaystyle {\begin{aligned}F_{Z_{2}}(z)=\Pr {\Big [}Z_{2}\leq z{\Big ]}=\int _{x=0}^{1}\Pr {\Big [}X_{2}\leq {\frac {z}{x}}{\Big ]}f_{X_{1}}(x)\,dx\\=\int _{x=0}^{z}dx+\int _{x=z}^{1}{\frac {z}{x}}\,dx\\=z-z\log z,\;\;0<z\leq 1\end{aligned}}}

Плотность z 2 равна f (z 2) = - журнал ⁡ (z 2) {\ displaystyle z_ {2} {\ text {is then}} f (z_ {2}) = - \ log (z_ {2})}{\displaystyle z_{2}{\text{ is then }}f(z_{2})=-\log(z_{2})}

Умножение на третью независимую выборку дает функцию распределения

FZ 3 (z) = Pr [Z 3 ≤ z] = ∫ x = 0 1 Pr [X 3 ≤ zx] f Z 2 (x) dx = - ∫ x = 0 z log ⁡ (x) dx - ∫ x = z 1 zx log ⁡ (x) dx = - z (log ⁡ (z) - 1) + 1 2 z log 2 ⁡ (Z) {\ Displaystyle {\ begin {выровнено} F_ {Z_ {3}} (z) = \ Pr {\ Big [} Z_ {3} \ leq z {\ Big]} = \ int _ {x = 0} ^ {1} \ Pr {\ Big [} X_ {3} \ leq {\ frac {z} {x}} {\ Big]} f_ {Z_ {2}} (x) \, dx \\ = - \ int _ {x = 0} ^ {z} \ log (x) \, dx- \ int _ {x = z} ^ {1} {\ frac {z} {x}} \ log (x) \, dx \\ = - z {\ Big (} \ log (z) -1 {\ Big)} + {\ frac {1} {2}} z \ log ^ {2} (z) \ end {выровнено}} }{\displaystyle {\begin{aligned}F_{Z_{3}}(z)=\Pr {\Big [}Z_{3}\leq z{\Big ]}=\int _{x=0}^{1}\Pr {\Big [}X_{3}\leq {\frac {z}{x}}{\Big ]}f_{Z_{2}}(x)\,dx\\=-\int _{x=0}^{z}\log(x)\,dx-\int _{x=z}^{1}{\frac {z}{x}}\log(x)\,dx\\=-z{\Big (}\log(z)-1{\Big)}+{\frac {1}{2}}z\log ^{2}(z)\end{aligned}}}

Взяв про изводную, получаем f Z 3 (z) = 1 2 log 2 ⁡ (z), 0 < z ≤ 1. {\displaystyle f_{Z_{3}}(z)={\frac {1}{2}}\log ^{2}(z),\;\;0{\displaystyle f_{Z_{3}}(z)={\frac {1}{2}}\log ^{2}(z),\;\;0<z\leq 1.}

T Автор заметки предполагает, что в общем случае f Z n (z) = (- log ⁡ z) п - 1 (п - 1)!, 0 < z ≤ 1 {\displaystyle f_{Z_{n}}(z)={\frac {(-\log z)^{n-1}}{(n-1)!\;\;\;}},\;\;0{\displaystyle f_{Z_{n}}(z)={\frac {(-\log z)^{n-1}}{(n-1)!\;\;\;}},\;\;0<z\leq 1}

Геометрия распределения произведения двух случайных величин в единичном квадрате.

Рисунокет природу интегралов, указанный выше. Заштрихованная область представляет внутри единичного квадрата и ниже линии z = xy CDF z. Это делится на две части. Первый - для 0 < x < z where the increment of area in the vertical slot is just equal to dx. The second part lies below the xy line, has y-height z/x, and incremental area dx z/x.

независимых центрально-нормальных распределений

Произведение двух независимых нормальных выборок модифицированной функции Бесселя. Пусть x, y {\ displaystyle x, y} x, y будет выборкой из нормального (0,1) распределения и z = xy {\ displaystyle z = xy}{\displaystyle z=xy}. Тогда

p Z (z) = K 0 (| z |) π, - ∞ < z < + ∞ {\displaystyle p_{Z}(z)={\frac {K_{0}(|z|)}{\pi }},\;\;\;-\infty {\displaystyle p_{Z}(z)={\frac {K_{0}(|z|)}{\pi }},\;\;\;-\infty <z<+\infty }

. Дисперсия этого распределения в принципе может быть определена с помощью определенного интеграла Градшейна и Рыжика,

∫ 0 ∞ x μ K ν (ах) dx знак равно 2 μ - 1 a - μ - 1 Γ (1 + μ + ν 2) Γ (1 + μ - ν 2), a>0, ν + 1 ± μ>0 {\ Displaystyle \ int _ {0} ^ {\ infty} х ^ {\ mu} K _ {\ nu} (ax) \, dx = 2 ^ {\ mu -1} a ^ {- \ mu -1} \ Gamma {\ Big ( } {\ frac {1+ \ mu + \ nu} {2}} {\ Big)} \ Gamma {\ Big (} {\ frac {1+ \ mu - \ nu} {2}} {\ Big)}, \; \; а>0, \; \ nu +1 \ pm \ mu>0}{\displaystyle \int _{0}^{\infty }x^{\mu }K_{\nu }(ax)\,dx=2^{\mu -1}a^{-\mu -1}\Gamma {\Big (}{\frac {1+\mu +\nu }{2}}{\Big)}\Gamma {\Big (}{\frac {1+\mu -\nu }{2}}{\Big)},\;\;a>0, \; \ nu +1 \ pm \ mu>0}

таким образом ∫ - ∞ ∞ 2 К 0 (| z |) π dz знак равно 4 π Γ 2 (3 2) = 1 {\ displaystyle \ int _ {- \ infty} ^ {\ infty} {\ frac {z ^ {2} K_ {0} (| z |)} {\ pi}} \, dz = {\ frac {4} {\ pi}} \; \ Gamma ^ {2} { \ Big (} {\ frac {3} {2}} {\ Big)} = 1}{\displaystyle \int _{-\infty }^{\infty }{\frac {z^{2}K_{0}(|z|)}{\pi }}\,dz={\frac {4}{\pi }}\;\Gamma ^{2}{\Big (}{\frac {3}{2}}{\Big)}=1}

Гораздо более простой результат, изложенный в разделе выше, состоит в том, что дисперсия независимых выборок с нулевым средним равным продуктом их

Коррелированные центрально-нормальные распределения

Случай коррелированных нормальных выборок недавно рассмотрен Надараджахой и Погани. X, Y {\ displaystyle X {\ text {,}} Y}{\displaystyle X{\text{, }}Y}будет нулевым средним, единичной дисперсией, нормально распределенными переменн ыми с коэффициентом корреляции ρ, и пусть Z = XY {\ displaystyle \ rho {\ text {и let}} Z = XY}{\displaystyle \rho {\text{ and let }}Z=XY}

Тогда

f Z (z) = 1 π 1 - ρ 2 ехр ⁡ (ρ z 1 - ρ 2) K 0 (| z | 1 - ρ 2) {\ displaystyle f_ {Z} (z) = {\ frac {1} {\ pi {\ sqrt {1- \ rho ^ {2}}}}} \ exp \ left ({\ frac { \ rho z} {1- \ rho ^ {2}}} \ right) K_ {0} \ left ({\ frac {| z |} {1- \ rho ^ {2}}} \ right)}{\displaystyle f_{Z}(z)={\frac {1}{\pi {\sqrt {1-\rho ^{2}}}}}\exp \left({\frac {\rho z}{1-\rho ^{2}}}\right)K_{0}\left({\frac {|z|}{1-\rho ^{2}}}\right)}

Среднее и дисперсия : Для среднего мы имеем E ⁡ [Z] = ρ {\ displaystyle \ operatorname {E} [Z] = \ rho}{\displaystyle \operatorname {E} [Z]=\rho }из определения коэффициентов корреляции. Дисперсия может быть найдена путем преобразования двух некоррелированных чисел U, V с нулевым средним значением. Пусть

Икс = U, Y = ρ U + (1 - ρ 2) V {\ displaystyle X = U, \; \; Y = \ rho U + {\ sqrt {(1- \ rho ^ {2})}} V}{\displaystyle X=U,\;\;Y=\rho U+{\sqrt {(1-\rho ^{2})}}V}

Тогда X, Y - переменные единичной дисперсии с коэффициентом корреляции ρ {\ displaystyle \ rho}\rho и

(XY) 2 = U 2 (ρ U + (1 - ρ 2) V) 2 знак равно U 2 (ρ 2 U 2 + 2 ρ 1 - ρ 2 УФ + (1 - ρ 2) V 2) {\ Displaystyle (XY) ^ {2} = U ^ {2} {\ bigg (} \ rho U + {\ sqrt {(1- \ rho ^ {2}) }} V {\ bigg)} ^ {2} = U ^ {2} {\ bigg (} \ rho ^ {2} U ^ {2} +2 \ rho {\ sqrt {1- \ rho ^ {2} }} UV + (1- \ rho ^ {2}) V ^ {2} {\ bigg)}}{\displaystyle (XY)^{2}=U^{2}{\bigg (}\rho U+{\sqrt {(1-\rho ^{2})}}V{\bigg)}^{2}=U^{2}{\bigg (}\rho ^{2}U^{2}+2\rho {\sqrt {1-\rho ^{2}}}UV+(1-\rho ^{2})V^{2}{\bigg)}}

Удачных членов нечетной степени, ожидания, очевидно, равны нулю, получаем

E ⁡ [(XY) 2] = ρ 2 E ⁡ [U 4] + (1 - ρ 2) E ⁡ [U 2] E ⁡ [V 2] = 3 ρ 2 + (1 - ρ 2) = 1 + 2 ρ 2 {\ displaystyle \ operatorname {E} [(XY) ^ {2}] = \ rho ^ {2} \ OperatorName {E} [U ^ {4}] + (1- \ rho ^ {2}) \ operatorname {E} [U ^ {2}] \ operatorname {E} [V ^ {2}] = 3 \ rho ^ {2} + (1- \ rho ^ {2}) = 1 + 2 \ rho ^ {2}}{\displaystyle \operatorname {E} [(XY)^{2}]=\rho ^{2}\operatorname {E} [U^{4}]+(1-\rho ^{2})\operatorname {E} [U^{2}]\operatorname {E} [V^{2}]=3\rho ^{2}+(1-\rho ^{2})=1+2\rho ^{2}}

Так как (E ⁡ [Z]) 2 = ρ 2 {\ displaystyle (\ operatorname {E} [Z]) ^ {2} = \ rho ^ {2}}{\displaystyle (\operatorname {E} [Z])^{2}=\rho ^{2}}имеем

Var ⁡ (Z) = E ⁡ [Z 2] - (E ⁡ [Z]) 2 знак равно 1 + 2 ρ 2 - ρ 2 = 1 + ρ 2 {\ displaystyle \ OperatorName {Var} (Z) = \ operatorname {E} [Z ^ {2}] - (\ operatorname {E} [Z]) ^ {2} = 1 + 2 \ rho ^ {2} - \ rho ^ { 2} = 1 + \ rho ^ {2}}{\displaystyle \operatorname {Var} (Z)=\operatorname {E} [Z^{2}]-(\operatorname {E} [Z])^{2}=1+2\rho ^{2}-\rho ^{2}=1+\rho ^{2}}

Асимптота с высокой корреляцией В случае сильной корреляции, ρ → 1 {\ displaystyle \ rho \ rightarrow 1}{\displaystyle \rho \rightarrow 1}произведение сходится в квадрате одной выборки. В этом случае асимптота K 0 {\ displaystyle K_ {0}}{\displaystyle K_{0}}равна K 0 (x) → π 2 x e - x в пределе x = | z | 1 - ρ 2 → ∞ {\ displaystyle K_ {0} (x) \ rightarrow {\ sqrt {\ tfrac {\ pi} {2x}}} e ^ {- x} {\ text {в пределе as}} x = {\ frac {| z |} {1- \ rho ^ {2}}} \ rightarrow \ infty}{\displaystyle K_{0}(x)\rightarrow {\sqrt {\tfrac {\pi }{2x}}}e^{-x}{\text{ in the limit as }}x={\frac {|z|}{1-\rho ^{2}}}\rightarrow \infty }и.

p (z) → 1 π 1 - ρ 2 exp ⁡ (ρ z 1 - ρ 2) π (1 - ρ 2) 2 z exp ⁡ (- | z | 1 - ρ 2) = 1 2 π z exp ⁡ (- | z | + ρ z (1 - ρ) (1 + ρ)) знак равно 1 2 π z ехр ⁡ (- z 1 + ρ), z>0 → 1 Γ (1 2) 2 ze - z 2, так как ρ → 1 {\ displaystyle {\ begin {align} p (z) \ rightarrow {\ frac {1} {\ pi {\ sqrt {1- \ rho ^ {2}}}}} \ exp \ left ({\ frac {\ rho z} {1- \ rho ^ {2}}} \ справа) {\ sqrt {\ frac {\ pi (1- \ rho ^ {2})} {2z}}} \ exp \ left (- {\ frac {| z |} {1- \ rho ^ {2} }} \ right) \\ = {\ frac {1} {\ sqrt {2 \ pi z}}} \ exp {\ Bigg (} {\ frac {- | z | + \ rho z} {(1- \ rho) (1+ \ rho)}} {\ Bigg)} \\ = {\ frac {1} {\ sqrt {2 \ pi z}}} \ exp {\ Bigg (} {\ frac {-z } {1+ \ rho}} {\ Bigg)}, \; \; z>0 \\ \ rightarrow {\ frac {1} {\ Gamma ({\ tfrac {1} {2}}) {\ sqrt {2z}}}} e ^ {- {\ tfrac {z} {2 }}}, \; \; {\ text {as}} \ rho \ rightarrow 1 \\\ конец {выровнено}}}{\displaystyle {\begin{aligned}p(z)\rightarrow {\frac {1}{\pi {\sqrt {1-\rho ^{2}}}}}\exp \left({\frac {\rho z}{1-\rho ^{2}}}\right){\sqrt {\frac {\pi (1-\rho ^{2})}{2z}}}\exp \left(-{\frac {|z|}{1-\rho ^{2}}}\right)\\={\frac {1}{\sqrt {2\pi z}}}\exp {\Bigg (}{\frac {-|z|+\rho z}{(1-\rho)(1+\rho)}}{\Bigg)}\\={\frac {1}{\sqrt {2\pi z}}}\exp {\Bigg (}{\frac {-z}{1+\rho }}{\Bigg)},\;\;z>0 \\ \ rightarrow {\ frac {1} {\ Gamma ({\ tfrac {1} { 2}}) {\ sqrt {2z}}}} e ^ {- {\ tfrac {z} {2}}}, \; \; {\ text {as}} \ rho \ rightarrow 1 \\\ конец {выровнено}}

который представляет собой распределение хи-квадрат с одной степенью свободы.

Несколько коррелированных выборок . Nadarajaha et. al. показать, что если Z 1, Z 2,... Z n равны n {\ displaystyle Z_ {1}, Z_ {2},.. Z_ {n} {\ text {are}} n}{\displaystyle Z_{1},Z_{2},..Z_{n}{\text{ are }}n}iid случайных величин, взятых из f Z (z) {\ displaystyle f_ {Z} (z)}{\displaystyle f_{Z}(z)}и Z ¯ = 1 n ∑ Z i {\ displaystyle {\ bar {Z}} = {\ tfrac {1} {n}} \ sum Z_ {i}}{\displaystyle {\bar {Z}}={\tfrac {1}{n}}\sum Z_{i}}- их среднее значение, тогда.

f Z ¯ (z) = nn / 2 2 - n / 2 Γ (n 2) | z | n / 2 - 1 exp ⁡ (β - γ 2 z) W 0, 1 - n 2 (| z |), - ∞ < z < ∞. {\displaystyle f_{\bar {Z}}(z)={\frac {n^{n/2}2^{-n/2}}{\Gamma ({\frac {n}{2}})}}|z|^{n/2-1}\exp \left({\frac {\beta -\gamma }{2}}z\right){W}_{0,{\frac {1-n}{2}}}(|z|),\;\;-\infty {\displaystyle f_{\bar {Z}}(z)={\frac {n^{n/2}2^{-n/2}}{\Gamma ({\frac {n}{2}})}}|z|^{n/2-1}\exp \left({\frac {\beta -\gamma }{2}}z\right){W}_{0,{\frac {1-n}{2}}}(|z|),\;\;-\infty <z<\infty.}

где W - функция Уиттекера, а β знак равно N 1 - ρ, γ знак равно N 1 + ρ {\ displaystyle \ beta = {\ frac {n} {1- \ rho}}, \; \; \ gamma = {\ frac {n} {1+ \ rho}}}{\displaystyle \beta ={\frac {n}{1-\rho }},\;\;\gamma ={\frac {n}{1+\rho }}}.

Используя тождество W 0, ν (x) = x π K ν (x / 2), x ≥ 0 {\ displaystyle W_ { 0, \ nu} (x) = {\ sqrt {\ frac {x} {\ pi}}} K _ {\ nu} (x / 2), \; \; x \ geq 0}{\displaystyle W_{0,\nu }(x)={\sqrt {\frac {x}{\pi }}}K_{\nu }(x/2),\;\;x\geq 0}см. например компиляцию DLMF. уравнение (13.13.9), это выражение можно несколько упростить до

f z ¯ (z) = n n / 2 2 - n / 2 Γ (n 2) | z | n / 2 - 1 ехр ⁡ (β - γ 2 z) β + γ π | z | K 1 - n 2 (β + γ 2 | z |), - ∞ < z < ∞. {\displaystyle f_{\bar {z}}(z)={\frac {n^{n/2}2^{-n/2}}{\Gamma ({\frac {n}{2}})}}|z|^{n/2-1}\exp \left({\frac {\beta -\gamma }{2}}z\right){\sqrt {{\frac {\beta +\gamma }{\pi }}|z|}}\;K_{\frac {1-n}{2}}\left({\frac {\beta +\gamma }{2}}|z|\right),\;\;-\infty {\displaystyle f_{\bar {z}}(z)={\frac {n^{n/2}2^{-n/2}}{\Gamma ({\frac {n}{2}})}}|z|^{n/2-1}\exp \left({\frac {\beta -\gamma }{2}}z\right){\sqrt {{\frac {\beta +\gamma }{\pi }}|z|}}\;K_{\frac {1-n}{2}}\left({\frac {\beta +\gamma }{2}}|z|\right),\;\;-\infty <z<\infty.}

PDF дает распределение выборочной ковариации.

Множественные коррелированные нецентральные выборки . Распределение продукта коррелированных нецентральных нормальных выборок было получено Cui et.al. и принимает вид бесконечного ряда модифицированных функций Бесселя первого рода.

Моменты произведения коррелированных центральных нормальных выборок

Для центрального нормального распределения N (0,1) моменты

E ⁡ [X p] = 1 σ 2 π ∫ - ∞ ∞ xp exp ⁡ (- x 2 2 σ 2) dx = {0, если p нечетное, σ p (p - 1)! ! если p четно. {\ displaystyle \ operatorname {E} \ left [X ^ {p} \ right] = {\ frac {1} {\ sigma {\ sqrt {2 \ pi}}}} \ int _ {- \ infty} ^ { \ infty} x ^ {p} \ exp (- {\ tfrac {x ^ {2}} {2 \ sigma ^ {2}}}) \, dx = {\ begin {cases} 0 {\ text {if} } p {\ text {нечетно,}} \\\ sigma ^ {p} (p-1) !! {\ text {if}} p {\ text {четно.}} \ end {cases}} }{\displaystyle \operatorname {E} \left[X^{p}\right]={\frac {1}{\sigma {\sqrt {2\pi }}}}\int _{-\infty }^{\infty }x^{p}\exp(-{\tfrac {x^{2}}{2\sigma ^{2}}})\,dx={\begin{cases}0{\text{if }}p{\text{ is odd,}}\\\sigma ^{p}(p-1)!!{\text{if }}p{\text{ is even.}}\end{cases}}}

где n! ! {\ displaystyle n !!}n!!обозначает двойной факториал.

Если X, Y ∼ Norm (0, 1) {\ displaystyle X, Y \ sim {\ text {Norm }} (0,1)}{\displaystyle X,Y\sim {\text{Norm}}(0,1)}- центральные коррелированные переменные, простейший двумерный случай многомерной нормальной проблемы моментов, описанной Каном, тогда

E ⁡ [X p Y q] = {0, если p + q нечетно, p! д! 2 п + д 2 ∑ К знак равно 0 Т (2 ρ) 2 К (п 2 - К)! (q 2 - k)! (2 к)! если p и q четные p! д! 2 п + д 2 ∑ К знак равно 0 т (2 р) 2 К + 1 (п - 1 2 - к)! (q - 1 2 - k)! (2 к + 1)! если p и q нечетные {\ displaystyle \ operatorname {E} [X ^ {p} Y ^ {q}] = {\ begin {cases} 0 {\ text {if}} p + q {\ text {нечетные,}} \\ {\ frac {p! q!} {2 ^ {\ tfrac {p + q} {2}}}} \ sum _ {k = 0} ^ {t} {\ frac {(2 \ rho) ^ {2k}} {{\ Big (} {\ frac {p} {2}} - k {\ Big)}! \; {\ Big (} {\ frac {q} {2}} - k {\ Big)}! \; (2k)!}} {\ Text {if}} p {\ text {и}} q {\ text {четные}} \\ {\ frac {p! Q!} {2 ^ {\ tfrac {p + q} {2}}}} \ sum _ {k = 0} ^ {t} {\ frac {(2 \ rho) ^ {2k + 1}} {{\ Big ( } {\ frac {p-1} {2}} - k {\ Big)}! \; {\ Big (} {\ frac {q-1} {2}} - k {\ Big)}! \; (2k + 1)!}} {\ Text {if}} p {\ text {and}} q {\ text {нечетные}} \ end {cases}}}{\displaystyle \operatorname {E} [X^{p}Y^{q}]={\begin{cases}0{\text{if }}p+q{\text{ is odd,}}\\{\frac {p!q!}{2^{\tfrac {p+q}{2}}}}\sum _{k=0}^{t}{\frac {(2\rho)^{2k}}{{\Big (}{\frac {p}{2}}-k{\Big)}!\;{\Big (}{\frac {q}{2}}-k{\Big)}!\;(2k)!}}{\text{if }}p{\text{ and }}q{\text{ are even}}\\{\frac {p!q!}{2^{\tfrac {p+q}{2}}}}\sum _{k=0}^{t}{\frac {(2\rho)^{2k+1}}{{\Big (}{\frac {p-1}{2}}-k{\Big)}!\;{\Big (}{\frac {q-1}{2}}-k{\Big)}!\;(2k+1)!}}{\text{if }}p{\text{ and }}q{\text{ are odd}}\end{cases}}}

где

ρ {\ displaystyle \ rho}\rho - коэффициент корреляции, а t = min ([p, q] / 2) {\ displaystyle t = \ min ([p, q] / 2)}{\displaystyle t=\min([p,q]/2)}

[требуется проверка]

Коррелированные нецентральные нормальные распределения

Распределение продукта нецентральных коррелированных нормальных выборок было получено Cui et al. и принимает форму бесконечного ряда.

Эти распределения продуктов в некоторой степени сопоставимы с распределением Уишарта. Последний представляет собой совместное распределение четырех элементов (фактически только трех независимых элементов) выборочной ковариационной матрицы. Если xt, yt {\ displaystyle x_ {t}, y_ {t}}{\displaystyle x_{t},y_{t}}являются выборками из двумерного временного ряда, то W = ∑ t = 1 K (xtyt) (xtyt) T {\ displaystyle W = \ sum _ {t = 1} ^ {K} {\ dbinom {x_ {t}} {y_ {t}}} {\ dbinom {x_ {t}} {y_ {t}} } ^ {T}}{\displaystyle W=\sum _{t=1}^{K}{\dbinom {x_{t}}{y_{t}}}{\dbinom {x_{t}}{y_{t}}}^{T}}- матрица Уишарта с K степенями свободы. Приведенные выше распределения продуктов представляют собой безусловное распределение совокупности K>1 выборок из W 2, 1 {\ displaystyle W_ {2,1}}{\displaystyle W_{2,1}}.

Независимых комплексных центрально-нормальных распределений

Пусть u 1, v 1, u 2, v 2 {\ displaystyle u_ {1}, v_ {1}, u_ {2}, v_ {2}}{\displaystyle u_{1},v_{1},u_{2},v_{2}}являются независимыми выборками из нормальное (0,1) распределение.. Установка z 1 = u 1 + iv 1 и z 2 = u 2 + iv 2, затем z 1, z 2 {\ displaystyle z_ {1} = u_ {1} + iv_ {1} {\ text {и}} z_ {2} = u_ {2} + iv_ {2} {\ text {then}} z_ {1}, z_ {2}}{\displaystyle z_{1}=u_{1}+iv_{1}{\text{ and }}z_{2}=u_{2}+iv_{2}{\text{ then }}z_{1},z_{2}}являются независимые комплексные нормальные выборки с нулевым средним и круговой симметрией. Их комплексные отклонения: Var ⁡ | z i | = 2. {\ displaystyle \ operatorname {Var} | z_ {i} | = 2.}{\displaystyle \operatorname {Var} |z_{i}|=2.}

Функции плотности

r i ≡ | z i | знак равно (ui 2 + vi 2) 1 2, i = 1, 2 {\ displaystyle r_ {i} \ Equiv | z_ {i} | = (u_ {i} ^ {2} + v_ {i} ^ {2}) ^ {\ frac {1} {2}}, \; \; i = 1,2}{\displaystyle r_{i}\equiv |z_{i}|=(u_{i}^{2}+v_{i}^{2})^{\frac {1}{2}},\;\;i=1,2}- это распределения Рэлея, определенные как:
fr (ri)
Последняя правка сделана 2021-06-02 07:34:08
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте