Распределение Коши

редактировать
Распределение вероятностей
Коши
Функция плотности вероятности Функция плотности вероятности для распределения Коши . Фиолетовая кривая - стандартное распределение Коши
Накопительная функция распределения Кумулятивная функция распределения для распределения Коши
Параметрыx 0 {\ displaystyle x_ {0} \!}x_ {0} \! местоположение (действительное ). γ>0 {\ displaystyle \ gamma>0}\gamma>0 масштаб (реальный)
Поддержка x ∈ (- ∞, + ∞) {\ displaystyle \ displaystyle x \ in (- \ infty, + \ infty) \!}\ displaystyle x \ in (- \ infty, + \ infty) \!
PDF 1 π γ [ 1 + (Икс - Икс 0 γ) 2] {\ Displaystyle {\ frac {1} {\ pi \ gamma \, \ left [1+ \ left ({\ frac {x-x_ {0}} {\ гамма}) } \ right) ^ {2} \ right]}} \!}\ frac {1} {\ pi \ gamma \, \ left [1 + \ влево (\ гидроразрыва {x- x_0} {\ gamma} \ right) ^ 2 \ right]} \!
CDF 1 π arctan ⁡ (x - x 0 γ) + 1 2 {\ displaystyle {\ frac {1} {\ pi} } \ arctan \ left ({\ frac {x-x_ {0}} {\ gamma}} \ right) + {\ frac {1} {2}} \! }\ frac {1} {\ pi} \ arctan \ left (\ frac {x-x_0} {\ gamma} \ right) + \ frac {1} {2} \!
Квантиль x 0 + γ загар ⁡ [π (F - 1 2)] {\ displaystyle x_ {0} + \ gamma \, \ tan [\ pi (F - {\ tfrac {1} { 2}})]}x_0 + \ gamma \, \ tan [\ pi (F- \ tfrac {1} {2})]
Среднее неопределенное
Медианное x 0 {\ displaystyle x_ {0} \!}x_ {0} \!
Режим x 0 {\ displaystyle x_ {0} \ !}x_ {0} \!
Дисперсия undefined
Асимметрия undefined
Пример. эксцесс undefined
Энтропия log ⁡ (4 π γ) {\ displaystyle \ log (4 \ pi \ gamma) \!}{\ displaystyle \ log (4 \ pi \ gamma) \!}
MGF не существует
CF exp ⁡ (Икс 0 это - γ | t |) {\ displaystyle \ displaystyle \ exp (x_ {0} \, i \, t- \ gamma \, | t |) \!}\ displaystyle \ exp (x_0 \, i \, t- \ gamma \, | т |) \!
информация Фишера 1 2 γ 2 {\ displaystyle {\ frac {1} {2 \ gamma ^ {2}}}}{\ displaystyle {\ frac {1} {2 \ gamma ^ {2}}}}

Распределение Коши, названное в честь Огюстена Коши, является непрерывным распределением вероятностей. Это также известно, особенно физиков, как распределение Лоренца (после Хендрика Лоренца ), распределение Коши - Лоренца, Функция Лоренца (ian), или распределение Брейта - Вигнера . Распределение Коши f (x; x 0, γ) {\ displaystyle f (x; x_ {0}, \ gamma)}f (x; x_ {0}, \ gamma) - это распределение x-точки пересечения луча, выходящего из (x 0, γ) {\ displaystyle (x_ {0}, \ gamma)}(x_ {0}, \ gamma) с равномерно распределенным углом. Это также распределение отношений двух независимых нормально распределенных случайных величин с нулевым средним.

Распределение Коши часто используется в качестве канонического примера «патологического » распределения, поскольку его ожидаемое значение и его дисперсия не является (но см. § Объяснение неопределенных моментов ниже). Распределение Коши не имеет конечных моментов порядка больше или равного единице; существуют только дробные абсолютные моменты. Распределение Коши не имеет функции , производящей момент.

В математике оно используется вместе с ядром Пуассона, которое является фундаментальным решением для уравнение Лапласа в верхней полуплоскости .

Это одно из немногих распределений, которое стабильно имеет функцию плотности вероятности, которая может быть выражена аналитически, другими являются нормальное распределение и распределение Леви.

Содержание
  • 1
  • 2 Характеристика
    • 2.1 Функция плотности вероятности
    • 2.2 Кумулятивная функция История распределения
    • 2.3 Энтропия
  • 3 Дивергенция Кульбака-Лейблера
  • 4 Свойства
    • 4.1 Характеристическая функция
  • 5 Объяснение неопределенных моментов
    • 5.1 Среднее
    • 5.2 Меньшие моменты
    • 5.3 Высшие моменты
    • 5.4 Моменты усеченных распределений
  • 6 Оценка параметров
  • 7 Общее распределение Коши
  • 8 Свойства преобразования
  • 9 Мера Леви
  • 10 Связанные распределения
  • 11 R элятивистское распределение Брейта - Вигнера
  • 12 Возникновение и применение
  • 13 См. также
  • 14 Ссылки
  • 15 Внешние ссылки
История
Оценка среднего и стандартного отклонения по выборкам из распределения Коши (внизу) не сходится с большим количеством выборок, как в нормальном распределении ( вверху). Скачки могут быть сколь угодно большими, как видно на графиках внизу. (Щелкните, чтобы развернуть)

Функции сучались функции распределения Коши из математики в 17 веке, но в контексте и под названием ведьмы Агнеси. Несмотря на название, первый явный анализ свойств распределения Коши был опубликован французским математиком Пуассоном в 1824 году, и Коши стал ассоциироваться с ним только во время академических споров в 1853 году. Таким образом, название распределения является случаем закона эпонимии Стиглера. Пуассон заметил, что если брать среднее значение наблюдений, следующая за таким распределением, то средняя ошибка сходится к какому-либо конечному наблюдению. Таким образом, использование Лапласом центральной предельной теоремы с таким распределением было неуместным, поскольку предполагало конечное среднее значение и дисперсию. Несмотря на это, Пуассон не должен считать этот вопрос важным, в отличие от Бьенайме, который был вовлечь Коши в долгий спор по этому поводу.

Характеристика

Функция плотности вероятности

Распределение Коши имеет плотность плотности вероятности (PDF)

f (x; x 0, γ) Знак равно 1 π γ [1 + (x - x 0 γ) 2] = 1 π γ [γ 2 (x - x 0) 2 + γ 2], {\ displaystyle f (x; x_ {0}, \ gamma) = {\ frac {1} {\ pi \ gamma \ left [1+ \ left ({\ frac {x-x_ {0}} {\ gamma}} \ right) ^ {2} \ right]}} = { 1 \ over \ pi \ gamma} \ left [{\ gamma ^ {2} \ over (x-x_ {0}) ^ {2} + \ gamma ^ {2}} \ right],}f (x; x_ {0}, \ gamma) = {\ frac {1} {\ pi \ gamma \ left [1+ \ left ({\ frac {x-x_ {0}} {\ gamma}) } \ right) ^ {2} \ right]}} = {1 \ over \ pi \ gamma} \ left [{\ gamma ^ {2} \ over (x-x_ {0}) ^ {2} + \ gamma ^ {2}} \ right],

где x 0 {\ displaystyle x_ {0}}x_ {0} - параметр местоположения, определяющий местоположение пика распределения, а γ {\ displaystyle \ gamma}\ gamma - это параметр масштаба , определяет полуширину на полувысоте (HWHM), альтернативно 2 γ {\ displaystyle 2 \ gamma}2 \ gamma составляет полную ширину на половине значений (FWHM). γ {\ displaystyle \ gamma}\ gamma также равен половине межквартирного размаха и иногда называется вероятной ошибкой. Огюстен-Луи Коши использовал такую ​​функцию плотности в 1827 году с бесконечно малым параметр масштаба, определяя то, что теперь будет называться дельта-функции Дирака.

Максимальное значение или амплитуда PDF-файла Коши: 1 π γ {\ displaystyle {\ frac {1} {\ pi \ gamma}}}{\ displaystyle {\ frac {1} {\ pi \ gamma }}} , расположенный в x = x 0 {\ displaystyle x = x_ {0}}x = x_0 .

Иногда бывает удобно выразить PDF через комплексный параметр ψ = x 0 + i γ {\ displaystyle \ psi = x_ {0} + i \ gamma}{\ displaystyle \ psi = x_ {0} + i \ gamma}

f (Икс; ψ) знак равно 1 π Im (1 x - ψ) = 1 π Re (- ix - ψ) {\ displaystyle f (x; \ psi) = {\ frac {1} {\ pi}} \, {\ textrm { Im}} \ left ({\ frac {1} {x- \ psi}} \ right) = {\ frac {1} {\ pi}} \, {\ textrm {Re}} \ left ({\ frac { -i} {x- \ psi}} \ right)}{\ displaystyle f (x; \ psi) = {\ frac {1} {\ pi}} \, {\ textrm {Im}} \ left ({\ frac {1} {x- \ psi}} \ right) = {\ frac {1} {\ pi}} \, {\ textrm {Re}} \ left ({\ frac {-i} {x- \ psi}} \ right)}

Особый случай, когда x 0 = 0 {\ displaystyle x_ {0} = 0}x_ {0} = 0 и γ = 1 {\ displaystyle \ gamma = 1}\ gamma = 1 называется стандартным распределением Коши с функцией плотности вероятности

f (x; 0, 1) = 1 π (1 + х 2). {\ displaystyle f (x; 0,1) = {\ frac {1} {\ pi (1 + x ^ {2})}}. \!}f (Икс; 0,1) = \ frac {1} {\ pi (1 + x ^ 2)}. \!

В физике трехпараметрическая функция Лоренца часто используется:

f (x; x 0, γ, I) = I [1 + (x - x 0 γ) 2] = I [γ 2 (x - икс 0) 2 + γ 2], {\ displaystyle f (x; x_ {0}, \ gamma, I) = {\ frac {I} {\ left [1+ \ left ({\ frac {x-x_ { 0}} {\ gamma}} \ right) ^ {2} \ right]}} = I \ left [{\ gamma ^ {2} \ over (x-x_ {0}) ^ {2} + \ gamma ^ {2}} \ right],}f (x; x_0, \ gamma, I) = \ frac {I} {\ left [1 + \ влево (\ f rac {x-x_0} {\ gamma} \ right) ^ 2 \ right]} = I \ left [{\ gamma ^ 2 \ над (x - x_0) ^ 2 + \ gamma ^ 2} \ right],

где I {\ displaystyle I}I - высота пика. Указанная трехпараметрическая функция не является функцией плотности вероятности, поскольку она не интегрируется до 1, за исключением особого случая, когда I = 1 π γ. {\ displaystyle I = {\ frac {1} {\ pi \ gamma}}. \!}{\ displaystyle I = {\ frac {1} {\ pi \ gamma}}. \!}

Кумулятивная функция распределения

кумулятивная функция распределения распределения Коши:

F (x; x 0, γ) = 1 π arctan ⁡ (x - x 0 γ) + 1 2 {\ displaystyle F (x; x_ {0}, \ gamma) = {\ frac {1} {\ pi}} \ arctan \ left ({\ frac {x-x_ {0}} {\ gamma }} \ right) + {\ frac {1} {2}}}F (x; x_0, \ gamma) = \ frac {1} {\ pi} \ arctan \ left (\ frac {x-x_0} {\ gamma} \ right) + \ frac {1} {2}

и функция квантиля (обратный cdf ) распределения Коши равен

Q (p; x 0, γ) = x 0 + γ tan ⁡ [π (p - 1 2)]. {\ displaystyle Q (p; x_ {0}, \ gamma) = x_ {0} + \ gamma \, \ tan \ left [\ pi \ left (p - {\ tfrac {1} {2}} \ right) \ right].}Q (p; x_0, \ gamma) = x_0 + \ gamma \, \ tan \ left [\ pi \ left (p- \ tfrac {1} {2} \ right) \ right].

Отсюда следует, что первый и третий квартили равны (x 0 - γ, x 0 + γ) {\ displaystyle (x_ {0} - \ gamma, x_ {0} + \ gamma))}{\ displaystyle (x_ {0} - \ gamma, x_ {0} + \ gamma)} , и, следовательно, межквартильный размах равенство 2 γ {\ displaystyle 2 \ gamma}2 \ gamma .

Для стандартного распределения кумулятивная функция распределения упрощается до функция арктангенса arctan ⁡ (x) {\ displaystyle \ arctan (x)}\ arctan (x) :

F (x; 0, 1) = 1 π arctan ⁡ (x) + 1 2 {\ displaystyle F (x; 0, 1) = {\ frac {1} {\ pi}} \ arctan \ left (x \ right) + {\ frac {1} {2}}}F (x; 0,1) = \ frac {1} {\ pi} \ arctan \ left (x \ right) + \ frac {1} {2}

Энтропия

Энтропия распределения Коши определяется выражением:

H (γ) = - ∫ - ∞ ∞ f (x; x 0, γ) log ⁡ (f (x; x 0, γ)) dx = log ⁡ (4 π γ) {\ displaystyle { \ begin {align} H (\ gamma) = - \ int _ {- \ infty} ^ {\ infty} f (x; x_ {0}, \ gamma) \ log (f (x; x_ {0}, \ gamma)) \, dx \\ [6pt] = \ log (4 \ pi \ gamma) \ end {align}}}{\ displaystyle {\ begin {align} H (\ gamma) = - \ int _ {- \ infty} ^ {\ infty} f (x; x_ {0}, \ gamma) \ log (f (x; x_ {0}, \ gamma)) \, dx \\ [6pt] = \ журнал (4 \ пи \ гамма) \ конец {выровнено}}

Производственная квантильная функция , квантильная функция плотности для распределения Коши:

Q ′ (p; γ) = γ π sec 2 [π (p - 1 2)]. {\ displaystyle Q '(p; \ gamma) = \ gamma \, \ pi \, {\ sec} ^ {2} \ left [\ pi \ left (p - {\ tfrac {1} {2}} \ right) \ верно]. \!}{\displaystyle Q'(p;\gamma)=\gamma \,\pi \,{\sec }^{2}\left[\pi \left(p-{\tfrac {1}{2}}\right)\right].\!}

дифференциальная энтропия распределение может быть определено в терминах его квантильной плотности, а именно:

H (γ) = ∫ 0 1 log (Q ′ (п; γ)) dp знак равно журнал ⁡ (4 π γ) {\ Displaystyle H (\ gamma) = \ int _ {0} ^ {1} \ log \, (Q '(p; \ gamma)) \, \ mathrm {d} p = \ log (4 \ pi \ gamma)}{\displaystyle H(\gamma)=\int _{0}^{1}\log \,(Q'(p;\gamma))\,\mathrm {d} p=\log(4\pi \gamma)}

Распределение Коши - это максимальная вероятности энтропии для случайной переменной X {\ displaystyle X}Икс для которого

E ⁡ [журнал ⁡ (1 + (X - x 0) 2 / γ 2)] = журнал ⁡ 4 {\ displaystyle \ operatorname {E} [\ log (1+ (X- x_ {0}) ^ {2} / \ gamma ^ {2})] = \ log 4}{\ displaystyle \ operatorname {E} [\ log (1+ (X- x_ {0}) ^ {2} / \ gamma ^ {2})] = \ log 4}

или альтернативный вариант для случайной переменной X {\ displaystyle X}Икс для что

E ⁡ [log ⁡ ( 1 + (X - x 0) 2)] = 2 log ⁡ (1 + γ). {\ displaystyle \ operatorname {E} [\ log (1+ (X-x_ {0}) ^ {2})] = 2 \ log (1+ \ gamma).}{\ displaystyle \ operatorname {E} [\ log (1+ (X-x_ {0}) ^ {2})] = 2 \ log (1+ \ gamma).}

В стандартной форме это Максимальная вероятность энтропии для случайной переменной X {\ displaystyle X}Икс , для которой

E [ln ⁡ (1 + X 2)] = ln ⁡ 4. {\ displaystyle \ operatorname {E} \! \ left [\ ln (1 + X ^ {2}) \ right] = \ ln 4.}{\ displaystyle \ operatorname {E} \! \ Left [\ ln (1 + X ^ {2}) \ right] = \ ln 4.}

.

расхождение Кульбака-Лейблера

Дивергенция Кульбака-Лейблера между двумя распределениями Коши имеет следующую симметричную формулу замкнутой формы:

KL (pl 1, s 1: pl 2, s 2) = log ⁡ (s 1 + s 2) 2 + (l 1 - l 2) 2 4 с 1 с 2. {\ displaystyle \ mathrm {KL} \ left (p_ {l_ {1}, s_ {1}}: p_ {l_ {2}, s_ {2}} \ right) = \ log {\ frac {\ left (s_ {1} + s_ {2} \ right) ^ {2} + \ left (l_ {1} -l_ {2} \ right) ^ {2}} {4s_ {1} s_ {2}}}.}{\ displaystyle \ mathrm {KL} \ left (p_ {l_ {1}, s_ {1}}: p_ {l_ {2}, s_ {2}} \ right) = \ log {\ frac {\ left (s_ {1} + s_ {2} \ right) ^ {2} + \ left (l_ {1} -l_ {2} \ right) ^ {2}} {4s_ {1} s_ {2}}}. }
Свойства

Распределение Коши представляет собой распределение, для которого среднее, дисперсия или более высокие моменты. Его режим и медиана хорошо и оба Равны x 0 {\ displaystyle x_ {0}}x_ {0} .

Когда U {\ displaystyle U}U и V {\ displaystyle V}V - две независимые нормально распределенные случайные величины с ожидаемого числа 0 и дисперсия 1, то отношение U / V {\ displaystyle U / V}{\ displaystyle U / V} имеет стандартное распределение Коши.

Если Σ {\ displaystyle \ Sigma}\ Sigma является p × p {\ displaystyle p \ times p}p \ times p положительно-полуопределенная матрица ковариаций со строго положительными диагональными элементами, то для независимо и одинаково распределенных X, Y ∼ N (0, Σ) {\ displaystyle X, Y \ sim N (0, \ Sigma)}{\ Displaystyle X, Y \ sim N (0, \ Sigma)} и любой случайный p {\ displaystyle p}p -вектор w {\ displaystyle w}w независимо от X {\ displaystyle X}Икс и Y {\ displaystyle Y}Y такие, что w 1 + ⋯ + wp = 1 {\ displaystyle w_ {1} + \ cdots + w_ {p} = 1}{\ displaystyle w_ {1} + \ cdots + w_ {p} = 1} и wi ≥ 0, i = 1,…, p, {\ displaystyle w_ {i} \ geq 0, i = 1, \ ldots, p,}{\ displaystyle w_ {i} \ geq 0, i = 1, \ ldots, p,} (определяя категориальное распределение ), выполняется

∑ j = 1 pwj X j Y j ∼ C auchy (0, 1). {\ displaystyle \ sum _ {j = 1} ^ {p} w_ {j} {\ frac {X_ {j}} {Y_ {j}}} \ sim \ mathrm {Cauchy} (0,1).}{\ displaystyle \ sum _ {j = 1} ^ {p} w_ {j} {\ frac {X_ {j}} {Y_ {j}}} \ sim \ mathrm {Cauchy} (0,1).}

Если X 1,…, X n {\ displaystyle X_ {1}, \ ldots, X_ {n}}X_1, \ ldots, X_n являются независимыми и одинаково распределенными случайными величинами, каждой со стандартным распределением Коши, то выборочное среднее (X 1 + ⋯ + X n) / n {\ displaystyle (X_ {1} + \ cdots + X_ {n}) / n}{\ displaystyle (X_ {1} + \ cdots + X_ {n}) / n} имеет такое же стандартное распределение Коши. Чтобы убедиться, что это так, вычислите качественную функцию выборочного среднего:

φ X ¯ (t) = E [ei X ¯ t] {\ displaystyle \ varphi _ {\ overline {X}} ( t) = \ mathrm {E} \ left [e ^ {i {\ overline {X}} t} \ right]}{\ displaystyle \ varphi _ {\ overline {X}} (t) = \ mathrm {E } \ left [e ^ {i {\ overline {X}} t} \ right]}

где X ¯ {\ displaystyle {\ overline {X}}}{\ overline {X}} - выборочное среднее. Этот пример показывает, что гипотеза конечной дисперсии в центральной предельной теореме не может быть отброшена. Это также пример обобщенной версии центральной предельной теоремы, которая характерна для всех стабильных распределений, частным случаем которых является распределение Коши.

Распределение Коши - это бесконечно делимое распределение вероятностей. Это также строго стабильное распределение.

Стандартное распределение Коши совпадает с t-распределением Стьюдента с одной степенью свободы.

Как и все стабильные распределения, семейство масштаба местоположения, к которому принадлежат Коши, замкнуто при линейных преобразованиях с действительными коэффициентами. Кроме того, распределение Коши закрывается при дробно-линейных преобразованиях с действующими коэффициентами. В этой связи см. параметры распределений Коши Маккаллахом.

Характеристическая функция

Пусть X {\ displaystyle X}Икс обозначает распределенную случайную категорию Коши. характерная функция распределение Коши определяется как

φ X (t; x 0, γ) = E ⁡ [ei X t] = ∫ - ∞ ∞ f (x; x 0, γ) eixtdx = eix 0 t - γ | т |. {\ displaystyle \ varphi _ {X} (t; x_ {0}, \ gamma) = \ operatorname {E} \ left [e ^ {iXt} \ right] = \ int _ {- \ infty} ^ {\ infty } f (x; x_ {0}, \ gamma) e ^ {ixt} \, dx = e ^ {ix_ {0} t- \ gamma | t |}.}{\ displaystyle \ varphi _ {X} (t; x_ {0}, \ gamma) = \ operatorname {E} \ left [e ^ {iXt} \ right] = \ int _ {- \ infty} ^ {\ infty} f (x; x_ {0}, \ gamma) e ^ {ixt} \, dx = e ^ {ix_ {0} t- \ gamma | т | }.}

что является просто Фурье преобразовать плотность вероятности. Первоначальная плотность вероятности может быть выражена через характеристическую функцию, по существу, с помощью обратного преобразования Фурье:

f (x; x 0, γ) = 1 2 π ∫ - ∞ ∞ φ X (t; x 0, γ) е - ixtdt {\ displaystyle f (x; x_ {0}, \ gamma) = {\ frac {1} {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} \ varphi _ {X} ( t; x_ {0}, \ gamma) e ^ {- ixt} \, dt \!}{\ displaystyle f (x; x_ {0}, \ gamma) = {\ frac {1} {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} \ varphi _ {X} (t; x_ {0}, \ gamma) e ^ {- ixt} \, dt \!}

n-й момент распределения - это n-я производная характеристическая функция, вычисленная при t = 0 {\ displaystyle t = 0}t Знак равно 0 . Обратите внимание, что характерная функция не дифференцируема в начале координат: это соответствует тому факту, что распределение Коши не имеет четко определенных моментов выше, чем нулевой момент.

Объяснение неопределенных моментов

Среднее

Если распределение вероятностей имеет функция плотности f (x) {\ displaystyle f (x)}f (x) , тогда среднее значение, если оно существует, дается как

∫ - ∞ ∞ xf (x) dx. (1) {\ Displaystyle \ int _ {- \ infty} ^ {\ infty} xf (x) \, dx. \ Qquad \ qquad (1) \!}\ int _ {- \ infty} ^ \ infty xf (x) \, dx. \ qquad \ qquad (1) \!

Мы можем оценить этот двусторонний несобственный интеграл путем вычисления суммы двух односторонних несобственных интегралов. То есть

∫ a ∞ x f (x) d x + ∫ - ∞ a x f (x) d x. (2) {\ displaystyle \ int _ {a} ^ {\ infty} xf (x) \, dx + \ int _ {- \ infty} ^ {a} xf (x) \, dx. \ Qquad \ qquad (2) \!}\ int_a ^ \ infty xf (x) \, dx + \ int _ {- \ infty} ^ axf (x) \, dx. \ Qquad \ qquad (2) \!

для произвольного действительного числа a {\ displaystyle a}a .

Для существования интеграла (даже в виде бесконечного значения), хотя бы один из членов этой суммы должен быть конечным, или оба должны быть бесконечными и иметь один и тот же знак. В случае распределения Коши оба члена в этой сумме (2) бесконечны и имеют противоположный знак. Следовательно, (1) не определено, как и среднее значение.

Обратите внимание, что главное значение Коши среднего значения распределения Коши равно

lim a → ∞ ∫ - aaxf (x) dx, {\ displaystyle \ lim _ {a \ to \ infty} \ int _ {- a} ^ {a} xf (x) \, dx, \!}\ lim_ {а \ т о \ infty} \ int _ {- a} ^ axf (x) \, dx, \!

который равен нулю. С другой стороны, соответствующий интеграл

lim a → ∞ ∫ - 2 aaxf (x) dx, {\ displaystyle \ lim _ {a \ to \ infty} \ int _ {- 2a} ^ {a} xf (x) \, dx, \!}\ lim_ {a \ to \ infty} \ int _ {- 2a} ^ axf (x) \, dx, \!

не равно нулю, что легко увидеть, вычислив интеграл. Это снова показывает, что среднее (1) не может существовать.

Различные результаты теории вероятностей относительно ожидаемых значений, такие как строгий закон больших чисел, не выполняются для распределения Коши.

Меньшие моменты

Определены абсолютные моменты для p ∈ (- 1, 1) {\ displaystyle p \ in (-1,1)}{\ displaystyle p \ in (-1,1)} . Для X ∼ C a u c час Y (0, γ) {\ displaystyle X \ sim \ mathrm {Cauchy} (0, \ gamma)}{\ displaystyle X \ sim \ mathrm {Cauchy} (0, \ gamma)} мы имеем

E ⁡ [| X | p] = γ p s e c (π p / 2). {\ displaystyle \ operatorname {E} [| X | ^ {p}] = \ gamma ^ {p} \ mathrm {sec} (\ pi p / 2).}{\ displaystyle \ operatorname {E} [| X | ^ {p}] = \ gamma ^ {p} \ mathrm {sec} (\ pi p / 2).}

Высшие моменты

Распределение Коши не имеет конечных моментов любого порядка. Некоторые из более высоких исходных моментов действительно существуют и имеют значение бесконечности, например, необработанный второй момент:

E ⁡ [X 2] ∝ ∫ - ∞ ∞ x 2 1 + x 2 dx = ∫ - ∞ ∞ 1-1 1 + x 2 dx знак равно ∫ - ∞ ∞ dx - ∫ - ∞ ∞ 1 1 + x 2 dx = ∫ - ∞ ∞ dx - π = ∞. {\ displaystyle {\ begin {align} \ operatorname {E} [X ^ {2}] \ propto \ int _ {- \ infty} ^ {\ infty} {\ frac {x ^ {2}} {1+ x ^ {2}}} \, dx = \ int _ {- \ infty} ^ {\ infty} 1 - {\ frac {1} {1 + x ^ {2}}} \, dx \\ [8pt] = \ int _ {- \ infty} ^ {\ infty} dx- \ int _ {- \ infty} ^ {\ infty} {\ frac {1} {1 + x ^ {2}}} \, dx = \ int _ {- \ infty} ^ {\ infty} dx- \ pi = \ infty. \ end {align}}}{ \ displaystyle {\ begin {align} \ operatorname {E} [X ^ {2}] \ propto \ int _ {- \ infty} ^ {\ infty} {\ frac {x ^ {2}} {1 + x ^ {2}}} \, dx = \ int _ {- \ infty} ^ {\ infty} 1 - {\ frac {1} {1 + x ^ {2}}} \, dx \\ [8pt] = \ int _ {- \ infty} ^ {\ infty} dx- \ int _ {- \ infty} ^ {\ infty} {\ frac {1} {1 + x ^ {2}}} \, dx = \ int _ {- \ infty} ^ {\ infty} dx- \ pi = \ infty. \ End {align}}}

Изменив формулу, можно увидеть, что второй момент по сути является бесконечным интегралом константы (здесь 1). Более высокие даже мощные необработанные моменты также будут оцениваться до бесконечности. Однако сырые моменты с нечетной нечеткой нечеткой нечеткой, что отличается от хорошей со скоростью бесконечности. Необработанные моменты с нечетной степенью не достижимой оценки, поскольку их значения по существу эквивалентны ∞ - ∞ {\ displaystyle \ infty - \ infty}\ infty - \ infty , поскольку две половины интеграла расходятся и имеют противоположные знаки. Первый необработанный момент - это среднее значение, которого, как ни странно, не существует. (См. Также обсуждение выше по этому поводу.) Это, в свою очередь, означает, что все центральные моменты и стандартизованные моменты не используются, поскольку все они основаны на среднем значении. Дисперсия - которая является вторым центральным моментом - также не (несмотря на то, что необработанный второй момент имеет размерность).

Результаты для высших моментов следуют из неравенства Гёльдера, которое подразумевает, что более высокие моменты (или половины моментов) расходятся, если более низкие.

Моменты усеченных распределений

Рассмотрим усеченное распределение, определенное ограничение стандартного распределения Коши интервалом [-10, 10]. Такое усеченное распределение имеет все моменты (и центральная предельная теорема применима к i.i.d. наблюдения из него); тем не менее, почти для всех практических целей оно ведет себя как распределение Коши.

Оценка параметров

Параметры распределения Коши не соответствуют среднему значению и дисперсии, попытка оценить параметры Коши с использованием выбора среднего и выборочной дисперсии не увенчается успехом. Например, если i.i.d. выборка размера n берется из распределения Коши, можно вычислить выборочное среднее как:

x ¯ = 1 n ∑ i = 1 nxi {\ displaystyle {\ bar {x}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} x_ {i}}{\ displaystyle {\ bar {x}} = {\ frac {1} {n}} \ sum _ {я = 1} ^ {n} x_ {i}}

Хотя примерные значения xi {\ displaystyle x_ {i}}x_ {i} будут сосредоточены вокруг центральное значение x 0 { \ displaystyle x_ {0}}x_ {0} , среднее значение выборки будет становиться все более изменчивым по мере увеличения числа наблюдений из-за увеличения вероятности обнаружения точек выборки с большим абсолютным значением. Фактически, распределение выборочного среднего будет равно распределению самих наблюдений; то есть выборочное среднее большой выборки не лучше (или хуже) для оценки x 0 {\ displaystyle x_ {0}}x_ {0} , чем любое отдельное наблюдение из выборки. Точно так же расчет дисперсии выборки приведет к тому, что значения будут расти по мере увеличения количества наблюдений.

Таким образом, более надежные средства оценки центрального значения x 0 {\ displaystyle x_ {0}}x_ {0} и параметра масштабирования γ {\ displaystyle \ gamma}\ gamma необходимы. Один из простых методов - взять среднее значение выборки в качестве оценки x 0 {\ displaystyle x_ {0}}x_ {0} и половину выборки межквартильного размаха в качестве оценки. из γ {\ displaystyle \ gamma}\ gamma . Были разработаны другие, более точные и надежные методы. Например, усеченное среднее средних 24% выборки статистика заказов дает оценку для x 0 {\ displaystyle x_ {0}}x_ {0} , что более эффективно, чем использование медианы выборки или полного среднего значения выборки. Однако из-за толстых хвостов распределения Коши эффективность средства оценки снижается, если используется более 24% выборки.

Максимальное правдоподобие также можно использовать для оценки параметры x 0 {\ displaystyle x_ {0}}x_ {0} и γ {\ displaystyle \ gamma}\ gamma . Однако это имеет тенденцию усложняться тем фактом, что для этого требуется найти корни многочлена высокой степени, и может быть несколько корней, которые представляют локальные максимумы. Кроме того, хотя оценка максимального правдоподобия является асимптотически эффективной, она относительно неэффективна для небольших выборок. Функция логарифма правдоподобия для распределения Коши для размера выборки n {\ displaystyle n}n :

ℓ ^ (x 0, γ ∣ x 1,…, xn) = - n журнал ⁡ (γ π) - ∑ я знак равно 1 N журнал ⁡ (1 + (xi - x 0 γ) 2) {\ displaystyle {\ hat {\ ell}} (\! x_ {0}, \ gamma \ mid x_ {1}, \ dotsc, x_ {n}) = - n \ log (\ gamma \ pi) - \ sum _ {i = 1} ^ {n} \ log \ left (1+ \ left ({\ frac { x_ {i} -x_ {0}} {\ gamma}} \ right) ^ {2} \ right)}{\ hat \ ell} (\! X_ {0}, \ gamma \ mid x_ {1}, \ dotsc, x_ {n}) = - п \ log (\ gamma \ pi) - \ sum _ {{я = 1}} ^ {n} \ log \ left (1+ \ left ({\ frac {x_ {i} -x_ {0}} {\ gamma }} \ right) ^ {2} \ right)

Максимизация функции правдоподобия журнала относительно x 0 {\ displaystyle x_ {0}}x_ {0} и γ {\ displaystyle \ gamma}\ gamma дает следующую систему уравнений:

∑ i = 1 nxi - x 0 γ 2 + (xi - x 0) 2 = 0 {\ displaystyle \ sum _ {i = 1} ^ {n} {\ frac {x_ {i} -x_ {0}} {\ gamma ^ {2} + \ left (x_ {i} - \! x_ {0} \ right) ^ {2}}} = 0}{\ displaystyle \ sum _ {i = 1} ^ {n} {\ frac {x_ {i} -x_ {0} } {\ gamma ^ {2} + \ left (x_ {i} - \! x_ {0} \ right) ^ {2}}} = 0}
∑ я = 1 n (xi - x 0) 2 γ 2 + (xi - x 0) 2 - n 2 = 0 {\ displaystyle \ сумма _ {i = 1} ^ {n} {\ frac {\ left (x_ {i} -x_ {0} \ right) ^ {2}} {\ gamma ^ {2} + \ left (x_ {i} -x_ {0} \ right) ^ {2}}} - {\ frac {n} {2}} = 0}{\ displaystyle \ sum _ {i = 1} ^ {n} {\ frac {\ left (x_ {i} -x_ {0} \ right) ^ {2}} {\ гамма ^ {2} + \ left (x_ {i} -x_ {0} \ right) ^ {2}}} - {\ frac {n} {2}} = 0}

Обратите внимание, что

∑ i = 1 n (xi - x 0) 2 γ 2 + (xi - x 0) 2 {\ displaystyl e \ sum _ {i = 1} ^ {n} {\ frac {\ left (x_ {i} -x_ {0} \ right) ^ {2}} {\ gamma ^ {2} + \ left (x_ { i} -x_ {0} \ right) ^ {2}}}{\ displaystyle \ sum _ {i = 1} ^ {n} {\ frac {\ left (x_ {i} -x_ {0} \ right) ^ {2}} {\ gamma ^ {2} + \ left (x_ {i} -x_ {0} \ right) ^ {2}}}}

является монотонной функцией в γ {\ displaystyle \ gamma}\ gamma и что решение γ { \ displaystyle \ gamma}\ gamma должен удовлетворять

min | x i - x 0 | ≤ γ ≤ max | x i - x 0 |. {\ displaystyle \ min | x_ {i} -x_ {0} | \ leq \ gamma \ leq \ max | x_ {i} -x_ {0} |.}\ min | x_i-x_0 | \ ле \ гамма \ ле \ макс | x_i-x_0 |.

Решение только для x 0 {\ displaystyle x_ {0}}x_ {0} требует решения многочлена степени 2 n - 1 {\ displaystyle 2n-1}2n-1 и решения только для γ {\ displaystyle \, \! \ gamma}\, \! \ gamma требует решения полинома степени 2 n {\ displaystyle 2n}2n . Следовательно, независимо от того, выполняется ли решение для одного параметра или для обоих параметров одновременно, обычно требуется численное решение на компьютере. Преимущество оценки максимального правдоподобия - асимптотическая эффективность; оценка x 0 {\ displaystyle x_ {0}}x_ {0} с использованием выборочной медианы лишь примерно на 81% асимптотически эффективна, чем оценка x 0 {\ displaystyle x_ {0}}x_ {0} по максимальной вероятности. Среднее значение усеченной выборки с использованием статистики среднего порядка 24% составляет около 88% как асимптотически эффективный показатель x 0 {\ displaystyle x_ {0}}x_ {0} как оценка максимального правдоподобия. Когда метод Ньютона используется для поиска решения для оценки максимального правдоподобия, статистика среднего порядка 24% может использоваться в качестве начального решения для x 0 {\ displaystyle x_ {0}}x_ {0} .

Форму можно оценить с помощью медианы абсолютных значений, поскольку для местоположения 0 переменные Коши X ∼ C auchy (0, γ) {\ displaystyle X \ sim \ mathrm {Cauchy} (0, \ gamma)}{\ displaystyle X \ sim \ mathrm {Cauchy} (0, \ gamma)} , медиана (| X |) = γ {\ displaystyle \ mathrm {median} (| X |) = \ gamma}{\ displaystyle \ mathrm {median} (| X |) = \ gamma} параметр формы.

Многомерное распределение Коши

A случайный вектор X = (X 1,…, X k) T {\ displaystyle X = (X_ {1}, \ ldots, X_ {k})) ^ {T}}{\ displaystyle X = (X_ {1}, \ ldots, X_ {k}) ^ {T}} называется многомерным распределением Коши, если каждая линейная комбинация его компонентов Y = a 1 X 1 + ⋯ + ak X k {\ displaystyle Y = a_ {1 } X_ {1} + \ cdots + a_ {k} X_ {k}}{\ displaystyle Y = a_ {1} X_ { 1} + \ cdots + a_ {k} X_ {k}} имеет распределение Коши. То есть для любого постоянного вектора a ∈ R k {\ displaystyle a \ in \ mathbb {R} ^ {k}}{\ displaystyle a \ in \ mathbb { R} ^ {k}} случайная величина Y = a TX {\ displaystyle Y = a ^ {T} X}{\ displaystyle Y = a ^ {T} X} должно иметь одномерное распределение Коши. Характеристическая функция многомерного распределения Коши определяется выражением:

φ X (t) = eix 0 (t) - γ (t), {\ displaystyle \ varphi _ {X} (t) = e ^ {ix_ { 0} (t) - \ gamma (t)}, \!}{\ displaystyle \ varphi _ {X} (t) = e ^ {ix_ {0} (t) - \ gamma (t)}, \!}

где x 0 (t) {\ displaystyle x_ {0} (t)}x_0 (t) и γ (t) {\ displaystyle \ gamma (t)}\ гамма (т) - вещественные функции с x 0 (t) {\ displaystyle x_ {0} (t)}x_0 (t) a однородной функцией от первая степень и γ (t) {\ displaystyle \ gamma (t)}\ гамма (т) положительная однородная функция первой степени. Более формально:

x 0 (a t) = a x 0 (t), {\ displaystyle x_ {0} (at) = ax_ {0} (t),}x_0 (at) = ax_0 (t),
γ (a t) = | а | γ (t), {\ displaystyle \ gamma (at) = | а | \ gamma (t),}\ gamma (at) = | а | \ gamma (t),

для всех t {\ displaystyle t}т .

Примером двумерного распределения Коши может быть задается по формуле:

f (x, y; x 0, y 0, γ) = 1 2 π [γ ((x - x 0) 2 + (y - y 0) 2 + γ 2) 3/2]. {\ displaystyle f (x, y; x_ {0}, y_ {0}, \ gamma) = {1 \ over 2 \ pi} \ left [{\ gamma \ over ((x-x_ {0}) ^ { 2} + (y-y_ {0}) ^ {2} + \ gamma ^ {2}) ^ {3/2}} \ right].}{\ displaystyle f (x, y; x_ {0}, y_ {0}), \ gamma) = {1 \ over 2 \ pi} \ left [{\ gamma \ over ((x-x_ {0}) ^ {2} + (y-y_ {0}) ^ {2} + \ gamma)) ^ {2}) ^ {3/2}} \ right].}

Обратите внимание, что в этом примере, хотя и нет аналога в ковариационную матрицу x {\ displaystyle x}x и y {\ displaystyle y}y не статистически независимы.

Мы также можем написать эта формула для комплексной переменной. Тогда функция плотности вероятности комплексного Коши равна:

f (z; z 0, γ) = 1 2 π [γ (| z - z 0 | 2 + γ 2) 3/2]. {\ displaystyle f (z; z_ {0}, \ gamma) = {1 \ over 2 \ pi} \ left [{\ gamma \ over (| z-z_ {0} | ^ {2} + \ gamma ^ { 2}) ^ {3/2}} \ right].}{\ displaystyle f (z; z_ {0 }, \ gamma) = {1 \ over 2 \ pi} \ left [{\ gamma \ over (| z-z_ {0} | ^ {2} + \ gamma ^ {2}) ^ {3/2}} \ right].}

Аналогично одномерной плотности, многомерная плотность Коши также связана с многомерным распределением Стьюдента. Они эквивалентны, когда параметр степеней свободы равен единице. Плотность распределения Стьюдента измерения k {\ displaystyle k}k с одной степенью свободы принимает следующий вид:

f (x; μ, Σ, k) = Γ (1 + k 2) Γ (1 2) π k 2 | Σ | 1 2 [1 + (x - μ) T Σ - 1 (x - μ)] 1 + k 2. {\ displaystyle f ({\ mathbf {x}}; {\ mathbf {\ mu}}, {\ mathbf {\ Sigma}}, k) = {\ frac {\ Gamma \ left ({\ frac {1 + k } {2}} \ right)} {\ Gamma ({\ frac {1} {2}}) \ pi ^ {\ frac {k} {2}} \ left | {\ mathbf {\ Sigma}} \ right | ^ {\ frac {1} {2}} \ left [1 + ({\ mathbf {x}} - {\ mathbf {\ mu}}) ^ {T} {\ mathbf {\ Sigma}} ^ {- 1} ({\ mathbf {x}} - {\ mathbf {\ mu}}) \ right] ^ {\ frac {1 + k} {2}}}}.}f ({\ mathbf x}; {\ mathbf \ mu}, {\ mathbf \ Sigma}, k) = \ frac {\ Gamma \ left (\ frac {1 + k} {2} \ right)} {\ Gamma (\ frac {1} {2}) \ pi ^ {\ frac {k} {2}} \ left | {\ mathbf \ Sigma} \ right | ^ {\ frac {1} {2}} \ left [1+ ({\ mathbf x} - {\ mathbf \ mu}) ^ T {\ mathbf \ Sigma} ^ {- 1} ({\ mathbf x} - {\ mathbf \ mu}) \ right] ^ {\ frac {1+ k} {2}}}.

Свойства и детали для этой плотности могут можно получить, рассматривая его как частный случай многомерной плотности Стьюдента.

Свойства преобразования
  • Если X ∼ Коши ⁡ (x 0, γ) {\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, \ gamma) \,}{\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, \ gamma) \,} затем К Икс + ℓ ∼ Коши (Икс 0 К + ℓ, γ | К |) {\ displaystyle kX + \ ell \ sim {\ textrm {Cauchy}} (x_ {0} k + \ ell, \ gamma | k |)}{\ displaystyle kX + \ ell \ sim {\ textrm {Cauchy}} (x_ {0} k + \ ell, \ гамма | к |)}
  • Если X ∼ Cauchy ⁡ (x 0, γ 0) {\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, \ gamma _ {0}) \,}{\ displaystyle X \ sim \ имя оператора {Коши} (x_ {0}, \ gamma _ {0}) \,} и Y ∼ Коши ⁡ (x 1, γ 1) {\ displaystyle Y \ sim \ operatorname {Cauchy} (x_ {1}, \ gamma _ {1}) \,}{\ displaystyle Y \ sim \ operatorname {Cauchy} (x_ { 1}, \ gamma _ {1}) \,} независимы, тогда X + Y ∼ Cauchy ⁡ (x 0 + x 1, γ 0 + γ 1) {\ displaystyle X + Y \ sim \ operatorname {Cauchy} (x_ {0} + x_ {1}, \ gamma _ {0} + \ gamma _ {1}) \,}{\ displaystyle X + Y \ sim \ operatorname {Cauchy} (x_ {0} + x_ {1}, \ gamma _ {0} + \ gamma _ {1}) \,} и X - Y ∼ Cauchy ⁡ (x 0 - x 1, γ 0 + γ 1) {\ displaystyle XY \ sim \ operatorname {Cauchy} (x_ {0} -x_ {1}, \ gamma _ {0} + \ gamma _ {1}) \,}{\ displaystyle XY \ sim \ operatorname {Cauchy} (x_ {0} -x_ {1}, \ gamma _ {0} + \ gamma _ {1}) \,}
  • Если X ∼ Коши ⁡ (0, γ) {\ displaystyle X \ sim \ operatorname {Cauchy} (0, \ gamma) \,}{\ displaystyle X \ sim \ operatorname {Cauchy} (0, \ gamma) \,} , затем 1 X ∼ Cauchy ⁡ (0, 1 γ) {\ displaystyle {\ tfrac {1} {X}} \ sim \ operatorname {C auchy} (0, {\ tfrac {1} {\ gamma}}) \,}{\ displaystyle {\ tfrac {1} {X}} \ sim \ operatorname {Cauchy} (0, {\ tfrac {1} {\ gamma}}) \,}
  • Параметризация МакКуллахом распределений Коши : выражение распределения Коши через один комплексный параметр ψ = x 0 + я γ {\ displaystyle \ psi = x_ {0} + i \ gamma}\ psi = x_0 + i \ gamma , определить X ∼ Cauchy ⁡ (ψ) {\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)}{\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)} для обозначения X ∼ Cauchy ⁡ (x 0, | γ |) {\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, | \ gamma |)}{\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, | \ гамма |)} . Если Икс ∼ Коши ⁡ (ψ) {\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)}{\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)} , то:
a X + bc X + d ∼ Cauchy ⁡ (a ψ + bc ψ + d) {\ displaystyle {\ frac {aX + b} {cX + d}} \ sim \ operatorname {Cauchy} \ left ({\ frac {a \ psi + b} {c \ psi + d }} \ right)}{\ displaystyle {\ frac {aX + b} {cX + d}} \ sim \ operator имя {Коши} \ left ( {\ frac {a \ psi + b} {c \ psi + d}} \ right)}

где a {\ displaystyle a}a , b {\ displaystyle b}b , c {\ displaystyle c}c и d {\ displaystyle d}d - действительные числа.

  • Используя то же соглашение, что и выше, если X ∼ Cauchy ⁡ (ψ) {\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)}{\ displaystyle X \ sim \ operatorname {Cauchy} (\ psi)} , то:
X - я Икс + я ∼ CCauchy ⁡ (ψ - я ψ + я) {\ displaystyle {\ frac {Xi} {X + i}} \ sim \ operatorname {CCauchy} \ left ({\ frac {\ psi -i} { \ psi + i}} \ right)}{\ displaystyle {\ frac {Xi} {X + i}} \ sim \ operatorname {CCauchy} \ left ({\ frac {\ psi -i} {\ psi + i}} \ right)}
где CCauchy {\ displaystyle \ operatorname {CCauchy}}{\ displaystyle \ operatorname {CCauchy}} - круговое распределение Коши.
мера Леви

Распределение Коши - это стабильное распределение индекса 1. Представление Леви – Хинчина такого устойчивого распределения параметра γ {\ displaystyle \ gamma}\ gamma задается для X ∼ Stable ⁡ (γ, 0, 0) {\ displaystyle X \ sim \ operatorname {Stable} (\ gamma, 0,0) \,}{\ displaystyle X \ sim \ operatorname {Stable} (\ gamma, 0,0) \,} по :

E ⁡ ( eix X) = exp ⁡ ( ∫ R ( eixy − 1) Π γ ( dy)) {\displaystyle \operatorname {E} \left(e^{ixX}\right)=\exp \ left(\int _{\mathbb {R} }(e^{ixy}-1)\Pi _{\gamma }(dy)\right)}{\ displaystyle \ operatorname { E} \ left (e ^ {ixX} \ right) = \ exp \ left (\ int _ {\ mathbb {R}} (е ^ {ixy} -1) \ Pi _ {\ gamma} (dy) \ right)}

where

Π γ ( dy) = ( c 1, γ 1 y 1 + γ 1 { y>0 } + c 2, γ 1 | y | 1 + γ 1 { y < 0 }) d y {\displaystyle \Pi _{\gamma }(dy)=\left(c_{1,\gamma }{\frac {1}{y^{1+\gamma }}}1_{\left\{y>0\right\}}+c_{2,\gamma }{\frac {1}{|y|^{1+\gamma }}}1_{\left\{y<0\right\}}\right)\,dy}{\ displaystyle \ Pi _ {\ gamma} (dy) = \ left (c_ {1, \ gamma} {\ frac {1 } {y ^ {1+ \ gamma}}} 1 _ {\ left \ {y>0 \ right \}} + c_ {2, \ gamma} {\ frac {1} {| y | ^ {1+ \ гамма}}} 1 _ {\ left \ {y <0 \ right \}} \ right) \, dy}

and c 1, γ, c 2, γ {\displaystyle c_{1,\gamma },c_{2,\gamma }}{\ displaystyle c_ {1, \ gamma}, c_ {2, \ gamma}} can be expressed explicitly. In the case γ = 1 {\displaystyle \gamma =1}\ gamma = 1 of the Cauchy distribution, one has c 1, γ = c 2, γ {\displaystyle c_{1,\gamma }=c_{2,\gamma }}{\ displaystyle c_ {1, \ gamma} = c_ {2, \ gamma}} .

This last representation is a consequence of the formula

| х | = ∫ R ( 1 − e i x y) d y y 2 {\displaystyle |x|=\int _{\mathbb {R} }(1-e^{ixy})\,{\frac {dy}{y^{2}}}}{\ displaystyle | х | = \ int _ {\ mathbb {R}} (1-e ^ {ixy}) \, {\ frac {dy} {y ^ {2}}}}
Related distributions
  • Cauchy ⁡ ( 0, 1) ∼ t ( d f = 1) {\displaystyle \operatorname {Cauchy} (0,1)\sim {\textrm {t}}(\mathrm {df} =1)\,}{\ displaystyle \ operatorname {Cauchy} ( 0, 1) \ sim {\ textrm {t}} (\ mathrm {df} = 1) \,} Student's t distribution
  • Cauchy ⁡ ( μ, σ) ∼ t ( d f = 1) ( μ, σ) {\displaystyle \operatorname {Cauchy} (\mu,\sigma)\sim {\textrm {t}}_{(\mathrm {df} =1)}(\mu,\sigma)\,}{\ displaystyle \ operatorname {Cauchy} (\ mu, \ sigma) \ sim {\ textrm {t}} _ {(\ mathrm {df} = 1)} (\ mu, \ sigma) \,} non-standardized Student's t distribution
  • If X, Y ∼ N ( 0, 1) X, Y {\displaystyle X,Y\sim {\textrm {N}}(0,1)\,X,Y}Икс, Y \ sim \ textrm {N} (0,1) \, X, Y independent, then X Y ∼ Cauchy ( 0, 1) {\displaystyle {\tfrac {X}{Y}}\sim {\textrm {Cauchy}}(0,1)\,}{\ displaystyle {\ tfrac {X} {Y}} \ sim {\ textrm {Cauchy}} (0, 1) \,}
  • If X ∼ U ( 0, 1) {\displaystyle X\sim {\textrm {U}}(0,1)\,}Икс \ сим \ textrm {U} (0,1) \, then tan ⁡ ( π ( X − 1 2)) ∼ Cauchy ( 0, 1) {\displaystyle \tan \left(\pi \left(X-{\tfrac {1}{2}}\right)\right)\sim {\textrm {Cauchy}}(0,1)\,}{\ displaystyle \ tan \ left (\ pi \ left (X - {\ tfrac {1} {2}} \ right) \ right) \ sim {\ textrm {Коши}} (0,1) \,}
  • If X ∼ L o g - C a u c h y ⁡ ( 0, 1) {\displaystyle X\sim \opera torname {Log-Cauchy} (0,1)}{\ displaystyle X \ sim \ operatorname {Log-Cauchy} (0,1)} then ln ⁡ ( X) ∼ Cauchy ( 0, 1) {\displaystyle \ln(X)\sim {\textrm {Cauchy}}(0,1)}{\ displaystyle \ ln (X) \ sim {\ textrm {Cauchy}} (0,1)}
  • If X ∼ Cauchy ⁡ ( x 0, γ) {\displaystyle X\sim \operatorname {Cauchy} (x_{0},\gamma)}{\ displaystyle X \ sim \ operatorname {Cauchy} (x_ {0}, \ gamma)} then 1 X ∼ Cauchy ⁡ ( x 0 x 0 2 + γ 2, γ x 0 2 + γ 2) {\displaystyle {\tfrac {1}{X}}\sim \operatorname {Cauchy} \left({\tfrac {x_{0}}{x_{0}^{2}+\gamma ^{2}}},{\tfrac {\gamma }{x_{0}^{2}+\gamma ^{2}}}\right)}{\ displaystyle { \ tfrac {1} {X}} \ sim \ operatorname {Cauchy} \ left ({\ tfrac {x_ {0}} {x_ {0} ^ {2} + \ gamma ^ {2}}}, {\ tfrac {\ gamma} {x_ {0} ^ {2} + \ gamma ^ {2}}} \ right)}
  • The Cauchy distribution is a limiting case of a Pearson distribution of type 4
  • The Cauchy distribution is a special case of a Pearson distribution of type 7.
  • The Cauchy distribution is a stable distribution : if X ∼ Stable ( 1, 0, γ, μ) {\displaystyle X\sim {\textrm {Stable}}(1,0,\gamma,\mu)}{\ displaystyle X \ sim {\ textrm {Stable}} (1,0, \ gamma, \ mu)} , then X ∼ Cauchy ⁡ ( μ, γ) {\displaystyle X\sim \operatorname {Cauchy} (\mu,\gamma)}{\ displaystyle X \ sim \ operatorname {Cauchy} (\ mu, \ gamma)} .
  • The Cauchy distribution is a singular limit of a hyperbolic distribution
  • The wrapped Cauchy distribution, taking values on a circle, is derived from the Cauchy distribution by wrapping it around the circle.
  • If X ∼ N ( 0, 1) {\displaystyle X\sim {\textrm {N}}(0,1)}{\ displaystyle X \ sim {\ textrm {N}} (0,1)} , Z ∼ I nverse - G amma ⁡ (1/2, s 2/2) {\ displaystyle Z \ sim \ operatorname {Inverse-Gamma} (1/2, s ^ ​​{2} / 2)}{\ displaystyle Z \ sim \ operatorname {Inverse-Gamma} (1/2, s ^ ​​{2} / 2)} , затем Y = μ + XZ ∼ Коши ⁡ (μ, s) {\ displaystyle Y = \ mu + X {\ sqrt {Z}} \ sim \ operatorname {Cauchy} (\ mu, s)}{\ displaystyle Y = \ mu + X {\ sqrt {Z}} \ sim \ operatorname {Cauchy} (\ mu, s)} . Для половинных распределений Коши это соотношение выполняется, если положить X ∼ N (0, 1) I {X>= 0} {\ displaystyle X \ sim {\ textrm {N}} (0,1) I \ { X>= 0 \}}{\displaystyle X\sim {\textrm {N}}(0,1)I\{X>= 0 \}} .
Релятивистское распределение Брейта – Вигнера

В ядерной и физике частиц, энергетический профиль резонанс описывается релятивистским распределением Брейта – Вигнера, а распределение Коши - (нерелятивистским) распределением Брейта – Вигнера.

Возникновение и применения
  • Применения распределения Коши или его преобразования можно найти в полях, работающих с экспоненциальным ростом. В статье Уайта 1958 года была получена тестовая статистика для оценок β ^ {\ displaystyle {\ hat {\ beta}}}\ hat {\ beta} для уравнения xt + 1 = β xt + ε t. + 1, β>1 {\ displaystyle x_ {t + 1} = \ beta {x} _ {t} + \ varepsilon _ {t + 1}, \ beta>1}{\displaystyle x_{t+1}=\beta {x}_{t}+\varepsilon _{t+1},\beta>1} и где оценка за правдоподобеньших квадратов найдена с использованием обычных
Дневные осадки с использованием CumFreq, см. также аппроксимация распределения
  • Распределение Коши часто представляет собой распределение Распределение. Классическая ссылка на это называется проблемой маяка Чайки и как в приведенном выше разделе как распределение Брейта - Вигнера в физике элемента. ентарных частиц.
См. также
Ссылки
Внешние ссылки
Последняя правка сделана 2021-05-14 12:55:46
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте