Logit

редактировать
График логита (p) в диапазоне от 0 до 1, где основание логарифма равно e.

В статистике logit () или log-odds - это логарифм числа шансы p 1 - p {\ displaystyle {\ frac {p} {1-p}}}{\ frac {p} {1-p}} где p - вероятность. Это тип функции, которая создает карту значений вероятности от (0, 1) {\ displaystyle (0,1)}(0,1) до (- ∞, + ∞) {\ displaystyle (- \ infty, + \ infty)}{\ displaystyle (- \ infty, + \ infty)} . Это инверсия сигмоидальной «логистической» функции или логистического преобразования, используемых в математике, особенно в статистике.

Содержание
  • 1 Определение
  • 2 История
  • 3 Использование и свойства
  • 4 Сравнение с пробитом
  • 5 См. Также
  • 6 Ссылки
  • 7 Дополнительная литература
Определение

Если p представляет собой вероятность, то p / (1 - p) представляет собой соответствующие шансы ; логит вероятности - это логарифм шансов, т.е.

logit ⁡ (p) = log ⁡ (p 1 - p) = log ⁡ (p) - log ⁡ (1 - p) = - log ⁡ (1 п - 1). {\ Displaystyle \ OperatorName {logit} (p) = \ log \ left ({\ frac {p} {1-p}} \ right) = \ log (p) - \ log (1-p) = - \ log \ left ({\ frac {1} {p}} - 1 \ right) \,.}{\ displaystyle \ operatorname {logit} (p) = \ log \ left ({\ frac {p} {1-p}} \ right) = \ log (p) - \ log (1-p) = - \ log \ left ({\ frac {1} {p} } -1 \ right) \,.}

Основание используемой функции логарифма не имеет большого значения в данной статье, если оно больше 1, но чаще всего используется натуральный логарифм с основанием e. Выбор основания соответствует выбору логарифмической единицы для значения: основание 2 соответствует шеннону, основание e соответствует «nat », а основание 10 на Хартли ; эти единицы особенно используются в теоретико-информационных интерпретациях. Для каждого выбора базы функция логита принимает значения от отрицательной до положительной бесконечности.

«логистическая» функция любого числа α {\ displaystyle \ alpha}\ alpha задается обратным логитом:

logit - 1 ⁡ (α) знак равно логистический ⁡ (α) = 1 1 + ехр ⁡ (- α) = ехр ⁡ (α) ехр ⁡ (α) + 1 {\ Displaystyle \ OperatorName {logit} ^ {- 1} (\ альфа) = \ operatorname {logistic} (\ alpha) = {\ frac {1} {1+ \ operatorname {exp} (- \ alpha)}} = {\ frac {\ operatorname {exp} (\ alpha)} {\ operatorname {exp} (\ alpha) +1}}}{\ displaystyle \ operatorname {logit} ^ {- 1} (\ alpha) = \ operatorname {logistic} (\ alpha) = {\ frac {1} {1+ \ operatorname {exp} (- \ alpha)}} = {\ frac {\ operatorname {exp} (\ alpha)} {\ operatorname {exp} (\ alpha) +1}}}

Разница между логитами двух вероятностей - это логарифм отношения шансов (R), что обеспечивает сокращение для записи правильной комбинации отношения шансов только добавлением и вычитанием :

log ⁡ (R) = log ⁡ (p 1 / (1 - p 1) p 2 / (1 - p 2)) = log ⁡ (p 1 1 - p 1) - журнал ⁡ (p 2 1 - p 2) = logit ⁡ (p 1) - logit ⁡ (p 2). {\ displaystyle \ operatorname {log} (R) = \ log \ left ({\ frac {{p_ {1}} / (1-p_ {1})} {{p_ {2}} / (1-p_ { 2})}} \ right) = \ log \ left ({\ frac {p_ {1}} {1-p_ {1}}} \ right) - \ log \ left ({\ frac {p_ {2}} {1-p_ {2}}} \ right) = \ operatorname {logit} (p_ {1}) - \ operatorname {logit} (p_ {2}) \,.}{\ displaystyle \ operatorname {log} (R) = \ log \ left ({\ frac {{p_ {1}} / (1-p_ {1})} { {p_ {2}} / (1-p_ {2})}} \ right) = \ log \ left ({\ frac {p_ {1}} {1-p_ {1}}} \ right) - \ log \ left ({\ frac {p_ {2}} {1-p_ {2}}} \ right) = \ operatorname {logit} (p_ {1}) - \ operatorname {logit} (p_ {2}) \,.}
История

Было предпринято несколько попыток адаптировать методы линейной регрессии к области, в которой выходными данными является значение вероятности (0, 1) {\ displaystyle (0,1)}(0,1) вместо любого действительного числа. (- ∞, + ∞) {\ displaystyle (- \ infty, + \ infty)}{\ displaystyle (- \ infty, + \ infty)} . Во многих случаях такие усилия были сосредоточены на моделировании этой проблемы путем сопоставления диапазона (0, 1) {\ displaystyle (0,1)}(0,1) с (- ∞, + ∞) {\ displaystyle (- \ infty, + \ infty)}{\ displaystyle (- \ infty, + \ infty)} , а затем запускает линейную регрессию для этих преобразованных значений. В 1934 году Честер Иттнер Блисс использовал кумулятивную функцию нормального распределения для выполнения этого сопоставления и назвал свою модель пробит сокращением для «вероятность способности и это ";. Однако это более затратно в вычислительном отношении. В 1944 году Джозеф Берксон использовал логарифм шансов и назвал эту функцию logit, сокращение от «log istic un it », следуя аналогии с пробит. Логарифмические коэффициенты широко использовались Чарльзом Сандерсом Пирсом (конец XIX века). Г. А. Барнард в 1949 г. ввел широко используемый термин логарифм-шансы; log-шансы события - это логит вероятности события.

Использование и свойства
  • logit в логистической регрессии - особый случай функции связи в обобщенной линейной модели : это каноническая функция связи для распределения Бернулли.
  • Функция logit является отрицательной от производной от бинарной энтропийной функции.
  • logit также является центральным в вероятностной модели Раша для измерения, который, среди прочего, применяется в психологической и образовательной оценке.
  • Функция обратного логита (то есть логистическая функция ) также иногда называется функция экспита.
  • В эпидемиологии болезней растений логит используется для подгонки данных к логистической модели. В моделях Гомперца и мономолекулярной модели все три известны как модели семейства Ричардсов.
  • Логарифмическая функция вероятностей часто используется в алгоритмах оценки состояния из-за ее численных преимуществ в случае малые вероятности. Вместо умножения очень маленьких чисел с плавающей запятой, вероятности логарифмических шансов можно просто суммировать для вычисления совместной вероятности (логарифм-шансов).
Сравнение с пробит
Сравнение логит-функции с масштабированный пробит (т.е. обратный CDF нормального распределения ), сравнивающий логит ⁡ (x) {\ displaystyle \ operatorname {logit} (x)}\ operatorname {logit} (x) vs. Φ - 1 (x) π / 8 {\ displaystyle {\ tfrac {\ Phi ^ {- 1} (x)} {\, {\ sqrt {\ pi / 8 \,}} \,}}}{\ displaystyle {\ tfrac {\ Phi ^ {- 1} (х)} {\, {\ sqrt {\ pi / 8 \,}} \,}}} , что делает наклоны одинаковыми в исходной точке y.

Тесно связаны с функцией логита (и моделью логита ): функция пробита и пробит модель. Логит и пробит являются сигмоидными функциями с областью между 0 и 1, что делает их обе квантильными функциями, т. Е. Обратными кумулятивной функции распределения ( CDF) распределения вероятностей. Фактически, логит - это функция квантиля логистического распределения, а пробит - функция квантиля нормального распределения. Функция пробит обозначается Φ - 1 (x) {\ displaystyle \ Phi ^ {- 1} (x)}\ Phi ^ {-1} (х) , где Φ (x) {\ displaystyle \ Phi (x)}\ Phi (х) - это CDF нормального распределения, как только что упоминалось:

Φ (x) = 1 2 π ∫ - ∞ xe - y 2 2 dy. {\ displaystyle \ Phi (x) = {\ frac {1} {\ sqrt {2 \ pi}}} \ int _ {- \ infty} ^ {x} e ^ {- {\ frac {y ^ {2} } {2}}} dy.}{\ displaystyle \ Phi (x) = {\ frac {1} {\ sqrt {2 \ pi}}} \ int _ {- \ infty} ^ {x} e ^ {- {\ frac {y ^ {2}} {2}}} dy.}

Как показано на графике справа, функции logit и probit очень похожи, когда функция probit масштабируется, так что ее наклон при y = 0 совпадает с наклоном logit. В результате пробит-модели иногда используются вместо логит-моделей, потому что для определенных приложений (например, в байесовской статистике ) реализация проще.

См. Также
Ссылки
Дополнительная литература
  • Ashton, Winifred D. (1972). Преобразование логита: с особым упором на его использование в биотесте. Статистические монографии и курсы Гриффина. 32 . Чарльз Гриффин. ISBN 978-0-85264-212-2.
Последняя правка сделана 2021-05-28 05:34:47
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте