Априорная вероятность

редактировать

В байесовском статистическом выводе, априорное распределение вероятностей, часто называемое просто предшествующим, неопределенной величины - это распределение вероятностей, которое выражает мнение об этой величине до того, как некоторые доказательства будут приняты во внимание. Например, априорное может быть распределением вероятностей, представляющим относительную долю избирателей, которые проголосуют за конкретного политика на будущих выборах. Неизвестная величина может быть параметром модели или скрытой переменной, а не наблюдаемой переменной.

Теорема Байеса вычисляет перенормированное точечное произведение априорная и функция правдоподобия, чтобы создать апостериорное распределение вероятностей, которое является условным распределением неопределенной величины с учетом данных.

Аналогично, априорная вероятность случайного события или неопределенного предложения - это безусловная вероятность, которая присваивается до того, как будут приняты какие-либо соответствующие доказательства. в учетную запись.

Приоры могут быть созданы с использованием ряда методов. Априорность может быть определена из прошлой информации, такой как предыдущие эксперименты. Априорность может быть получена из чисто субъективной оценки опытного эксперта. Неинформативный априор может быть создан для отражения баланса между результатами, когда информация недоступна. Априорные значения также могут быть выбраны в соответствии с некоторыми принципами, такими как симметрия или максимизация энтропии с учетом ограничений; примерами являются априор Джеффриса или априор Бернардо. Когда существует семейство сопряженных априорных значений, выбор априорного значения из этого семейства упрощает вычисление апостериорного распределения.

Параметры предыдущих распределений представляют собой своего рода гиперпараметр. Например, если для моделирования распределения параметра p распределения Бернулли используется бета-распределение, тогда:

  • p является параметром базовой системы (распределение Бернулли), а
  • α и β - параметры априорного распределения (бета-распределения); следовательно, гиперпараметры.

Сами гиперпараметры могут иметь гиперприорное распределения, выражающие представления об их значениях. Байесовская модель с более чем одним уровнем априорных значений, подобная этой, называется иерархической байесовской моделью.

Содержание

  • 1 Информационные априорные значения
  • 2 Слабо информативные априорные значения
  • 3 Неинформативные априорные значения
  • 4 Неправильные априорные значения
    • 4.1 Примеры
  • 5 Примечания
  • 6 Ссылки

Информационные априорные значения

Информативные априорные значения выражают конкретную, определенную информацию о переменной. Примером может служить предварительное распределение температуры в полдень завтра. Разумный подход состоит в том, чтобы сделать предыдущее нормальное распределение с ожидаемым значением равным сегодняшней полуденной температуре, с дисперсией равной дневной дисперсии атмосферная температура или распределение температуры для этого дня в году.

Этот пример имеет общее свойство со многими априорными значениями, а именно, что апостериорное значение одной проблемы (сегодняшняя температура) становится апостериорным для другой проблемы (завтрашняя температура); ранее существовавшие свидетельства, которые уже были приняты во внимание, являются частью предшествующих, и по мере накопления большего количества свидетельств апостериорные в значительной степени определяются свидетельствами, а не каким-либо исходным предположением, при условии, что первоначальное предположение допускало возможность того, что свидетельство предлагая. Термины «предшествующий» и «апостериорный» обычно относятся к конкретным данным или наблюдениям.

Слабо информативные априорные значения

Слабо информативные априорные значения выражают частичную информацию о переменной. Например, при установке предварительного распределения для температуры в полдень завтра в Сент-Луисе использовать нормальное распределение со средним значением 50 градусов по Фаренгейту и стандартным отклонением 40 градусов, что очень слабо ограничивает температуру диапазоном (10 градусов, 90 градусов). градусов) с небольшой вероятностью быть ниже -30 градусов или выше 130 градусов. Целью слабо информативного априорного значения является регуляризация, то есть сохранение выводов в разумном диапазоне.

Неинформативные априорные значения

неинформативные априорные или диффузные априорные выражают расплывчатую или общую информацию о переменной. Термин «малоинформативный априор» употребляется неправильно. Такой априор также можно назвать не очень информативным априорным или объективным априорным, то есть тем, который не выявлен субъективно.

Неинформативные априорные значения могут выражать «объективную» информацию, такую ​​как «переменная положительна» или «переменная меньше некоторого предела». Самым простым и самым старым правилом определения неинформативности априорного значения является принцип безразличия, который присваивает равные вероятности всем возможностям. В задачах оценки параметров использование неинформативного априорного значения обычно дает результаты, которые не слишком отличаются от обычного статистического анализа, поскольку функция правдоподобия часто дает больше информации, чем неинформативное априорное значение.

Были предприняты некоторые попытки найти априорные вероятности, то есть распределения вероятностей в некотором смысле, логически требуемые природой состояния неопределенности; они являются предметом философских разногласий, причем байесовцы примерно делятся на две школы: «объективные байесовцы», которые считают, что такие априорные значения существуют во многих полезных ситуациях, и «субъективные байесовцы», которые полагают, что на практике априорные взгляды обычно представляют собой субъективные суждения мнения, которое не может быть строго оправдан (Williamson 2010). Возможно, самые сильные аргументы в пользу объективного байесовства были даны Эдвином Т. Джейнсом, основанным в основном на следствиях симметрии и на принципе максимальной энтропии.

В качестве примера априорного априори, согласно Джейнсу (2003), рассмотрим ситуацию, в которой известно, что шар был спрятан под одной из трех чашек, A, B или C, но не под другой. имеется информация о его местонахождении. В этом случае единообразный априор p (A) = p (B) = p (C) = 1/3 интуитивно кажется единственным разумным выбором. Более формально, мы можем видеть, что проблема остается той же, если мы поменяем местами метки («A», «B» и «C») на чашках. Поэтому было бы странно выбирать априор, для которого перестановка меток привела бы к изменению наших прогнозов относительно того, под какой чашкой будет находиться мяч; равномерный приор - единственный, который сохраняет эту инвариантность. Если принять этот принцип инвариантности, то можно увидеть, что единый априор является логически правильным до представления этого состояния знания. Этот априор является «объективным» в том смысле, что он является правильным выбором для представления определенного состояния знаний, но он не объективен в том смысле, что он является независимой от наблюдателя особенностью мира: в действительности мяч существует под определенной чашей., и в этой ситуации имеет смысл говорить о вероятностях только при наличии наблюдателя с ограниченными знаниями о системе.

В качестве более спорном например, Джейнзы опубликовали аргумент (Jaynes 1968), основанный на групп Ли, что позволяет предположить, что предшествующий уровень, представляющая полная неопределенность относительно вероятности должна быть Халдейн до p (1 - p). Пример, который приводит Джейнс, - это обнаружение химического вещества в лаборатории и вопрос о его растворении в воде в повторных экспериментах. В предшествующей теории Холдейна наибольший вес имеют p = 0 {\ displaystyle p = 0}p = 0 и p = 1 {\ displaystyle p = 1}p = 1 , указывает на то, что образец будет либо растворяться каждый раз, либо никогда не растворяться с равной вероятностью. Однако, если наблюдалось, что образцы химического вещества растворяются в одном эксперименте и не растворяются в другом эксперименте, то это предварительное значение обновляется до равномерного распределения в интервале [0, 1]. Это достигается применением теоремы Байеса к набору данных, состоящему из одного наблюдения растворения и одного наблюдения отсутствия растворения, с использованием вышеизложенного. Априор Холдейна - это неправильное априорное распределение (это означает, что оно имеет бесконечную массу). Гарольд Джеффрис разработал систематический способ построения неинформативных априорных значений, например, априор Джеффриса p (1 - p) для случайной величины Бернулли.

Приоры могут быть сконструированы, которые пропорциональны мере Хаара, если пространство параметров X несет естественную групповую структуру, которая оставляет неизменным наше байесовское состояние знаний (Jaynes, 1968). Это можно рассматривать как обобщение принципа инвариантности, используемого для обоснования априорной униформы по сравнению с тремя чашками в приведенном выше примере. Например, в физике мы можем ожидать, что эксперимент даст одни и те же результаты независимо от нашего выбора начала координат системы координат. Это индуцирует групповую структуру группы трансляции на X, которая определяет априорную вероятность как постоянную неправильную априорную. Точно так же некоторые измерения естественно инвариантны к выбору произвольного масштаба (например, используются ли сантиметры или дюймы, физические результаты должны быть одинаковыми). В таком случае масштабная группа является естественной групповой структурой, а соответствующий априор на X пропорционален 1 / x. Иногда имеет значение, используем ли мы левоинвариантную или правоинвариантную меру Хаара. Например, левая и правая инвариантные меры Хаара на аффинной группе не равны. Бергер (1985, стр. 413) утверждает, что правоинвариантная мера Хаара является правильным выбором.

Другая идея, отстаиваемая Эдвином Т. Джейнсом, состоит в использовании принципа максимальной энтропии (MAXENT). Мотивация заключается в том, что энтропия Шеннона распределения вероятностей измеряет количество информации, содержащейся в распределении. Чем больше энтропия, тем меньше информации предоставляет распределение. Таким образом, максимизируя энтропию по подходящему набору распределений вероятностей на X, можно найти распределение, которое является наименее информативным в том смысле, что оно содержит наименьшее количество информации, совместимое с ограничениями, которые определяют набор. Например, максимальная энтропия априорного значения в дискретном пространстве при условии, что вероятность нормализована к 1, является априорным значением, которое присваивает равную вероятность каждому состоянию. А в непрерывном случае максимальная энтропия при условии, что плотность нормализована со средним нулевым значением и единичной дисперсией, является стандартным нормальным распределением. Принцип минимальной перекрестной энтропии обобщает MAXENT на случай «обновления» произвольного априорного распределения с подходящими ограничениями в смысле максимальной энтропии.

Родственная идея была предложена Хосе-Мигелем Бернардо. Здесь идея состоит в том, чтобы максимизировать ожидаемую дивергенцию Кульбака – Лейблера апостериорного распределения относительно априорного. Это максимизирует ожидаемую апостериорную информацию о X, когда априорная плотность равна p (x); таким образом, в некотором смысле, p (x) является «наименее информативным» априорным значением относительно X. Ссылочный априор определяется в асимптотическом пределе, т. е. учитывается предел априорных значений, полученных таким образом, когда количество точек данных стремится к бесконечности. В данном случае KL-дивергенция между априорным и апостериорным распределениями определяется как

K L = ∫ p (t) ∫ p (x ∣ t) log ⁡ p (x ∣ t) p (x) d x d t. {\ Displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log {\ frac {p (x \ mid t)} {p (x)}} \, dx \, dt.}{\ displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log {\ frac {p (x \ mid t)} {p (x)}} \, dx \, dt.}

Здесь t {\ displaystyle t}t - достаточная статистика для некоторого параметра x {\ displaystyle x}x . Внутренний интеграл - это расхождение KL между апостериорным p (x ∣ t) {\ displaystyle p (x \ mid t)}{\ displaystyle p (x \ mid t)} и предшествующим p (x) {\ displaystyle p ( x)}{\ displaystyle p (x)} распределения, и результатом является взвешенное среднее по всем значениям t {\ displaystyle t}t . Разделив логарифм на две части, изменив порядок интегралов во второй части и отметив, что log [p (x)] {\ displaystyle \ log \, [p (x)]}{\ displaystyle \ log \, [p (x)]} делает не зависит от t {\ displaystyle t}t дает

KL = ∫ p (t) ∫ p (x ∣ t) log ⁡ [p (x ∣ t)] dxdt - ∫ log ⁡ [p (x)] ∫ p (t) p (x ∣ t) dtdx. {\ Displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log [p (x \ mid t)] \, dx \, dt \, - \, \ int \ log [p (x)] \, \ int p (t) p (x \ mid t) \, dt \, dx.}{\ displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log [p (x \ mid t)] \, dx \, dt \, - \, \ int \ log [ p (x)] \, \ int p (t) p (x \ mid t) \, dt \, dx.}

Внутренний интеграл во второй части - это интеграл от t {\ displaystyle t}t плотности соединения p (x, t) {\ displaystyle p (x, t)}{\ displaystyle p (x, t)} . Это предельное распределение p (x) {\ displaystyle p (x)}{\ displaystyle p (x)} , поэтому мы имеем

KL = ∫ p (t) ∫ p (x ∣ t) log ⁡ [ p (x ∣ t)] dxdt - p (x) log ⁡ [p (x)] dx. {\ Displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log [p (x \ mid t)] \, dx \, dt \, - \, \ int p (x) \ log [p (x)] \, dx.}{\ displaystyle KL = \ int p (t) \ int p (x \ mid t) \ log [п (х \ середина t)] \, dx \, dt \, - \, \ int p (x) \ log [p (x)] \, dx.}

Теперь мы используем понятие энтропии, которая в случае вероятностных распределений представляет собой отрицательное математическое ожидание логарифма вероятностной массы или функции плотности или H (х) = - ∫ p (x) журнал ⁡ [p (x)] dx. {\ displaystyle H (x) = - \ int p (x) \ log [p (x)] \, dx.}{\ displaystyle H (x) = - \ int p (x) \ log [p (x) ] \, dx.} Использование этого в последнем уравнении дает

KL = - ∫ p ( t) H (x ∣ t) dt + H (x). {\ displaystyle KL = - \ int p (t) H (x \ mid t) \, dt + \, H (x).}{\ displaystyle KL = - \ int p (t) H (x \ mid t) \, dt + \, H (x).}

Говоря словами, KL - это отрицательное ожидаемое значение для t {\ displaystyle t}t энтропии x {\ displaystyle x}x при условии t {\ displaystyle t}t плюс маргинальное (т.е. безусловное) энтропия x {\ displaystyle x}x . В предельном случае, когда размер выборки стремится к бесконечности, теорема Бернштейна-фон Мизеса утверждает, что распределение x {\ displaystyle x}x зависит от данного наблюдаемого значения. of t {\ displaystyle t}t является нормальным с дисперсией, равной обратной величине информации Фишера при "истинном" значении x {\ displaystyle x}x . Энтропия функции нормальной плотности равна половине логарифма 2 π ev {\ displaystyle 2 \ pi ev}{\ displaystyle 2 \ pi ev} где v {\ displaystyle v}v - дисперсия распределения. Следовательно, в данном случае H = log ⁡ 2 π e / [NI (x ∗)] {\ displaystyle H = \ log {\ sqrt {2 \ pi e / [NI (x *)]}}}{\ displaystyle H = \ log {\ sqrt {2 \ pi e / [NI (x *)]}}} где N {\ displaystyle N}N - произвольно большой размер выборки (которому пропорциональна информация Фишера), а x ∗ {\ displaystyle x *}{\ displaystyle x *} - это «истинное» значение. Поскольку это не зависит от t {\ displaystyle t}t , его можно исключить из интеграла, и поскольку этот интеграл находится в вероятностном пространстве, он равен единице. Следовательно, мы можем записать асимптотику KL как

K L = - log ⁡ [1 k I (x ∗)] - ∫ p (x) log ⁡ [p (x)] d x. {\ displaystyle KL = - \ log [1 {\ sqrt {kI (x *)}}] - \, \ int p (x) \ log [p (x)] \, dx.}{\ displaystyle KL = - \ log [1 {\ sqrt {kI (x *)}}] - \, \ int p (x) \ log [p (x)] \, dx.}

где k {\ displaystyle k}k пропорционально (асимптотически большому) размеру выборки. Нам неизвестно значение x ∗ {\ displaystyle x *}{\ displaystyle x *} . Действительно, сама идея идет вразрез с философией байесовского вывода, в котором «истинные» значения параметров заменяются априорным и апостериорным распределениями. Поэтому мы удаляем x ∗ {\ displaystyle x *}{\ displaystyle x *} , заменяя его на x {\ displaystyle x}x и беря ожидаемое значение нормальной энтропии, которое мы получаем умножением на p (x) {\ displaystyle p (x)}{\ displaystyle p (x)} и интегрированием по x {\ displaystyle x}x . Это позволяет нам объединить логарифмы и получить

K L = - ∫ p (x) log ⁡ [p (x) / k I (x)] d x. {\ displaystyle KL = - \ int p (x) \ log [p (x) / {\ sqrt {kI (x)}}] \, dx.}{\ displaystyle KL = - \ int p (x) \ log [p (x) / {\ sqrt { kI (x)}}] \, dx.}

Это квази-KL-дивергенция ("квази" в том смысле, что квадратный корень из информации Фишера может быть ядром неправильного распределения). Из-за знака минус нам нужно минимизировать это, чтобы максимизировать расхождение KL, с которого мы начали. Минимальное значение последнего уравнения возникает там, где два распределения логарифмического аргумента, неправильные или нет, не расходятся. Это, в свою очередь, происходит, когда априорное распределение пропорционально квадратному корню из информации Фишера функции правдоподобия. Следовательно, в случае с одним параметром, ссылочные априорные значения и априорные значения Джеффриса идентичны, хотя у Джеффриса есть совсем другое обоснование.

Справочные априорные значения часто являются объективным приоритетом выбора в многомерных задачах, поскольку другие правила (например, правило Джеффриса ) могут привести к априорным значениям с проблемным поведением.

Цель априорные распределения также могут быть получены из других принципов, таких как информация или теория кодирования (см., например, минимальная длина описания ) или частотная статистика (увидеть). Такие методы используются в теории индуктивного вывода Соломонова. Построение объективных априорных значений было недавно введено в биоинформатику и, особенно, в биологию онкологических систем, где размер выборки ограничен и доступно огромное количество предварительных знаний . В этих методах используется критерий, основанный на теории информации, такой как дивергенция KL или логарифмическая функция правдоподобия для задач обучения с учителем и задач смешанной модели.

Философские проблемы, связанные с неинформативными априорными значениями, связаны с выбором подходящего метрическая или измерительная шкала. Предположим, мы хотим получить априор для скорости бега неизвестного нам бегуна. Мы могли бы указать, скажем, нормальное распределение как априор для его скорости, но в качестве альтернативы мы могли бы указать нормальное априорное время для времени, которое ему требуется для прохождения 100 метров, которое пропорционально обратной величине первой априорной скорости. Это очень разные приоры, но не ясно, какой из них предпочесть. Часто упускаемый из виду метод групп преобразований Джейнса может ответить на этот вопрос в некоторых ситуациях.

Аналогичным образом, если вас попросят оценить неизвестную пропорцию между 0 и 1, мы можем сказать, что все пропорции являются одинаково вероятно, и использовать форменный приор. В качестве альтернативы, мы могли бы сказать, что все порядки величины пропорции равновероятны, логарифмический априор, который является единообразным априорным значением логарифма пропорции. Априор Джеффриса пытается решить эту проблему, вычисляя априор, который выражает одно и то же убеждение, независимо от того, какая метрика используется. Априор Джеффри для неизвестной пропорции p равен p (1 - p), что отличается от рекомендации Джейнса.

Приоры, основанные на понятиях алгоритмической вероятности, используются в индуктивном выводе в качестве основы для индукции в очень общих условиях.

Практические проблемы, связанные с неинформативными априорными числами, включают требование правильности апостериорного распределения. Обычные неинформативные априоры для непрерывных неограниченных переменных неуместны. Это не должно быть проблемой, если апостериорное распределение правильное. Другой важный вопрос заключается в том, что если неинформативный априор будет использоваться регулярно, то есть с множеством различных наборов данных, он должен иметь хорошие свойства частоту. Обычно байесовский не занимается такими проблемами, но это может быть важно в данной ситуации. Например, можно захотеть, чтобы любое правило принятия решения, основанное на апостериорном распределении, было допустимым при принятой функции потерь. К сожалению, часто бывает трудно проверить допустимость, хотя некоторые результаты известны (например, Berger and Strawderman 1996). Проблема особенно остро стоит в иерархических байесовских моделях ; обычные априорные решения (например, априор Джеффриса) могут дать крайне недопустимые правила принятия решений, если они используются на более высоких уровнях иерархии.

Неправильные априорные значения

Пусть события A 1, A 2,…, A n {\ displaystyle A_ {1}, A_ {2}, \ ldots, A_ {n}}A_ {1}, A_ {2}, \ ldots, A_ {n} быть взаимоисключающими и исчерпывающими. Если теорема Байеса записана как

P (A i ∣ B) = P (B ∣ A i) P (A i) ∑ j P (B ∣ A j) P (A j), {\ displaystyle P ( A_ {i} \ mid B) = {\ frac {P (B \ mid A_ {i}) P (A_ {i})} {\ sum _ {j} P (B \ mid A_ {j}) P ( A_ {j})}} \,,}{\ Displaystyle P (A_ {i} \ mid B) = {\ frac {P (B \ mid A_ {i}) P (A_ {i})} {\ sum _ {j} P (B \ середина A_ {j}) P (A_ {j})}} \,,}

, тогда ясно, что тот же результат будет получен, если все априорные вероятности P (A i) и P (A j) были умножены на заданную константу; то же самое было бы верно для непрерывной случайной величины. Если суммирование в знаменателе сходится, апостериорные вероятности по-прежнему будут суммироваться (или интегрироваться) в 1, даже если предыдущие значения этого не делают, и поэтому априорные вероятности могут быть указаны только в правильной пропорции. Продолжая эту идею, во многих случаях сумма или интеграл априорных значений может даже не быть конечной, чтобы получить разумные ответы для апостериорных вероятностей. В этом случае предшествующее называется неправильным предшествующим . Однако апостериорное распределение не обязательно должно быть правильным, если апостериорное распределение неверно. Это ясно из случая, когда событие B не зависит от всех A j.

Статистики иногда используют неправильные априорные значения как неинформативные априорные значения. Например, если им нужно предварительное распределение для среднего и дисперсии случайной величины, они могут принять p (m, v) ~ 1 / v (для v>0), что предполагает, что любое значение для среднего «равно вероятно »и что значение положительной дисперсии становится« менее вероятным »обратно пропорционально его значению. Многие авторы (Линдли, 1973; Де Гроот, 1937; Касс и Вассерман, 1996) предостерегают от опасности чрезмерной интерпретации этих априорных значений, поскольку они не являются плотностями вероятностей. Единственная релевантность, которую они имеют, находится в соответствующей апостериорной оценке, если она четко определена для всех наблюдений. (априор Холдейна является типичным контрпримером.)

Напротив, функции правдоподобия не нужно интегрировать, а функция правдоподобия, равная 1, соответствует отсутствие данных (все модели равновероятны, при отсутствии данных): правило Байеса умножает априорное значение на вероятность, а пустой продукт - это просто постоянное правдоподобие 1. Однако, не начиная с априорного распределения вероятностей, нельзя в конечном итоге получают апостериорное распределение вероятностей и, следовательно, не могут интегрировать или вычислять ожидаемые значения или потери. Подробнее см. Функция правдоподобия § Неинтегрируемость.

Примеры

Примеры неправильных априорных значений включают:

Обратите внимание, что эти функции, интерпретируемые как равномерные распределения, также могут интерпретироваться как функция правдоподобия в отсутствие данных, но не являются надлежащими априорными.

Примечания

  1. ^Carlin, Bradley P.; Louis, Thomas A. (2008). Bayesian Methods for Data Analysis (Third ed.). CRC Press. ISBN 9781584886983.
  2. ^Этот априор был предложен JBS Haldane в «Примечании об обратной вероятности», Mathematical Proceedings of the Cambridge Philosophical Society 28, 55–61, 1932, doi : 10.1017 / S0305004100010495. См. Также Дж. Холдейн, «Точность наблюдаемых значений sma ll частоты », Biometrika, 35: 297–300, 1948, doi : 10.2307 / 2332350, JSTOR 2332350.
  3. ^Исфахани, М. С.; Догерти, Э. Р. (2014). «Включение знаний о биологическом пути в построение априорных значений для оптимальной байесовской классификации - журналы и журнал IEEE». Протоколы IEEE / ACM по вычислительной биологии и биоинформатике. 11 (1): 202–18. DOI : 10.1109 / TCBB.2013.143. ПМИД 26355519.
  4. ^Болуки, Шахин; Исфахани, Мохаммад Шахрох; Цянь, Сяонин; Догерти, Эдвард Р. (декабрь 2017 г.). «Использование предшествующих биологических знаний для байесовского обучения с помощью максимальных информационных априорных значений, основанных на знаниях». BMC Bioinformatics. 18 (S14): 552. doi : 10.1186 / s12859-017-1893-4. ISSN 1471-2105. PMC 5751802. PMID 29297278.
  5. ^Джейнс (1968), стр. 17, см. Также Джейнс (2003), глава 12. Обратите внимание, что глава 12 недоступна в онлайн-препринте, но ее можно предварительно просмотреть через Google Книги.
  6. ^Кристенсен, Рональд; Джонсон, Уэсли; Бранскум, Адам; Хэнсон, Тимоти Э. (2010). Байесовские идеи и анализ данных: введение для ученых и статистиков. Хобокен: CRC Press. п. 69. ISBN 9781439894798.

Ссылки

Последняя правка сделана 2021-06-02 06:52:36
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте