Количественная оценка неопределенности

редактировать
Характеристика и снижение неопределенностей как в вычислительных, так и в реальных приложениях

Количественная оценка неопределенности (UQ) - это наука о количественной характеристике и снижение неопределенностей как в вычислительных, так и в реальных приложениях. Он пытается определить, насколько вероятны определенные результаты, если некоторые аспекты системы точно не известны. Примером может служить прогноз ускорения человеческого тела при лобовом столкновении с другим автомобилем: даже если бы мы точно знали скорость, небольшие различия в производстве отдельных автомобилей, насколько туго затянут каждый болт и т. Д. приведет к разным результатам, которые можно предсказать только в статистическом смысле.

Многие проблемы естествознания и инженерии также изобилуют источниками неопределенности. Компьютерные эксперименты на компьютерном моделировании являются наиболее распространенным подходом к изучению проблем количественной оценки неопределенности.

Содержание
  • 1 Источники неопределенности
    • 1.1 Алеаторическая и эпистемическая неопределенность
  • 2 Два типа задач количественного определения неопределенности
    • 2.1 Прямое распространение неопределенности
    • 2.2 Обратное количественное определение неопределенности
      • 2.2.1 Только коррекция смещения
      • 2.2.2 Только калибровка параметров
      • 2.2.3 Коррекция смещения и параметр калибровка
  • 3 Селективные методологии количественного определения неопределенности
    • 3.1 Методологии прямого распространения неопределенности
    • 3.2 Методологии обратного количественного определения неопределенности
      • 3.2.1 Frequentist
      • 3.2.2 Байесовский метод
        • 3.2.2.1 Модульный байесовский подход
        • 3.2.2.2 Полностью байесовский подход
  • 4 Известные проблемы
  • 5 Случайные события до количественной неопределенности
  • 6 См. также
  • 7 Ссылки
Источники неопределенности

Неопределенность может введите математические модели и экспериментальные измерения в различных s контексты. Один из способов категоризации источников неопределенности - это рассмотреть:

Неопределенность параметров
Это происходит из параметров модели, которые являются входными данными для компьютерной модели (математической модели), но точные значения которых неизвестны экспериментаторам и не могут должны контролироваться в физических экспериментах, или значения которых не могут быть точно определены с помощью статистических методов. Некоторыми примерами этого являются локальное ускорение свободного падения в эксперименте с падающим объектом, различные свойства материалов в анализе методом конечных элементов для инженерии и неопределенность множителя в контексте макроэкономическая политика оптимизация.
Параметрическая изменчивость
Это происходит из-за изменчивости входных переменных модели. Например, размеры обрабатываемой детали в процессе производства могут не совпадать с проектными и инструкциями, что может привести к изменчивости ее характеристик.
Структурная неопределенность
Также известна как несоответствие модели, смещение модели или несоответствие модели, это происходит из-за недостаточного знания физики, лежащей в основе проблемы. Это зависит от того, насколько точно математическая модель описывает истинную систему для реальной ситуации, учитывая тот факт, что модели почти всегда являются лишь приближением к реальности. Одним из примеров является моделирование процесса падения объекта с использованием модели свободного падения; Сама модель неточна, так как всегда существует воздушное трение. В этом случае, даже если в модели нет неизвестного параметра, все равно ожидается расхождение между моделью и истинной физикой.
Алгоритмическая неопределенность
Также известна как числовая неопределенность или дискретная неопределенность. Этот тип возникает из-за численных ошибок и численных приближений в реализации компьютерной модели. Большинство моделей слишком сложны для точного решения. Например, метод конечных элементов или метод конечных разностей может использоваться для аппроксимации решения уравнения в частных производных (которое вводит числовые ошибки). Другими примерами являются численное интегрирование и усечение бесконечной суммы, которые являются необходимыми приближениями при численной реализации.
Экспериментальная неопределенность
Также известная как ошибка наблюдения, это происходит из-за изменчивости экспериментальных измерений. Экспериментальная неопределенность неизбежна, и ее можно заметить, повторяя измерение много раз, используя одни и те же настройки для всех входных данных / переменных.
Неопределенность интерполяции
Это происходит из-за отсутствия собранных доступных данных из компьютерных моделей и / или экспериментальных измерений. Для других входных параметров, для которых нет данных моделирования или экспериментальных измерений, необходимо интерполировать или экстраполировать, чтобы предсказать соответствующие ответы.

Алеаторическая и эпистемическая неопределенность

Неопределенность иногда подразделяется на две категории, в первую очередь наблюдается в медицинских приложениях.

Алеаторическая неопределенность
Алеаторическая неопределенность также известна как статистическая неопределенность и представляет собой неизвестные, которые различаются каждый раз, когда мы проводим один и тот же эксперимент. Например, выстрел из одной стрелы из механического лука, который точно дублирует каждый запуск (одинаковое ускорение, высота, направление и конечная скорость), не все попадет в одну и ту же точку на цели из-за случайных и сложных вибраций древка стрелы, знание которых невозможно определить в достаточной степени, чтобы исключить возникающий разброс точек удара. Аргумент здесь, очевидно, заключается в определении «не может». Тот факт, что мы не можем проводить достаточные измерения с помощью наших доступных в настоящее время измерительных устройств, не исключает обязательно наличие такой информации, которая переместила бы эту неопределенность в нижеследующую категорию. Aleatoric происходит от латинского alea или кости, обозначающего азартную игру.
Эпистемическая неопределенность
Эпистемическая неопределенность также известна как систематическая неопределенность и возникает из-за вещей, которые можно в принципе знать но не на практике. Это может происходить из-за того, что измерение неточно, потому что модель не учитывает определенные эффекты или потому, что определенные данные были намеренно скрыты. Примером источника этой неопределенности может быть сопротивление в эксперименте, предназначенном для измерения ускорения свободного падения вблизи поверхности земли. Обычно используемое ускорение свободного падения 9,8 м / с ^ 2 игнорирует эффекты сопротивления воздуха, но сопротивление воздуха для объекта может быть измерено и включено в эксперимент, чтобы уменьшить результирующую неопределенность в вычислении ускорения свободного падения.

В реальных приложениях присутствуют оба вида неопределенностей. Количественная оценка неопределенности предназначена для явного выражения обоих типов неопределенности по отдельности. Количественная оценка алеаторических неопределенностей может быть относительно простой, где традиционная (частотная) вероятность является наиболее простой формой. Часто используются такие методы, как метод Монте-Карло. Распределение вероятностей может быть представлено его моментами (в случае гауссова, среднего и ковариации достаточно, хотя, в общем, даже знание всех моментов до произвольно высокого порядка по-прежнему не определяет функцию распределения однозначно) или, в последнее время, с помощью таких методов, как разложения Карунена – Лоэва и полиномиальный хаос. Для оценки эпистемических неопределенностей предпринимаются попытки понять (отсутствие) знаний о системе, процессе или механизме. Представление эпистемической неопределенности может быть основано на таких методах, как анализ границ вероятности, нечеткая логика или теории доказательств / убеждений, такие как субъективная логика или Демпстера– Теория Шафера (где эпистемическая неопределенность представлена ​​как пустота убеждений).

Два типа задач количественной оценки неопределенности

Существует два основных типа проблем при количественной оценке неопределенности: первая - прямое распространение неопределенности (где различные источники неопределенности распространяется через модель для прогнозирования общей неопределенности в ответе системы), а другой - обратная оценка неопределенности модели и неопределенности параметров (где параметры модели калибруются одновременно с использованием данных испытаний). Исследования по первой проблеме получили широкое распространение, и для ее решения было разработано большинство методов анализа неопределенности. С другой стороны, последняя проблема привлекает все большее внимание в сообществе инженеров-проектировщиков, поскольку количественная оценка неопределенности модели и последующие прогнозы истинной реакции (ей) системы представляют большой интерес при проектировании надежных систем.

Распространение неопределенности в прямом направлении

Распространение неопределенности - это количественная оценка неопределенностей в выходных данных системы, возникающих из неопределенных входных данных. Основное внимание уделяется влиянию на выходы параметрической изменчивости, указанной в источниках неопределенности. Целями анализа распространения неопределенности могут быть:

  • для оценки моментов низкого порядка выходных данных, т.е. среднего и дисперсии.
  • для оценки надежности выходных данных. Это особенно полезно в проектировании надежности, где выходные данные системы обычно тесно связаны с производительностью системы.
  • Для оценки полного распределения вероятностей выходных данных. Это полезно в сценарии оптимизации полезности, где для расчета полезности используется полное распределение.

Количественная оценка обратной неопределенности

Учитывая некоторые экспериментальные измерения системы и некоторые результаты компьютерного моделирования на основе своей математической модели обратная количественная оценка неопределенности оценивает расхождение между экспериментом и математической моделью (которое называется коррекция смещения ) и оценивает значения неизвестных параметров в модели, если таковые имеются (что называется калибровка параметров или просто калибровка ). Как правило, это гораздо более сложная проблема, чем прямое распространение неопределенности; однако это очень важно, поскольку обычно реализуется в процессе обновления модели. Существует несколько сценариев количественной оценки обратной неопределенности:

Результат коррекции смещения, включая обновленную модель (среднее значение прогноза) и доверительный интервал прогноза.

Только коррекция смещения

Коррекция смещения количественно определяет неадекватность модели, т.е. несоответствие эксперимента математической модели. Общая формула обновления модели для коррекции смещения:

ye (x) = ym (x) + δ (x) + ε {\ displaystyle y ^ {e} (\ mathbf {x}) = y ^ {m} (\ mathbf {x}) + \ delta (\ mathbf {x}) + \ varepsilon}y ^ { e} ({\ mathbf {x}}) = y ^ {m} ({\ mathbf {x}}) + \ delta ({\ mathbf {x}}) + \ varepsilon

где ye (x) {\ displaystyle y ^ {e} (\ mathbf {x})}y ^ {e} ( {\ mathbf {x}}) обозначает экспериментальные измерения как функцию нескольких входных переменных x {\ displaystyle \ mathbf {x}}\ mathbf {x} , ym (x) {\ displaystyle y ^ {m} (\ mathbf {x}) }y ^ {m} ({\ mathbf {x}}) обозначает отклик компьютерной модели (математической модели), δ (x) {\ displaystyle \ delta (\ mathbf {x})}\ delta ({\ mathbf {x} }) обозначает аддитивную функцию расхождения (также известную как функция смещения), а ε {\ displaystyle \ varepsilon}\ varepsilon обозначает экспериментальную неопределенность. Цель состоит в том, чтобы оценить функцию несоответствия δ (x) {\ displaystyle \ delta (\ mathbf {x})}\ delta ({\ mathbf {x} }) , и в качестве побочного продукта полученная обновленная модель будет ym (x) + δ (x) {\ displaystyle y ^ {m} (\ mathbf {x}) + \ delta (\ mathbf {x})}y ^ {m} ({\ mathbf {x }}) + \ дельта ({\ mathbf {x}}) . Доверительный интервал прогноза предоставляется с обновленной моделью как количественная оценка неопределенности.

Только калибровка параметра

Калибровка параметра оценивает значения одного или нескольких неизвестных параметров в математической модели. Общая формулировка обновления модели для калибровки:

ye (x) = ym (x, θ ∗) + ε {\ displaystyle y ^ {e} (\ mathbf {x}) = y ^ {m} (\ mathbf {x}, {\ boldsymbol {\ theta}} ^ {*}) + \ varepsilon}y ^ {e} ({\ mathbf {x}}) = y ^ {m} ({\ mathbf {x}}, {\ boldsymbol {\ theta}} ^ {*}) + \ varepsilon

где ym (x, θ) {\ displaystyle y ^ {m} (\ mathbf {x}, { \ boldsymbol {\ theta}})}y ^ {m} ({\ mathbf {x}}, {\ boldsymbol {\ theta}}) обозначает реакцию компьютерной модели, которая зависит от нескольких неизвестных параметров модели θ {\ displaystyle {\ boldsymbol {\ theta}}}{\ boldsymbol {\ theta}} , а θ ∗ {\ displaystyle {\ boldsymbol {\ theta}} ^ {*}}{\ boldsymbol {\ theta}} ^ {*} обозначает истинные значения неизвестных параметров в ходе экспериментов. Задача состоит в том, чтобы либо оценить θ ∗ {\ displaystyle {\ boldsymbol {\ theta}} ^ {*}}{\ boldsymbol {\ theta}} ^ {*} , либо найти распределение вероятностей θ ∗ {\ displaystyle {\ boldsymbol {\ theta}} ^ {*}}{\ boldsymbol {\ theta}} ^ {*} , который включает в себя лучшее знание истинных значений параметров.

Коррекция смещения и калибровка параметров

Он рассматривает неточную модель с одним или несколькими неизвестными параметрами, и формулировка обновления модели объединяет эти два вместе:

ye (x) = ym (x, θ ∗) + δ (Икс) + ε {\ Displaystyle у ^ {е} (\ mathbf {x}) = y ^ {m} (\ mathbf {x}, {\ boldsymbol {\ theta}} ^ {* }) + \ delta (\ mathbf {x}) + \ varepsilon}y ^ {e} ({\ mathbf {x}}) = y ^ {m} ({\ mathbf {x}}, {\ boldsymbol {\ theta}} ^ {*}) + \ delta ({\ mathbf {x}}) + \ varepsilon

Это наиболее полная формулировка обновления модели, которая включает все возможные источники неопределенности, и для ее решения требуются самые большие усилия.

Селективные методики количественной оценки неопределенности

Для решения задач количественной оценки неопределенности было проведено много исследований, хотя большинство из них связано с распространением неопределенности. В течение последних одного-двух десятилетий также был разработан ряд подходов к задачам обратной количественной оценки неопределенности, которые оказались полезными для большинства задач малого и среднего масштаба.

Методики прямого распространения неопределенности

Существующие подходы к распространению неопределенности включают вероятностные подходы и не вероятностные подходы. Существует пять основных категорий вероятностных подходов для распространения неопределенности:

  • методы, основанные на моделировании: моделирование Монте-Карло, выборка по важности, адаптивная выборка и т. Д.
  • Методы, основанные на локальном расширении: ряд Тейлора, метод возмущения и т. Д. Эти методы имеют преимущества при работе с относительно небольшой изменчивостью входного сигнала и выходными данными, которые не выражают высокой нелинейности. Эти линейные или линеаризованные методы подробно описаны в статье Распространение неопределенности.
  • Методы, основанные на функциональном расширении: разложение Неймана, ортогональное разложение или разложение Карунена – Лоэва (KLE) с разложением полиномиального хаоса (PCE) и вейвлет-разложения как особые случаи.
  • Методы, основанные на наиболее вероятных точках (MPP): метод надежности первого порядка (FORM) и метод надежности второго порядка (SORM).
  • Численное интегрирование- методы на основе: полное факторное численное интегрирование (FFNI) и уменьшение размерности (DR).

Для не вероятностных подходов используются интервальный анализ, нечеткая теория, теория возможностей и теория доказательств. среди наиболее широко используемых.

Вероятностный подход считается наиболее строгим подходом к анализу неопределенностей в инженерном проектировании из-за его соответствия теории анализа решений. Его краеугольным камнем является вычисление функций плотности вероятности для выборочной статистики. Это может быть выполнено строго для случайных величин, которые можно получить как преобразования гауссовских переменных, что приведет к точным доверительным интервалам.

Методики количественной оценки обратной неопределенности

Frequentist

В задачах регрессионного анализа и наименьших квадратов стандартная ошибка из оценок параметров легко доступен, который может быть расширен до доверительного интервала.

байесовского

. В рамках байесовского метода существует несколько методологий количественной оценки обратной неопределенности. рамки. Наиболее сложным направлением является решение задач как с коррекцией смещения, так и с калибровкой параметров. Проблемы, связанные с такими проблемами, включают не только влияние неадекватности модели и неопределенности параметров, но также отсутствие данных как компьютерного моделирования, так и экспериментов. Распространенная ситуация состоит в том, что параметры ввода не совпадают для экспериментов и моделирования.

Модульный байесовский подход

Подходом к обратной количественной оценке неопределенности является модульный байесовский подход. Модульный байесовский подход получил свое название от четырехмодульной процедуры. Помимо текущих доступных данных, должно быть назначено предварительное распределение неизвестных параметров.

Модуль 1: Гауссовское моделирование процесса для компьютерной модели

Для решения проблемы, связанной с отсутствием результатов моделирования, компьютерная модель заменяется на гауссовский процесс (GP) модель

Ym (x, θ) ∼ GP (hm (⋅) T β m, σ m 2 R m (⋅, ⋅)) {\ displaystyle y ^ {m} (\ mathbf {x}, {\ boldsymbol {\ theta }}) \ sim {\ mathcal {GP}} {\ big (} \ mathbf {h} ^ {m} (\ cdot) ^ {T} {\ boldsymbol {\ beta}} ^ {m}, \ sigma _ {m} ^ {2} R ^ {m} (\ cdot, \ cdot) {\ big)}}y ^ {m} ({\ mathbf {x}}, {\ boldsymbol {\ theta}}) \ sim {\ mathcal {GP}} {\ big (} {\ mathbf {h}} ^ {m} (\ cdot) ^ {T } {\ boldsymbol {\ beta}} ^ {m}, \ sigma _ {m} ^ {2} R ^ {m} (\ cdot, \ cdot) {\ big)}

где

R m ((x, θ), (x ′, θ ′)) = ехр ⁡ {- ∑ k = 1 d ω км (xk - xk ′) 2} exp ⁡ {- k = 1 r ω d + km (θ k - θ k ′) 2}. {\ displaystyle R ^ {m} {\ big (} (\ mathbf {x}, {\ boldsymbol {\ theta}}), (\ mathbf {x} ', {\ boldsymbol {\ theta}}') {\ big)} = \ exp \ left \ {- \ sum _ {k = 1} ^ {d} \ omega _ {k} ^ {m} (x_ {k} -x_ {k} ') ^ {2} \ право \} \ exp \ left \ {- \ sum _ {k = 1} ^ {r} \ omega _ {d + k} ^ {m} (\ theta _ {k} - \ theta _ {k} ') ^ {2} \ right \}.}R^{m}{\big (}({\mathbf {x}},{\boldsymbol {\theta }}),({\mathbf {x}}',{\boldsymbol {\theta }}'){\big)}=\exp \left\{-\sum _{{k=1}}^{d}\omega _{k}^{m}(x_{k}-x_{k}')^{2}\right\}\exp \left\{-\sum _{{k=1}}^{r}\omega _{{d+k}}^{m}(\theta _{k}-\theta _{k}')^{2}\right\}.

d {\ displaystyle d}d - размер входных переменных, а r {\ displaystyle r}r - размер размерность неизвестных параметров. Хотя hm (⋅) {\ displaystyle \ mathbf {h} ^ {m} (\ cdot)}{\ mathbf {h}} ^ {m} (\ cdot) задано заранее, {β m, σ m, ω km, k = 1,…, d + r} {\ displaystyle \ left \ {{\ boldsymbol {\ beta}} ^ {m}, \ sigma _ {m}, \ omega _ {k} ^ {m}, k = 1, \ ldots, d + r \ right \}}\ left \ {{\ boldsymbol {\ beta}} ^ {m }, \ sigma _ {m}, \ omega _ {k} ^ {m}, k = 1, \ ldots, d + r \ right \} , известные как гиперпараметры модели GP, необходимо оценивать с помощью оценки максимального правдоподобия (MLE). Этот модуль можно рассматривать как обобщенный метод кригинга.

Модуль 2: Гауссовское моделирование процесса для функции несоответствия

Аналогично первому модулю функция несоответствия заменяется моделью GP

δ (x) ∼ GP (h δ (⋅) T β δ, σ δ 2 р δ (⋅, ⋅)) {\ displaystyle \ delta (\ mathbf {x}) \ sim {\ mathcal {GP}} {\ big (} \ mathbf {h} ^ {\ delta} (\ cdot) ^ {T} {\ boldsymbol {\ beta}} ^ {\ delta}, \ sigma _ {\ delta} ^ {2} R ^ {\ delta} (\ cdot, \ cdot) {\ big) }}\ delta ({\ mathbf {x}}) \ sim {\ mathcal {GP}} {\ big (} {\ mathbf {h}} ^ {\ delta} (\ cdot) ^ {T} {\ boldsymbol {\ beta}} ^ {\ delta}, \ sigma _ {\ delta} ^ {2} R ^ {\ delta} (\ cdot, \ cdot) {\ big)}

где

R δ (x, x ′) = exp ⁡ {- ∑ k = 1 d ω k δ (xk - xk ′) 2}. {\ Displaystyle R ^ {\ delta} (\ mathbf {x}, \ mathbf {x} ') = \ exp \ left \ {- \ sum _ {k = 1} ^ {d} \ omega _ {k} ^ {\ delta} (x_ {k} -x_ {k} ') ^ {2} \ right \}.}R^{\delta }({\mathbf {x}},{\mathbf {x}}')=\exp \left\{-\sum _{{k=1}}^{d}\omega _{k}^{\delta }(x_{k}-x_{k}')^{2}\right\}.

Вместе с предварительным распределением неизвестных параметров и данными как компьютерных моделей, так и экспериментов, можно получить оценки максимального правдоподобия для {β δ, σ δ, ω k δ, k = 1,…, d} {\ displaystyle \ left \ {{\ boldsymbol {\ beta}} ^ {\ delta}, \ sigma _ {\ delta}, \ omega _ {k} ^ {\ delta}, k = 1, \ ldots, d \ right \}}\ left \ {{\ boldsymbol {\ beta}} ^ {\ delta}, \ sigma _ {\ delta}, \ omega _ {k} ^ {\ delta}, k = 1, \ ldots, d \ right \ } . В то же время, β m {\ displaystyle {\ boldsymbol {\ beta}} ^ {m}}{\ полужирный символ {\ beta}} ^ {m} из Модуля 1 также обновляется.

Модуль 3: Апостериорное распределение неизвестных параметров

Теорема Байеса применяется для вычисления апостериорного распределения неизвестных параметров:

p (θ ∣ данные, φ) ∝ п (данные ∣ θ, φ) п (θ) {\ displaystyle p ({\ boldsymbol {\ theta}} \ mid {\ text {data}}, {\ boldsymbol {\ varphi}}) \ propto p ({\ rm {{data} \ mid {\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}}) p ({\ boldsymbol {\ theta}})}}}{\ displaystyle p ({\ boldsymbol {\ theta}} \ mid {\ text {data}}, {\ boldsymbol {\ varphi }}) \ propto p ({\ rm {{data} \ mid {\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}}) p ({\ boldsy mbol {\ theta}})}}}

где φ {\ displaystyle {\ boldsymbol {\ varphi}}}{\ displaystyle {\ boldsymbol {\ varphi}}} включает все фиксированные гиперпараметры в предыдущих модулях.

Модуль 4: Прогнозирование экспериментального отклика и функции несоответствия
Полностью байесовский подход

Полностью байесовский подход требует, чтобы не только априорные значения для неизвестных параметров θ {\ displaystyle {\ boldsymbol {\ theta}}}{\ boldsymbol {\ theta}} , но также должны быть назначены априорные значения для других гиперпараметров φ {\ displaystyle {\ boldsymbol {\ varphi}}}{\ displaystyle {\ boldsymbol {\ varphi}}} . Он включает следующие шаги:

  1. Вывести апостериорное распределение p (θ, φ ∣ data) {\ displaystyle p ({\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}} \ mid {\ text {data}})}{\ displaystyle p ({\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}} \ mid {\ text {data}})} ;
  2. Интегрируйте φ {\ displaystyle {\ boldsymbol {\ varphi}}}{\ displaystyle {\ boldsymbol {\ varphi}}} и получите p (θ ∣ data) {\ displaystyle p ( {\ boldsymbol {\ theta}} \ mid {\ text {data}})}{\ displaystyle p ({\ boldsymbol {\ theta}} \ mid {\ text {data}})} . Этот единственный шаг выполняет калибровку;
  3. Прогнозирование экспериментального отклика и функции несоответствия.

Однако этот подход имеет существенные недостатки:

  • Для большинства случаев p (θ, φ ∣ data) {\ displaystyle p ({\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}} \ mid {\ text {data}})}{\ displaystyle p ({\ boldsymbol {\ theta}}, {\ boldsymbol {\ varphi}} \ mid {\ text {data}})} - очень трудноразрешимая функция φ {\ displaystyle {\ boldsymbol {\ varphi}}}{\ displaystyle {\ boldsymbol {\ varphi}}} . Следовательно, интеграция становится очень сложной. Более того, если априорные значения для других гиперпараметров φ {\ displaystyle {\ boldsymbol {\ varphi}}}{\ displaystyle {\ boldsymbol {\ varphi}}} не выбраны тщательно, сложность численного интегрирования возрастает еще больше.
  • На этапе прогнозирования прогноз (который должен, по крайней мере, включать в себя ожидаемое значение откликов системы) также требует численного интегрирования. Марковская цепь Монте-Карло (MCMC) часто используется для интеграции; однако это требует больших вычислительных ресурсов.

Полностью байесовский подход требует огромного количества вычислений и еще может оказаться непрактичным для решения наиболее сложных ситуаций моделирования.

Известные проблемы

Теории а методологии распространения неопределенности разработаны гораздо лучше, чем методы обратной количественной оценки неопределенности. Для последнего несколько трудностей остаются нерешенными:

  1. Проблема размерности: вычислительные затраты резко возрастают с увеличением размерности проблемы, то есть количества входных переменных и / или количества неизвестных параметров.
  2. Проблема идентифицируемости : Множественные комбинации неизвестных параметров и функции расхождения могут дать одно и то же экспериментальное предсказание. Следовательно, разные значения параметров не могут быть различимы / идентифицированы.
Случайные события до количественной неопределенности

При броске одной шестигранной кости вероятность выпадения от одной до шести равна. Интервал с вероятностью охвата 90% расширяет весь выходной диапазон. При броске 5 кубиков и наблюдении за суммой результатов ширина интервала с достоверностью 88,244% составляет 46,15% от диапазона. Интервал становится уже по сравнению с диапазоном с большим количеством бросков костей. На наши реальные события влияют многочисленные вероятностные события, и влияние всех вероятностных событий можно предсказать с помощью узкого интервала с высокой вероятностью охвата; большинство ситуаций.

См. Также
Ссылки
Последняя правка сделана 2021-06-20 10:33:49
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте