Кригинг

редактировать

В статистике, установить в геостатистике, кригинге или Регрессия гауссовского процесса - это метод интерполяции, для которого интерполированные значения моделируются гауссовским процессом, управляемыми предшествующими ковариациями. При подходящих допущениях относительно априорных значений кригинг дает наилучшее линейное несмещенное предсказание промежуточных значений. Методы интерполяции, основанные на других критериях, таких как сглаживание (например, сглаживающий сплайн ), могут не дать наиболее вероятных промежуточных значений. Метод широко используется в области пространственного анализа и компьютерных экспериментов. Этот метод также известен как прогнозирование - Колмогорова после Норберта Винера и Андрея Колмогорова.

Пример одной интерполяции данных с помощью кригинга с доверительными интервалами. Квадратики указать расположение данных. Интерполяция кригинга, показанная красным, выполняется по средним значениям нормально распределенных доверительных интервалов, показанных серым. Пунктирная кривая показывает сплайн, который является гладким, но значительно отличается от ожидаемых промежуточных значений, полученных с помощью этих средств.

Теоретическая основа метода была исправлена ​​французским математиком Жоржем Матероном в 1960 году на основе на магистерскую диссертацию Дэни Г. Криге, новаторского плоттера средневзвешенного содержания на рифовом комплексе Витватерсранд в Южной Африке. Криг стремился оценить наиболее вероятное распределение золота по образцам из нескольких скважин. Английский глагол - криг, наиболее распространенное существительное - кригинг; оба часто произносятся с твердым «g», после английского произношения имени «Криг». В литературе это слово иногда пишется с заглавной буквы.

Хотя базовая формулировка кригинга требует больших ресурсов, его можно масштабировать для решения более задач с помощью различных методов аппроксимации.

Содержание

  • 1 Основные принципы
    • 1.1 Связанные термины и методы
    • 1.2 Геостатистическая оценка
    • 1.3 Линейная оценка
  • 2 Методы
    • 2.1 Обычный кригинг
    • 2.2 Простой кригинг
    • 2.3 Свойства
  • 3 Приложения
    • 3.1 Дизайн и анализ компьютерных экспериментов
  • 4 См. также
  • 5 Ссылки
  • 6 Дополнительная литература
    • 6.1 Исторические ссылки
    • 6.2 Книги

Основные принципы

Связанные термины и методы

Основная идея кригинга заключается в для прогнозирования значений функции в данной точке путем средневзвешенного значения определенных значений функции в окрестности точки. Этот метод математически связан с регрессионным анализом. Обе теории выводят наилучшую линейную несмещенную оценку, основанную на предположениях о ковариациях, используют теорему Гаусса - Маркова для доказательства оценки и ошибки, и используйте очень похожие формулы. Тем не менее, они полезны в разных структурах: кригинг используется для оценки единственной реализации случайного поля, а регрессионные модели основаны на множественных наблюдениях за многомерным набором данных.

Оценка криг может также рассматривать как сплайн в гильбертовом пространстве воспроизводящего ядра, с воспроизводящим ядром, заданной ковариационной функцией. Отличие от классического подхода кригинга заключается в интерпретации: в то время как сплайн мотивируется интерполяцией нормы на основе структуры гильбертова пространства, кригинг мотивируется ожидаемой квадратичной ошибкой предсказания на основе минималистической модели.

Кригинг с полиномиальными поверхностями тренда математически идентичен обобщенному методу наименьших квадратов полиному аппроксимации кривой.

Кригинг также можно понимать как форму байесовского вывода. Кригинг начинается с приоритетного распределения по функциям. Этот предшествующий принимает форму гауссовского процесса: N {\ displaystyle N}N выборки из функций будут нормально распределенными, где ковариация между любыми двумя выборками - это ковариационная функция (или ядро ​​ ) гауссовского процесса, оцененная в пространственном расположении двух точек. Затем установите набор значений, каждое из которых связано с пространственным местоположением. Теперь новое значение может быть предсказано в любом новом значении, комбинируя гауссову априорную с гауссовой функцию правдоподобия для каждого из наблюдаемых значений. Результирующее апостериорное распределение также является гауссовым, со средним значением и ковариацией, которые могут быть просто вычислены из наблюдаемых значений, их дисперсии и матрицы ядра, полученного из априорного.

Геостатистическая оценка

В геостатистических моделях выборочные данные интерпретируются как результат случайного процесса. Тот факт, что эти модели включают в себя неопределенность в их концептуализации, означает явление - лес, водоносный горизонт, месторождение полезных ископаемых - возникло в результате случайного процесса, а, скорее, позволяет создать методологическую основу для пространственного вывода количества в ненаблюдаемых местах, а также для количественной оценки неопределенности, оценочной.

A случайный процесс в контексте этой модели просто способ приблизиться к набору данных, собранных из выборок. Первым шагом в геостатистической модуляции является создание случайного процесса, который лучше всего набора наблюдаемых данных.

Значение из местоположения x 1 {\ displaystyle x_ {1}}x_{1}(общее обозначение набора географических координат ) интерпретируется как реализация z (x 1) {\ displaystyle z (x_ {1})}z (x_1) из случайной величины Z (x 1) {\ displaystyle Z (x_ {1})}Z(x_1). В пространстве A {\ displaystyle A}A , где рассредоточен набор выборок, находятся N {\ displaystyle N}N реализации случайных величин Z (x 1), Z (x 2),…, Z (x N) {\ displaystyle Z (x_ {1}), Z (x_ {2}), \ ldots, Z (x_ {N})}{\ Displaystyle Z (x_ {1}), Z (x_ {2}), \ ldots, Z (x_ {N})} , коррелировали между собой.

Набор случайных величин представляет собой случайную функцию, из которой известна только одна реализация z (xi) {\ displaystyle z (x_ {i})}z (x_i) - набор наблюдаемые данные. С помощью только одной реализации каждой случайной теоретически невозможно определить какой-либо статистический параметр отдельных чисел или функций. Предлагаемое решение в геостатистической формелизме в предположении стационарности случайной функции, чтобы сделать возможным вывод некоторых статистических значений.

Например, предположить, на основе однородности выборок в области A {\ displaystyle A}A , где распределена переменная, гипотеза о том, что первый момент является стационарным (т. е. все случайные значения имеют одно и то же среднее значение).

Гипот стационарности, относящаяся к второму моменту, определяется следующим образом: корреляция между двумя случайными величинами зависит исключительно от пространственного расстояния между ними и не зависит от их местоположения. Таким образом, если h = x 2 - x 1 {\ displaystyle \ mathbf {h} = x_ {2} -x_ {1}}{\ displaystyle \ mathbf {h} = x_ {2} -x_ {1}} и | h | = час {\ displaystyle | \ mathbf {h} | = h}{\displaystyle |\mathbf {h} |=h}, тогда:

C (Z (x 1), Z (x 2)) = C (Z (xi), Z (xi + час)) знак равно С (час) {\ Displaystyle C (Z (x_ {1}), Z (x_ {2})) = C (Z (x_ {i}), Z (x_ {i} + \ mathbf {h})) = C (h)}{\displaystyle C(Z(x_{1}),Z(x_{2}))=C(Z(x_{i}),Z(x_{i}+\mathbf {h}))=C(h)}
γ (Z (x 1), Z (x 2)) = γ (Z (xi), Z (xi + h)) = γ (h) {\ Displaystyle \ гамма (Z (x_ {1 }), Z (x_ {2})) = \ gamma (Z (x_ {i}), Z (x_ {i} + \ mathbf {h})) = \ gamma (h)}{\displaystyle \gamma (Z(x_{1}),Z(x_{2}))=\gamma (Z(x_{i}),Z(x_{i}+\mathbf {h}))=\gamma (h)}

и для простоты мы определяем C (xi, xj) = C (Z (xi), Z (xj)) {\ displaystyle C (x_ {i}, x_ {j})) = C (Z (x_ {i}), Z (x_ {j}))}{\ displaystyle C (x_ {i}, x_ {j}) = C (Z (x_ {i}), Z (x_ {j})))} и γ (xi, xj) = γ (Z (xi), Z (xj)) {\ displaystyle \ gamma (x_ {i}, x_ {j}) = \ gamma (Z (x_ {i}), Z (x_ {j}))}{\ displaystyle \ gamma (x_ {i}, x_ {j}) = \ gamma (Z (x_ {i }), Z (x_ {j}))} .

Эта гипотеза позволяет вывести эти две меры: вариограмма и:

γ (h) = 1 2 | N (ч) | ∑ (я, j) ​​∈ N (час) (Z (xi) - Z (xj)) 2 {\ displaystyle \ gamma (h) = {\ frac {1} {2 | N (h) |}} \ сумма _ {(i, j) \ in N (h)} \ left (Z (x_ {i}) - Z (x_ {j}) \ right) ^ {2}}{\ displaystyle \ gamma (h) = {\ frac {1} {2 | N (h) |}} \ sum _ {(i, j) \ in N (h)} \ left (Z (x_ {i}) - Z (x_ {j}) \ right) ^ {2}}
C (h) = 1 | N (ч) | ∑ (я, j) ​​∈ N (час) (Z (xi) - m (h)) (Z (xj) - m (h)) {\ displaystyle C (h) = {\ frac {1} { | N (h) |}} \ sum _ {(i, j) \ in N (h)} \ left (Z (x_ {i}) - m (h) \ right) \ left (Z (x_ {j})) -m (h) \ right)}{\ displaystyle C (h) = {\ frac {1} {| N (h) |}} \ sum _ {(i, j) \ in N (h)} \ left (Z (x_ {i}) - m (h) \ right) \ left (Z (x_ {j}) - m (h) \ right)}

где:

  • m (h) = 1 2 | N (ч) | ∑ (я, j) ​​∈ N (час) Z (xi) + Z (xj) {\ displaystyle m (h) = {\ frac {1} {2 | N (h) |}} \ sum _ {(i, j) \ in N (h)} Z (x_ {i}) + Z (x_ {j})}{\ displaystyle m (h) = {\ frac {1} {2 | N (h) |}} \ sum _ {( i, j) \ in N (h)} Z (x_ {i}) + Z (x_ {j})} ;
  • N (h) {\ displaystyle N (h)}N (h) обозначает набор пар наблюдений i, j {\ displaystyle i, \; j}i,\;jтаких, что | х я - х j | = час {\ displaystyle | x_ {i} -x_ {j} | = h}|x_{i}-x_{j}|=hи | N (ч) | {\ displaystyle | N (h) |}|N(h)|- количество пар в наборе. В этом наборе (i, j) {\ displaystyle (i, \; j)}{\displaystyle (i,\;j)}и (j, i) {\ displaystyle (j, \; i)}{\ displaystyle (j, \; i) } обозначают тот же элемент. Обычно используется «приблизительное расстояние» h {\ displaystyle h}h, реализованное с использованием определенного допуска.

Линейная оценка

Пространственный вывод или оценка количества Z: R n → R {\ displaystyle Z \ двоеточие \ mathbb {R} ^ {n} \ rightarrow \ mathbb {R}}{\ displaystyle Z \ двоеточие \ mathbb {R} ^ {п} \ rightarrow \ mathbb {R}} в ненаблюдаемом месте x 0 {\ displaystyle x_ {0}}x_ {0} , вычисляется из линейной комбинации наблюдаемых значений zi = Z (xi) {\ displaystyle z_ {i} = Z (x_ {i})}z_i = Z (x_i) и веса wi (x 0), i = 1,…, N {\ displaystyle w_ {i} (x_ {0}), \; i = 1, \ ldots, N}w_i(x_0),\;i=1,\ldots,N:

Z ^ (Икс 0) знак равно [вес 1 вес 2 ⋯ вес N] ⋅ [Z 1 Z 2 ⋮ ZN] = ∑ я = 1 nwi (x 0) × Z (xi) {\ displaystyle {\ hat {Z}} (x_ {0}) = {\ begin {bmatrix} w_ {1} w_ {2} \ cdots w_ {N} \ end {bmatrix}} \ cdot {\ begin {bmatrix} z_ {1} \\ z_ {2} \\\ vdots \\ z_ {N} \ end {bmatrix}} = \ sum _ {i = 1} ^ {n} w_ {i} (x_ {0}) \ times Z (x_ {i})}\ hat {Z} (x_0) = \ begin {bmatrix} w_1 w_2 \ cdots w_N \ end {bmatrix} \ cdot \ begin {bmatrix} z_1 \\ z_2 \\ \ vdots \\ z_N \ end {bmatrix } = \ sum_ {я = 1} ^ n w_i (x_0) \ times Z (x_i)

Веса wi {\ displaystyle w_ {i}}w_ {i} предназначены для обобщения двух чрезвычайно важных процедур в пространственном i Процесс сравнения :

  • отражает структурную "близость" образца к месту оценки, x 0 {\ displaystyle x_ {0}}x_ {0}
  • в то же время они должны иметь эффект десегрегации, чтобы избежать систематической, вызванной возможными кластерами выборки

При вычислении весов wi {\ displaystyle w_ {i}}w_ {i} геостатистический формализм преследует две цели: объективность и минимальное отклонение оценки.

Если облако реальных значений Z (x 0) {\ displaystyle Z (x_ {0})}Z (x_0) построено против оценочных значений Z ^ (x 0) {\ displaystyle {\ hat {Z}} (x_ {0})}\ hat {Z} (x_0) , критерий глобальной несмещенности, внутренней стационарности или стационарности в широком смысле поля, подразумевает, что среднее оценки должно быть равно среднему значению реальных значений.

Второй критерий говорит, что среднее квадрарий отклонений (Z ^ (x) - Z (x)) {\ displaystyle ({\ hat {Z}} (x) -Z (x))}(\ hat {Z} (x) -Z (x)) должно быть минимальным, что означает, что, когда облако оценочных значений по сравнению с облачными реальными значениями более рассредоточено, оценка будет более неточной.

Методы

В зависимости от стохастических характеристик случайного поля и различных предполагаемых степеней стационарности могут быть выведены различные методы вычислений весов, т. Е. Применяются разные типы кригинга. Классические методы:

  • Обычный кригинг предполагает постоянное неизвестное среднее значение только в окрестностях поиска x 0 {\ displaystyle x_ {0}}x_ {0} .
  • Простой кригинг предполагает стационарность первого момента над всякой области с известным средним: E {Z (x)} = E {Z (x 0)} = m {\ displaystyle E \ {Z (x) \} = E \ {Z (x_ {0)}) \} = m}E\{Z(x)\}=E\{Z(x_{0})\}=m, где m {\ displaystyle m}m- известное среднее значение.
  • Универсальный кригинг предполагает общую модель полиномиального тренда, например, модель линейного тренда E {Z (x)} = ∑ k = 0 p β kfk (x) {\ displaystyle E \ {Z (x) \} = \ sum _ {k = 0} ^ {p} \ beta _ {k} f_ {k} (x)}E\{Z(x)\}=\sum_{k=0}^p \beta_k f_k(x).
  • IRFk-кригинг предполагает E {Z (x)} {\ displaystyle E \ {Z (x) \}}E \ {Z (x) \} быть неизвестным многочленом в x {\ displaystyle x}x .
  • Индикаторный кригинг использует индикаторные функции вместо самого процесса для оценки вероятностей перехода.
    • Мультииндикаторный кригинг - это вариант индикатора кригинга, работающий с семейством индикаторов. Первоначально MIK представляет большие возможности как новый метод, позволяющий более точно оценивать общие содержания или содержания минеральных ресурсов в мире. Тем не менее, используются эти преимущества использования проблем, связанных с использованием больших размеров блоков, а также из-за разрешения в масштабах производительности. В этом случае условное моделирование становится общепринятой техникой замены.
  • Дизъюнктивный кригинг - это нелинейное обобщение кригинга.
  • Логнормальный кригинг интерполирует положительные данные с помощью логарифмов.

Обычного кригинга

Неизвестное значение Z (x 0) {\ displaystyle Z (x_ {0})}Z (x_0) интерпретируется как случайная величина, расположенная в x 0 {\ displaystyle x_ {0}}x_ {0} , а также значения соседних выборок Z (xi), i = 1,…, N {\ displaystyle Z (x_ {i}), i = 1, \ ldots, N}{\displaystyle Z(x_{i}),i=1,\ldots,N}. Оценщик Z ^ (x 0) {\ displaystyle {\ hat {Z}} (x_ {0})}\ hat {Z} (x_0) также интерпретируется как случайная величина, расположенная в x 0 {\ displaystyle x_ {0}}x_ {0} , результат линейной комбинации чисел.

Чтобы вывести систему кригинга для допущений модели, следующая ошибка, совершенная при оценке Z (x) {\ displaystyle Z (x)}Z (x) в x 0 {\ displaystyle x_ {0}}x_ {0} объявляется:

ϵ (x 0) = Z ^ (x 0) - Z (x 0) = [WT - 1] ⋅ [Z (Икс 1) ⋯ Z ( Икс N) Z (Икс 0)] T знак равно ∑ я знак равно 1 N wi (x 0) × Z (xi) - Z (x 0) {\ displaystyle \ epsilon (x_ {0}) = {\ hat { Z}} (x_ {0}) - Z (x_ {0}) = {\ begin {bmatrix} W ^ {T} - 1 \ end {bmatrix}} \ cdot {\ begin {bmatrix} Z (x_ { 1}) \ cdots Z (x_ {N}) Z (x_ {0}) \ end {bmatrix}} ^ {T} = \ sum _ {i = 1} ^ {N} w_ {i} ( x_ {0}) \ times Z (x_ {i}) - Z (x_ {0})}{\ displaystyle \ epsilon (x_ {0}) = {\ hat {Z} } (x_ {0}) - Z (x_ {0}) = {\ begin {bmatrix} W ^ {T} - 1 \ end {bmatrix}} \ cdot {\ begin {bmatrix} Z (x_ {1}) \ cdots Z (x_ {N}) Z (x_ {0}) \ end {bmatrix}} ^ {T} = \ sum _ {i = 1} ^ {N} w_ {i} (x_ {0}) \ раз Z (x_ {i}) - Z (x_ {0})}

Два критерия качества, указанные ранее, теперь могут быть выражены в терминах среднего значения и дисперсии новой случайной величины ϵ (x 0) {\ displaystyle \ epsilon (x_ {0})}\epsilon(x_0):

Отсутствие с территории :

Временная случайная функция стационарна, E (Z (xi)) = E (Z (x 0)) = m {\ Displaystyle E (Z (x_ {i})) = E (Z (x_ {0})) = m}E(Z(x_i))=E(Z(x_0))=m, соблюдается следующее ограничение:

E (ϵ (x 0)) Знак равно 0 ⇔ ∑ я знак равно 1 N wi (x 0) × E (Z (xi)) - E (Z (x 0)) = 0 ⇔ {\ displaystyle E \ left (\ epsilon (x_ {0}) \ right) = 0 \ Leftrightarrow \ sum _ {i = 1} ^ {N} w_ {i} (x_ {0}) \ times E (Z (x_ {i})) - E (Z (x_ {0})) Знак равно 0 \ Leftrightarrow}E\left(\epsilon(x_0)\right)=0 \Leftrightarrow \sum^{N}_{i=1}w_i(x_0) \times E(Z(x_i)) - E(Z(x_0))=0 \Leftrightarrow
⇔ ∑ я знак равно 1 N wi (x 0) - m = 0 ⇔ ∑ я = 1 N wi (Икс 0) знак равно 1 ⇔ 1 T ⋅ W знак равно 1 {\ Displaystyle \ Leftrightarrow m \ sum _ {i = 1} ^ {N} w_ {i} (x_ {0}) - m = 0 \ Leftrightarrow \ sum _ {i = 1} ^ {N} w_ {i} (x_ {0}) = 1 \ Leftrightarrow \ mathbf {1} ^ {T} \ cdot W = 1}{\displaystyle \Leftrightarrow m\sum _{i=1}^{N}w_{i}(x_{0})-m=0\Leftrightarrow \sum _{i=1}^{N}w_{i}(x_{0})=1\Leftrightarrow \mathbf {1} ^{T}\cdot W=1}

Чтобы надежная несмещенность модели, весовые коэффициенты должны быть равны единице.

Минимальная дисперсия :

Две оценки могут иметь E [ϵ (x 0)] = 0 {\ displaystyle E \ left [\ epsilon (x_ {0}) \ right] = 0}E \ left [\ epsilon (x_ {0}) \ right] = 0 , но разброс их среднего значения определяет разницу в качестве оценок. Чтобы найти оценщик с минимальной дисперсией, нам нужно минимизировать E (ϵ (x 0) 2) {\ displaystyle E \ left (\ epsilon (x_ {0}) ^ {2} \ right)}E\left(\epsilon(x_0)^2\right).

Var ⁡ (ϵ (x 0)) = Var ⁡ ([WT - 1] ⋅ [Z (x 1) ⋯ Z (x N) Z (x 0)] T) = = ∗ [WT - 1] ⋅ Var ⁡ ([ Z (Икс 1) ⋯ Z (Икс N) Z (Икс 0)] T) T [W - 1] {\ Displaystyle {\ begin {array} {rl} \ operatorname {Var} (\ epsilon (x_ {0}))) = \ operatorname {Var} \ left ({\ begin {bmatrix} W ^ {T} - 1 \ end {bmatrix}} \ cdot {\ begin {bmatrix} Z (x_ {1}) \ cdots Z (x_ {N}) Z (x_ {0}) \ end {bmatrix}} ^ {T} \ right) = \\ {\ overset {*} {=}} {\ begin {bmatrix} W ^ {T} - 1 \ end {bmatrix}} \ cdot \ operatorname {Var} \ left ({\ begin {bmatrix} Z (x_ {1}) \ cdots Z (x_ {N}) Z ( x_ {0}) \ end {bmatrix}} ^ {T} \ right) \ cdot {\ begin {bmatrix} W \\ - 1 \ end {bmatrix}} \ end {array}}}{\displaystyle {\begin{array}{rl}\operatorname {Var} (\epsilon (x_{0}))=\operatorname {Var} \left({\begin{bmatrix}W^{T}-1\end{bmatrix}}\cdot {\begin{bmatrix}Z(x_{1})\cdots Z(x_{N})Z(x_{0})\end{bmatrix}}^{T}\right)=\\{\overset {*}{=}}{\begin{bmatrix}W^{T}-1\end{bmatrix}}\cdot \operatorname {Var} \left({\begin{bmatrix}Z(x_{1})\cdots Z(x_{N})Z(x_{0})\end{bmatrix}}^{T}\right)\cdot {\begin{bmatrix}W\\-1\end{bmatrix}}\end{array}}}

*см. ковариацию матрица для подробного объяснения

Var ⁡ (ϵ (x 0)) = ∗ [WT - 1] ⋅ [Var xi Cov xix 0 Cov xix 0 T Var x 0] ⋅ [W - 1 ] {\ displaystyle \ operatorname {Var} (\ epsilon (x_ {0})) {\ overset {*} {=}} {\ begin {bmatrix} W ^ {T} - 1 \ end {bmatrix}} \ cdot {\ begin {bmatrix} \ operatorname {Var} _ {x_ {i}} \ operatorname {Cov} _ {x_ {i} x_ {0}} \\\ operatorname {Cov} _ {x_ {i} x_ {0}} ^ {T} \ operatorname {Var} _ {x_ {0}} \ end {bmatrix}} \ cdot {\ begin {bmatrix} W \\ - 1 \ end {bmatrix}}}{\displaystyle \operatorname {Var} (\epsilon (x_{0})){\overset {*}{=}}{\begin{bmatrix}W^{T}-1\end{bmatrix}}\cdot {\begin{bmatrix}\operatorname {Var} _{x_{i}}\operatorname {Cov} _{x_{i}x_{0}}\\\operatorname {Cov} _{x_{i}x_{0}}^{T}\operatorname {Var} _{x_{0}}\end{bmatrix}}\cdot {\begin{bmatrix}W\\-1\end{bmatrix}}}

*, где литералы {Var xi, Var x 0, Cov xix 0} {\ displaystyle \ left \ {\ operatorname {Var} _ {x_ {i}}, \ operatorname {Var} _ {x_ {0}}, \ operatorname {Cov} _ {x_ {i} x_ {0}} \ right \}}{\displaystyle \left\{\operatorname {Var} _{x_{i}},\operatorname {Var} _{x_{0}},\operatorname {Cov} _{x_{i}x_{0}}\right\}}означает {Var ⁡ ([Z (x 1) ⋯ Z (x N)] T), Вар ⁡ (Z (Икс 0)), Cov ⁡ ([Z (Икс 1) ⋯ Z (Икс N)] T, Z (x 0))} {\ Displaystyle \ left \ {\ OperatorName {Var} \ left ({\ begin {bmatrix} Z (x_ {1}) \ cdots Z (x_ {N}) \ end {bmatrix}} ^ {T} \ right), \ operatorname {Var} (Z (x_ {0})), \ operatorname {Cov} \ left ({\ begin {bmatrix} Z (x_ {1}) \ cdots Z (x_ {N}) \ end {bmatrix}} ^ {T}, Z (x_ {0}) \ right) \ right \}}{\displaystyle \left\{\operatorname {Var} \left({\begin{bmatrix}Z(x_{1})\cdots Z(x_{N})\end{bmatrix}}^{T}\right),\operatorname {Var} (Z(x_{0})),\operatorname {Cov} \left({\begin{bmatrix}Z(x_{1})\cdots Z(x_{N})\end{bmatrix}}^{T},Z(x_{0})\right)\right\}}.

После определения ковариационной модели или вариограммы, C (h) {\ displaystyle С (\ mathbf {h})}C (\ mathbf {h}) или γ (h) {\ displaystyle \ gamma (\ mathbf {h})}\ gamma (\ mathbf {h}) , вали d во всей области анализа Z (x) {\ displaystyle Z (x)}Z (x) , то мы можем написать выражение для дисперсии оценки любого оценщика в функциях ковариации между выборками и ковариации между выборками и точкой для оценки:

{Var ⁡ (ϵ (x 0)) = WT ⋅ Var xi ⋅ W - Cov xix 0 T ⋅ W - WT ⋅ Cov xix 0 + Var x 0 Var ⁡ (ϵ (x 0)) знак равно Cov ⁡ (0) + ∑ я ∑ jwiwj Cov ⁡ (xi, xj) - 2 ∑ iwi C (xi, x 0) {\ displaystyle \ left \ {{\ begin {array} {l} \ operatorname {Var} (\ epsilon (x_ {0})) = W ^ {T} \ cdot \ operatorname {Var} _ {x_ {i}} \ cdot W- \ operatorname {Cov} _ {x_ {i} x_ {0}} ^ {T} \ cdot WW ^ {T} \ cdot \ operatorname {Cov} _ {x_ {i} x_ {0}} + \ operatorname {Var} _ {x_ {0}} \\\ operatorname {Var} (\ epsilon (x_ {0})) = \ operatorname {Cov} (0) + \ sum _ {i} \ sum _ { j} w_ {i} w_ {j} \ operatorname {Cov} (x_ {i}, x_ {j}) - 2 \ sum _ {i} w_ {i} C (x_ {i}, x_ {0}) \ end {array}} \ right.}{\ displaystyle \ left \ {{\ begin {array} { l} \ operatorname {Var} (\ epsilon (x_ {0})) = W ^ {T} \ cdot \ operatorname {Var} _ {x_ {i}} \ cdot W- \ operatorname {Cov} _ {x_ { i} x_ {0}} ^ {T} \ cdot WW ^ {T} \ cdot \ operatorname {Cov} _ {x_ {i} x_ {0}} + \ operatorname {Var} _ {x_ {0}} \ \\ operatorname {Var} (\ epsilon (x_ {0})) = \ operatorname {Cov} (0) + \ sum _ {i} \ sum _ {j} w_ {i} w_ {j} \ operatorname {Cov } (x_ {i}, x_ {j}) - 2 \ sum _ {i} w_ {i} C (x_ {i}, x_ {0}) \ end {array}} \ right.}

Из этого выражения можно сделать некоторые выводы. Дисперсия оценки:

  • не поддается количественной оценке для какой-либо линейной оценки, если устойчивость среднего значения и пространственных ковариаций или вариограмм.
  • растет, когда ковариация между выборками и точкой уменьшить уменьшение. Это означает, что чем дальше выборки от x 0 {\ displaystyle x_ {0}}x_ {0} , оценка становится хуже.
  • растет с априорной дисперсией C (0) {\ displaystyle C (0)}C(0)тип Z (x) {\ displaystyle Z (x)}Z (x) . Когда переменная менее дисперсна, дисперсия ниже в любой точке области A {\ displaystyle A}A .
  • не зависит от значений выборок. Это означает, что одна и та же пространственная конфигурация (с одинаковыми геометрическими соотношениями между выборками и точками для оценки) всегда воспроизводит одну и ту же дисперсию оценки в любой части A {\ displaystyle A}A . Таким образом, дисперсия не измеряет неопределенность оценки, вызванной измененной переменной.
Системаиспользуемых
минимизирует WWT ⋅ Var xi ⋅ W - Cov xix 0 T ⋅ W - WT ⋅ Cov xix 0 + Var x 0 при условии 1 T ⋅ W = 1 {\ displaystyle {\ begin {align} {\ underset { W} {\ text {Minimum}}} W ^ {T} \ cdot \ operatorname {Var} _ {x_ {i}} \ cdot W- \ operatorname {Cov} _ {x_ {i} x_ {0}} ^ {T} \ cdot WW ^ {T} \ cdot \ operatorname {Cov} _ {x_ {i} x_ {0}} + \ operatorname {Var} _ {x_ {0}} \\ {\ text {subject to}} \ mathbf {1} ^ {T} \ cdot W = 1 \ end {align}}}{\ displaystyle {\ begin {align} {\ underset {W} {\ text {minim}}} W ^ {T} \ cdot \ operatorname {Var} _ {x_ {i}} \ cdot W- \ operatorname {Cov} _ {x_ {i} x_ {0}} ^ {T} \ cdot WW ^ {T} \ cdot \ operatorname {Cov} _ {x_ {i} x_ {0}} + \ operatorname {Var} _ {х_ {0}} \\ {\ текст {при условии}} \ mathbf {1} ^ {T} \ cdot W = 1 \ конец {выровнено}}}

Решение этой задачи оптимизации (см. множители Лагранжа ) приводит к системе кригинга:

[W ^ μ] = [Var xi 1 1 T 0] - 1 ⋅ [Cov xix 0 1] = [γ (x 1, x 1) ⋯ γ (x 1, xn) 1 ⋮ ⋱ ⋮ γ ( xn, x 1) ⋯ γ (xn, xn) 1 1 ⋯ 1 0] - 1 [γ (x 1, x ∗) ⋮ γ (xn, x ∗) 1] {\ displaystyle {\ begin {bmatrix} {\ hat {W}} \\\ mu \ end {bmatrix}} = {\ begin {bmatrix} \ operatorname {Var} _ {x_ {i}} \ mathbf {1} \\\ mathbf {1} ^ {T } 0 \ end {bmatrix}} ^ {- 1} \ cdot {\ begin {bmatrix} \ operatorname {Cov} _ {x_ {i} x_ {0}} \ \ 1 \ end {bmatrix}} = {\ begin {bmatrix} \ gamma (x_ {1}, x_ {1}) \ cdots \ gamma (x_ {1}, x_ {n}) 1 \\\ vdots \ ddots \ vdots \ vdots \\\ гамма (x_ {n}, x_ {1}) \ cdots \ гамма (x_ {n}, x_ {n}) 1 \\ 1 \ cdots 1 0 \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} \ gamma (x_ {1}, x ^ {*}) \\\ vdots \\\ gamma (x_ {n}, x ^ {*}) \\ 1 \ end {bmatrix}}}{\ displaystyle {\ begin {bmatrix} {\ hat {W}} \\\ mu \ end {bmatrix}} = {\ begin {bmatrix} \ operatorname {Var} _ {x_ {i}} \ mathbf { 1} \\\ mathbf {1} ^ {T} 0 \ end {bmatrix}} ^ {- 1} \ cdot {\ begin {bmatrix} \ operatorname {Cov} _ {x_ {i} x _ {0}} \\ 1 \ end {bmatrix}} = {\ begin {bmatrix} \ gamma (x_ {1}, x_ {1}) \ cdots \ gamma (x_ {1}, x_ {n})) 1 \\\ vdots \ ddots \ vdots \ vdots \\\ gamma (x_ {n}, x_ {1}) \ cdots \ gamma (x_ {n}, x_ {n}) 1 \\ 1 \ cdots 1 0 \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} \ gamma (x_ {1}, x ^ {*}) \\\vdots \\\gamma (x_{n},x^{*})\\1\end{bmatrix}}}

дополнительный параметр μ {\ displaystyle \ mu}\ mu - это множитель Лагранжа, использование для минимизации ошибок кригинга σ К 2 (x) {\ displaystyle \ sigma _ {k} ^ {2} (x)}\sigma_k^2(x)обязательное условие беспристрастности.

Простой кригинг

Простой кригинг можно рассматривать как среднее значение и огибающую броуновских случайных блужданий, проходящих через точки данных.

Простой кригинг математически самый простой, но наименее общий. Он предполагает, что ожидание ного поля известно, и полагается на ковариационную функцию . Однако в большинстве приложений заранее неизвестны ни математическое ожидание, ни ковариация.

Практические допущения для применения простого кригинга:

Система уравнений

Веса кригинга простого кригинга не имеют условий несмещенности и задаются простой системой уравнений кригинга:

(w 1 ⋮ wn) = (c (x 1, x 1) ⋯ c (x 1, xn) ⋮ ⋱ ⋮ c (xn) Икс 1) ⋯ с (xn, xn)) - 1 (c (x 1, x 0) ⋮ c (xn, x 0)) {\ displaystyle {\ begin {pmatrix} w_ {1} \\\ vdots \ \ w_ {n} \ end {pmatrix}} = {\ begin {pmatrix} c (x_ {1}, x_ {1}) \ cdots c (x_ {1}, x_ {n}) \\\ vdots \ ddots \ vdots \\ c (x_ {n}, x_ {1}) \ cdots c (x_ {n}, x_ {n}) \ end {pmatrix}} ^ {- 1} {\ begin {pmatrix} c (x_ {1}, x_ {0}) \\\ vdots \\ c (x_ {n}, x_ {0}) \ end {pmatrix}}}\ begin {pmatrix} w_1 \\ \ vdots \\ w_n \ end {pmatrix} = \ begin {pmatrix} c (x_1, x_1) \ cdots c (x_1, x_n) \\ \ vdots \ ddots \ vdots \\ c (x_n, x_1) \ cdots c (x_n, x_n) \ end {pmatrix} ^ {- 1} \ begin {pmatrix} c (x_1, x_0) \\ \ vdots \\ c (x_n, x_0) \ end {pmatrix}

Это аналогично линейной регрессии Z (Икс 0) {\ Displaystyle Z (x_ {0})}Z (x_0) на другом z 1,…, zn {\ displaystyle z_ {1}, \ ldots, z_ {n}}z_1, \ ldots, z_n .

Оценка

Интерполяция с помощью простого кригинга дается следующим образом:

Z ^ (x 0) = (z 1 ⋮ zn) ′ (c (x 1, x 1) ⋯ c ( Икс 1, Икс) ⋮ ⋱ ⋮ с (ХН, Икс 1) ⋯ С (ХН, ХН)) - 1 (С (Икс 1, Икс 0) ⋮ С (ХН, Икс 0)) {\ Displaystyle {\ Hat { Z}} (x_ {0}) = {\ begin {pmatrix} z_ {1} \\\ vdots \\ z_ {n} \ end {pmatrix}} '{\ begin {pmatrix} c (x_ {1}, x_ {1}) \ cdots c (x_ {1}, x_ {n}) \\\ vdots \ ddots \ vdots \\ c (x_ {n}, x_ {1}) \ cdots c (x_ {n}, x_ {n}) \ end {pmatrix}} ^ {- 1} {\ begin {pmatrix} c (x_ {1}, x_ {0}) \\\ vdots \\ c (x_ { n}, x_ {0}) \ end {pmatrix}}}\hat{Z}(x_0)=\begin{pmatrix}z_1 \\ \vdots \\ z_n \end{pmatrix}' \begin{pmatrix}c(x_1,x_1) \cdots c(x_1,x_n) \\ \vdots \ddots \vdots \\ c(x_n,x_1) \cdots c(x_n,x_n) \end{pmatrix}^{-1} \begin{pmatrix}c(x_1,x_0) \\ \vdots \\ c(x_n,x_0)\end{pmatrix}

Ошибка кригинга как определяется:

Var ⁡ (Z ^ (x 0) - Z (x 0)) = c (x 0, x 0) ⏟ Var ⁡ (Z (x 0)) - (c (x 1, x 0) ⋮ c (xn, x 0)) ′ (c (x 1, x 1) ⋯ c (x 1, xn) ⋮ ⋱ ⋮ с (xn, x 1) ⋯ с (xn, xn)) - 1 (c (x 1, x 0) ⋮ c (xn, x 0)) ⏟ Var ⁡ (Z ^ (x 0)) {\ displaystyle \ operatorname {Var} \ left ({\ hat {Z}} (x_ {0}) - Z (x_ {0}) \ rig ht) = \ underbrace {c (x_ {0}, x_ {0})} _ {\ operatorname {Var} (Z (x_ {0}))} - \ underbrace {{\ begin {pmatrix} c (x_ {1}, x_ {0}) \\\ vdots \\ c (x_ {n}, x_ {0}) \ end {pmatrix}} '{\ begin {pmatrix} c (x_ {1}, x_ {1}) \ cdots c (x_ {1}, x_ {n}) \\\ vdots \ ddots \ vdots \\ c (x_ {n}, x_ {1}) \ cdots c (x_ {n}, x_ {n}) \ end {pmatrix}} ^ {- 1} {\ begin {pmatrix} c (x_ {1}, x_ {0}) \\\ vdots \\ c (x_ {n}, x_ {0}) \ end {pmatrix}}} _ {\ operatorname {Var} ({\ hat {Z}} (x_ {0}))}}{\displaystyle \operatorname {Var} \left({\hat {Z}}(x_{0})-Z(x_{0})\right)=\underbrace {c(x_{0},x_{0})} _{\operatorname {Var} (Z(x_{0}))}-\underbrace {{\begin{pmatrix}c(x_{1},x_{0})\\\vdots \\c(x_{n},x_{0})\end{pmatrix}}'{\begin{pmatrix}c(x_{1},x_{1})\cdots c(x_{1},x_{n})\\\vdots \ddots \vdots \\c(x_{n},x_{1})\cdots c(x_{n},x_{n})\end{pmatrix}}^{-1}{\begin{pmatrix}c(x_{1},x_{0})\\\vdots \\c(x_{n},x_{0})\end{pmatrix}}} _{\operatorname {Var} ({\hat {Z}}(x_{0}))}}

что приводит к обобщенной версии метода наименьших квадратов Гаусса –Теорема Маркова (Chiles Delfiner 1999, стр. 159):

Вар ⁡ (Z (x 0)) = Вар ⁡ (Z ^ (x 0)) + Вар ⁡ (Z ^ (x 0) - Z (x 0)). {\ displaystyle \ operatorname {Var} (Z (x_ {0})) = \ operatorname {Var} ({\ hat {Z}} (x_ {0})) + \ operatorname {Var} \ left ({\ hat {Z}} (x_ {0}) - Z (x_ {0}) \ right).}{\displaystyle \operatorname {Var} (Z(x_{0}))=\operatorname {Var} ({\hat {Z}}(x_{0}))+\operatorname {Var} \left({\hat {Z}}(x_{0})-Z(x_{0})\right).}

Свойства

(Cressie 1993, Chiles Delfiner 1999, Wackernagel 1995)

  • Оценка кригинга беспристрастный: E [Z ^ (xi)] = E [Z (xi)] {\ displaystyle E [{\ hat {Z}} (x_ {i})] = E [Z (x_ {i}) ]}E[\hat{Z}(x_i)]=E[Z(x_i)]
  • Оценка кригинга учитывает существующее наблюдаемое значение: Z ^ (xi) = Z (xi) {\ displaystyle {\ hat {Z}} (x_ {i}) = Z (x_ {i})}\hat{Z}(x_i)=Z(x_i)(при условии отсутствия ошибок измерения)
  • Оценка кригинга Z ^ (x) {\ displaystyle {\ hat {Z}} (x)}\ hat {Z} (x) - лучшая линейная несмещенная оценка из Z (x) {\ displaystyle Z (x)}Z (x) , если предположения верны. Однако (например, Кресси 1993):
    • Как и любой метод: если предположения не верны, кригинг может быть плохим.
    • Могут быть более эффективные нелинейные и / или предвзятые методы.
    • Никаких свойств не гарантируется при использовании неправильной вариограммы. Однако обычно все же достигается «хорошая» интерполяция.
    • Лучшее не обязательно хорошо: например, В случае отсутствия пространственной возможности интерполяция кригинга хороша ровно настолько, насколько хороша средняя арифметическая.
  • Кригинг обеспечивает σ k 2 {\ displaystyle \ sigma _ {k} ^ {2}}\sigma_k^2как мера точности. Однако эта мера зависит от правильности вариограммы.

Приложения

Хотя кригинг был разработан для приложений в геостатистике, это общий метод статистической интерполяции, который может использовать в любом дисциплине к выборочным данным из случайных полей, удовлетворяющие математическим предположениям. Его можно использовать там, где были собраны пространственно связанные данные (в 2-D или 3-D) и требуются оценки «заполняющих» данных в местах (пространственных промежутках) между фактическими измерениями.

На сегодняшний день кригинг используется в различных дисциплинах, включая следующие:

Разработка и анализ компьютерных экспериментов

Еще одна очень важная и быстрорастущая область применения, в инженерии, - это интерполяция данных, получаемых в сочетании отклика детерминированное компьютерное моделирование, например Моделирование методом конечных элементов (МКЭ). В этом случае кригинг используется как инструмент метамоделирования, есть модель черного ящика, построенная на основе разработанного набора компьютерных экспериментов. Во многих практических инженерных задач, таких как проектирование процесса формовки металла, одиночное моделирование методом конечных элементов может длиться несколько часов или даже несколько дней. Поэтому более эффективно спроектировать и запустить ограниченное количество компьютерных симуляций, а затем использовать интерполятор кригинга для любого быстрого прогнозирования отклика в другой проектной точке. Поэтому кригинг очень часто используется как так называемая суррогатная модель, реализованная внутри программ оптимизации.

См.

Викискладе есть средства массовой информации, связанные с Кригинг.

Литература

  1. ^Вахба, Грейс (1990). Сплайновые модели для наблюдений. 59 . СИАМ. doi : 10.1137 / 1.9781611970128.
  2. ^Уильямс, К. К. И. (1998). «Прогнозирование с помощью гауссовских процессов: от линейной регрессии к линейному предсказанию и не только». Обучение в графических моделях. С. 599–621. DOI : 10.1007 / 978-94-011-5014-9_23. ISBN 978-94-010-6104-9.
  3. ^Олеа, Рикардо А. (1999). Геостатистика для инженеров и геологов. Kluwer Academic. ISBN 978-1-4615-5001-3.
  4. ^Байрактар, Ханефи; Сезер, Туралиоглу (2005). «Подход, основанный на кригинге, для определения места отбора проб - при оценке качества воздуха». SERRA. 19 (4): 301–305. doi : 10.1007 / s00477-005-0234-8.
  5. ^Chiles, J.-P. и П. Делфинер (1999) Геостатистика, моделирование пространственной неопределенности, ряды Уайли в вероятности и статистике.
  6. ^Циммерман, Д. А.; Де Марсили, Г.; Готуэй, К.А. ; Мариетта, М. Г.; Axness, C.L.; Beauheim, R.L.; Bras, R.L.; Каррера, Дж.; Даган, Г.; Дэвис, П. Б.; Гальегос, Д. П.; Галли, А.; Гомес-Эрнандес, Дж.; Grindrod, P.; Gutjahr, A.L.; Китанидис, П.К.; Lavenue, A. M.; Маклафлин, Д.; Neuman, S.P.; Ramarao, B.S.; Равенн, К.; Рубин, Ю. (1998). «Сравнение семи геостатистических обратных подходов для оценки проницаемости для моделирования адвективного переноса потоком подземных вод» (PDF). Исследование водных ресурсов. 34 (6): 1373–1413. Bibcode : 1998WRR.... 34.1373Z. doi : 10.1029 / 98WR00003.
  7. ^Тонкин, М. Дж.; Ларсон, С. П. (2002). «Кригинговые уровни воды с регионально-линейным и точечно-логарифмическим дрейфом». Грунтовые воды. 40 (2): 185–193. doi : 10.1111 / j.1745-6584.2002.tb02503.x. PMID 11916123.
  8. ^Журнел, А.Г. и К.Дж. Хейбрегтс (1978) Горная геостатистика, Academic Press, Лондон
  9. ^Ричмонд, А. (2003). «Финансово эффективный отбор руды с учетом неопределенности содержания». Математическая геология. 35(2): 195–215. doi : 10.1023 / A: 1023239606028.
  10. ^Goovaerts (1997) Геостатистика для оценки природных ресурсов, OUP. ISBN 0-19-511538-4
  11. ^Эмери, X. (2005). «Простой и обычный мультигауссовский кригинг для оценки извлекаемых запасов». Математическая геология. 37(3): 295–319. doi : 10.1007 / s11004-005-1560-6.
  12. ^Паприц, А.; Штейн, А. (2002). «Пространственное предсказание линейным кригингом». Пространственная статистика для дистанционного зондирования. Дистанционное зондирование и цифровая обработка изображений. 1 . п. 83. DOI : 10.1007 / 0-306-47647-9_6. ISBN 0-7923-5978-X.
  13. ^Баррис, Дж. (2008) Экспертная система оценки методом сравнения. Докторская диссертация, UPC, Барселона
  14. ^Баррис, Дж. И Гарсиа Альмиралл, П. (2010) Функция плотности оценочной стоимости, UPC, Барселона
  15. ^Огенекархо Окобиа, Сараджу Моханти и Элиас Кугианос (2013) Геостатистическая оптимизация быстрой компоновки термодатчика Nano-CMOS Архивировано 14.07.2014 на Wayback Machine, IET Circuits, Devices и системы (CDS), Vol. 7, № 5, сентябрь 2013 г., стр. 253-262.
  16. ^Козил, Славомир (2011). «Точное моделирование микроволновых устройств с использованием суррогатов космического картографирования с поправкой на кригинг». Международный журнал численного моделирования: электронные сети, устройства и поля. 25 : 1–14. doi : 10.1002 / jnm.803.
  17. ^Пасторелло, Никола (2014). «Обзор SLUGGS: исследование градиентов металличности близких галактик ранних типов до больших радиусов». Ежемесячные уведомления Королевского астрономического общества. 442 : 1003–1039. arXiv : 1405.2338. doi : 10,1093 / mnras / stu937.
  18. ^Фостер, Кэролайн; Пасторелло, Никола; Рёдигер, Джоэл; Броди, Жан; Форбс, Дункан; Картха, Шриджа; Пота, Винченцо; Романовский, Аарон; Спитлер, Ли; Strader, Джей; Ашер, Кристофер; Арнольд, Джейкоб (2016). «Обзор SLUGGS: звездная кинематика, кинеметрия и тренды на больших радиусах в 25 галактиках ранних типов». Ежемесячные уведомления Королевского астрономического общества. 457 : 147–171. arXiv : 1512.06130. doi : 10.1093 / mnras / stv2947.
  19. ^Беллштедт, Сабина; Форбс, Дункан; Фостер, Кэролайн; Романовский, Аарон; Броди, Жан; Пасторелло, Никола; Алаби, Адебусола; Виллом, Алекса (2017). «Обзор SLUGGS: использование расширенной звездной кинематики для определения историй образования маломассивных S) галактик». Ежемесячные уведомления Королевского астрономического общества. 467 : 4540–4557. arXiv : 1702.05099. doi : 10,1093 / mnras / stx418.
  20. ^Sacks, J.; Welch, W.J.; Mitchell, T.J.; Винн, Г. (1989). «Дизайн и анализ компьютерных экспериментов». 4 (4). Статистическая наука: 409–435. JSTOR 2245858. Cite journal требует | journal =()
  21. ^Strano, M. (март 2008). "Метод для оптимизации FEM при ограничении надежности переменных процесса при формовании листового металла ». International Journal of Material Forming. 1 (1): 13–20. doi : 10.1007 / s12289 -008-0001-8.

Дополнительная литература

Исторические ссылки

  1. Chilès, Jean-Paul; Desassis, Nicolas (2018). «Пятьдесят лет кригинга». Справочник по математическим наукам о Земле. Cham: Springer International Publishing. doi : 10.1007 / 978-3-319-78999-6_29. ISBN 978-3-319-78998-9. CS1 maint: ref = harv (ссылка )
  2. Агтерберг, Ф.П., Геоматематика, математические основы и геологические приложения, Elsevier Scientific Publishing Company, Амстердам, 1974
  3. Cressie, NAC, Истоки кригинга, Математическая геология, т. 22, стр. 239–252, 1990
  4. Криг, Д.Г., Статистический подход к оценке некоторых рудников и смежных областях Проблемы в Витватерсранде, магистерская диссертация Университета Витватерсранда, 1951
  5. Линк, Р.Ф. и Кох, Г.С., Экспериментальные конструкции и анализ тренда поверхности, геостатистика, коллоквиум, Plenum Press, Нью-Йорк, 1970
  6. Матерон, Г., «Принципы геостатистики», Экономическая геология, 58, стр. 1246–1266, 1963
  7. Матерон, Г., «Внутренние случайные функции и их приложения», Adv. Appl. Prob., 5, pp 439–468, 1973
  8. Мерриам, Д.Ф., редактор, Geostatistics, коллоквиум, Plenum Press, Нью-Йорк, 1970

Книги

  • Абрамовиц, М., и Стегун, I. (1972), Справочник по математическим функциям, Dover Publications, New York.
  • Банерджи, С., Карлин, Б.П. и Гельфанд А.Е. (2004). Иерархическое моделирование и анализ пространственных данных. Чепмен и Холл / CRC Press, Taylor and Francis Group.
  • Chiles, J.-P. и П. Делфинер (1999) Геостатистика, Моделирование пространственной неопределенности, ряды Уайли в вероятности и статистике.
  • Кларк, И., и Харпер, Западная Вирджиния, (2000) Практическая геостатистика 2000, Ecosse North America, США
  • Cressie, N (1993) Статистика пространственных данных, Wiley, New York
  • David, M (1988) Справочник по прикладной расширенной геостатистической оценке запасов руды, Elsevier Scientific Publishing
  • Deutsch, CV и Journel, AG (1992), GSLIB - Библиотека геостатистического программного обеспечения и руководство пользователя, Oxford University Press, Нью-Йорк, 338 стр.
  • Гувертс, П. (1997) Геостатистика для оценки природных ресурсов, Оксфордский университет Press, New York ISBN 0-19-511538-4
  • Isaaks, EH, and Srivastava, RM (1989), An Introduction to Applied Geostatistics, Oxford University Press, New York, 561 pp.
  • Journel, AG и CJ Huijbregts (1978) Mining Geostatistics, Academic Press London
  • Journel, AG (1989), Основы геостатистики s в «Пяти уроках», Американский геофизический союз, Вашингтон, округ Колумбия
  • Press, WH; Теукольский С.А.; Феттерлинг, штат Вашингтон; Фланнери, Б.П. (2007), «Раздел 3.7.4. Интерполяция по кригингу», Численные рецепты: Искусство научных вычислений (3-е изд.), Нью-Йорк: Cambridge University Press, ISBN 978-0-521-88068-8. Кроме того, «Раздел 15.9. Регрессия гауссовского процесса».
  • Стейн, М.Л. (1999), Статистическая интерполяция пространственных данных: некоторая теория кригинга, Спрингер, Нью-Йорк.
  • Вакернагель, Х. ( 1995) Многомерная геостатистика - Введение в приложения, Springer Berlin
Последняя правка сделана 2021-05-26 14:19:14
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте