Матрица Гессе

редактировать
(Математическая) матрица вторых производных

В математике, Гессен матрица или Гессе - это квадратная матрица второго порядка частных производных скалярной функции , или скалярное поле. Он описывает локальную кривизну функции многих переменных. Матрица Гессе была разработана в XIX веке немецким математиком Людвигом Отто Гессе и позже названа в его честь. Первоначально Гессе использовал термин «функциональные детерминанты».

Содержание
  • 1 Определения и свойства
  • 2 Приложения
    • 2.1 Точки перегиба
    • 2.2 Тест второй производной
    • 2.3 Критические точки
    • 2.4 Использование в оптимизации
    • 2.5 Другие приложения
  • 3 Обобщения
    • 3.1 Гессиан с краями
    • 3.2 Векторозначные функции
    • 3.3 Обобщение на комплексный случай
    • 3.4 Обобщения на римановы многообразия
  • 4 См. Также
  • 5 Примечания
  • 6 Дополнительная литература
  • 7 Внешние ссылки
Определения и свойства

Предположим, что f: ℝ → ℝ - функция, принимающая на вход вектор x ∈ ℝ и выводящая скаляр f (x ) ∈ ℝ. Если все вторые частные производные функции f существуют и непрерывны в области определения функции, тогда матрица Гессе H функции f является квадратной матрицей размера n × n, обычно определяемой и расположенной как следует:

H f = [∂ 2 f ∂ x 1 2 ∂ 2 f ∂ x 1 ∂ x 2 ⋯ ∂ 2 f ∂ x 1 ∂ xn ∂ 2 f ∂ x 2 ∂ x 1 ∂ 2 f ∂ x 2 2 ⋯ ∂ 2 f ∂ x 2 ∂ xn ⋮ ⋮ ⋱ ⋮ ∂ 2 f ∂ xn ∂ x 1 ∂ 2 f ∂ xn ∂ x 2 ⋯ ∂ 2 f ∂ xn 2], {\ displaystyle \ mathbf {H} f = {\ begin {bmatrix} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1} ^ {2}}} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1} \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1} \, \ partial x_ {n}}} \\ [2.2ex] {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} ^ {2 }}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} \, \ partial x_ {n}}} \\ [2.2ex] \ vdots \ vdots \ ddots \ vdots \\ [2.2ex] {\ dfrac {\ partial ^ {2} f} {\ partial x_ {n} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} f } {\ partial x_ {n} \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {n} ^ {2} }} \ end {bmatrix}},}{\ displaystyle \ mathbf {H} f = {\ begin {bmatrix} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1} ^ {2}}} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1 } \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {1} \, \ partial x_ {n}}} \\ [2.2ex] {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} ^ {2}}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {2} \, \ partial x_ {n}}} \\ [2.2ex] \ vdots \ vdots \ ddots \ vdots \\ [2.2ex] {\ dfrac {\ partial ^ {2} f} {\ partial x_ {n} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2 } f} {\ partial x_ {n} \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} f} {\ partial x_ {n} ^ {2}}} \ конец {bmatrix}},}

или, формулируя уравнение для коэффициентов с использованием индексов i и j,

(H f) i, j = ∂ 2 f ∂ x i ∂ x j. {\ displaystyle (\ mathbf {H} f) _ {i, j} = {\ frac {\ partial ^ {2} f} {\ partial x_ {i} \ partial x_ {j}}}.}{\ displaystyle (\ mathbf {H} f) _ {i, j} = {\ frac {\ partial ^ {2} f} {\ partial x_ {i} \ partial x_ {j}}}.}

Матрица Гессе - это симметричная матрица, поскольку гипотеза непрерывности вторых производных подразумевает, что порядок дифференцирования не имеет значения (теорема Шварца )

определитель матрица Гессе называется определителем Гессе.

Матрица Гессе функции f - это матрица Якоби градиента функции: H (f (x )) = J (∇f (x )).

Приложения

перегиб точки

Если f является однородным многочленом от трех переменных, уравнение f = 0 является неявным уравнением плоской проективной кривой . точки перегиба кривой - это в точности неособые точки, в которых детерминант Гессе равен нулю. Из теоремы Безу следует, что кубическая плоская кривая имеет точку наиболее 9 точек перегиба, так как H Детерминант Эссиана является полиномом степени 3.

Тест второй производной

Матрица Гессе выпуклой функции является положительно полуопределенной. Уточнение этого свойства позволяет нам проверить, является ли критическая точка x локальным максимумом, локальным минимумом или седловой точкой, следующим образом:

Если гессиан положительно определен в точке x, то f достигает изолированного локального минимума в точке x. Если гессиан отрицательно определен в точке x, то f достигает изолированного локального максимума в точке x. Если гессиан имеет как положительные, так и отрицательные собственные значения, то x является седловой точкой для f. В противном случае тест будет безрезультатным. Это означает, что в локальном минимуме гессиан положительно-полуопределенный, а в локальном максимуме гессиан отрицательно-полуопределенный.

Обратите внимание, что для положительно-полуопределенного и отрицательно-полуопределенного гессианов тест неубедителен (критическая точка, в которой гессиан является полуопределенным, но не определенным, может быть локальным экстремумом или седловой точкой). Однако с точки зрения теории Морса.

можно сказать больше. Проверка второй производной для функций одной и двух переменных проста. В одной переменной гессиан содержит только одну вторую производную; если он положительный, то x - локальный минимум, а если отрицательный, то x - локальный максимум; если он равен нулю, то проверка не дает результатов. В двух переменных можно использовать определитель , потому что определитель является произведением собственных значений. Если он положительный, то собственные значения либо положительны, либо отрицательны. Если он отрицательный, то два собственных значения имеют разные знаки. Если он равен нулю, то проверка второй производной неубедительна.

Эквивалентно, условия второго порядка, которые достаточны для локального минимума или максимума, могут быть выражены в терминах последовательности главных (крайний левый верхний) миноров (детерминанты подматриц) гессенской; эти условия являются частным случаем тех, которые приведены в следующем разделе для гессианов с границами для оптимизации с ограничениями - случая, когда количество ограничений равно нулю. В частности, достаточным условием минимума является то, что все эти главные миноры должны быть положительными, в то время как достаточным условием для максимума является то, что миноры чередуются по знаку, а минор 1 × 1 является отрицательным.

Критические точки

Если градиент (вектор частных производных) функции f равен нулю в некоторой точке x, то f имеет критическую точку (или стационарную точку ) в x . Определитель гессиана в точке x в некоторых контекстах называется дискриминантом . Если этот определитель равен нулю, то x называется вырожденной критической точкой f или неморсовской критической точкой f. В противном случае она невырождена и называется критической точкой Морса функции f.

Матрица Гессе играет важную роль в теории Морса и теории катастроф, потому что ее ядро ​​ и собственные значения позволяют классификация критических точек.

Использование в оптимизации

Матрицы Гессе используются в крупномасштабных задачах оптимизации в методах типа Ньютона, поскольку они являются коэффициентом квадратичного члена локального разложения Тейлора функции. То есть

y = f (x + Δ x) ≈ f (x) + ∇ f (x) Δ x + 1 2 Δ x TH (x) Δ x {\ displaystyle y = f (\ mathbf {x } + \ Delta \ mathbf {x}) \ приблизительно f (\ mathbf {x}) + \ nabla f (\ mathbf {x}) \ Delta \ mathbf {x} + {\ frac {1} {2}} \ Delta \ mathbf {x} ^ {\ mathrm {T}} \ mathbf {H} (\ mathbf {x}) \ Delta \ mathbf {x}}{\ displaystyle y = f (\ mathbf {x} + \ Delta \ mathbf {x}) \ приблизительно f (\ mathbf {x}) + \ nabla f (\ mathbf {x}) \ Delta \ mathbf {x} + {\ frac {1} {2}} \ Delta \ mathbf {x} ^ {\ mathrm {T}} \ mathbf {H} (\ mathbf {x}) \ Delta \ mathbf {x}}

, где ∇f - это градиент ( ∂f / ∂x 1,..., ∂f / ∂x n). Вычисление и сохранение полной матрицы Гессе требует Θ (n) памяти, что невозможно для функций большой размерности, таких как функции потерь из нейронных сетей, условные случайные поля и другие статистические модели с большим количеством параметров. Для таких ситуаций были разработаны алгоритмы усеченного Ньютона и квазиньютона. Последнее семейство алгоритмов использует приближения к гессиану; одним из самых популярных квазиньютоновских алгоритмов является BFGS.

. Такие приближения могут использовать тот факт, что алгоритм оптимизации использует гессиан только как линейный оператор H(v), и сначала следует заметить, что Гессен также появляется в локальном расширении градиента:

∇ f (x + Δ x) = ∇ f (x) + H (x) Δ x + O (‖ Δ x ‖ 2) {\ displaystyle \ nabla f (\ mathbf {x} + \ Delta \ mathbf {x}) = \ nabla f (\ mathbf {x}) + \ mathbf {H} (\ mathbf {x}) \ Delta \ mathbf {x} + {\ mathcal {O}} (\ | \ Delta \ mathbf {x} \ | ^ {2})}{\ displaystyle \ nabla f (\ mathbf {x} + \ Delta \ mathbf {x}) = \ nabla f (\ mathbf {x}) + \ mathbf {H} (\ mathbf {x}) \ Delta \ mathbf {x} + {\ mathcal {O}} (\ | \ Delta \ mathbf {x} \ | ^ {2})}

Если принять Δ x = r v для некоторого скаляра r, это дает

ЧАС (Икс) Δ Икс знак равно ЧАС (Икс) RV знак равно р ЧАС (Икс) v = ∇ е (Икс + RV) - ∇ е (Икс) + О (г 2), {\ Displaystyle \ mathbf {H } (\ mathbf {x}) \ Delta \ mathbf {x} = \ mathbf {H} (\ mathbf {x}) r \ mathbf {v} = r \ mathbf {H} (\ mathbf {x}) \ mathbf {v} = \ nabla f (\ mathbf {x} + r \ mathbf {v}) - \ nabla f (\ mathbf {x}) + {\ mathcal {O}} (r ^ {2}),}{\ displaystyle \ mathbf {H} (\ mathbf {x}) \ Delta \ mathbf {x} = \ mathbf {H} (\ mathbf {x}) r \ mathbf {v} = r \ mathbf {H} (\ mathbf {x}) \ mathbf {v} = \ nabla f (\ mathbf {x} + r \ mathbf {v}) - \ nabla f (\ mathbf {x }) + {\ mathcal {O}} (г ^ {2}),}

то есть

ЧАС (Икс) v = 1 р [∇ е (х + рв) - ∇ е (х)] + О (г) {\ Displaystyle \ mat hbf {H} (\ mathbf {x}) \ mathbf {v} = {\ frac {1} {r}} {\ Bigl [} \ nabla f (\ mathbf {x} + r \ mathbf {v}) - \ nabla f (\ mathbf {x}) {\ Bigr]} + {\ mathcal {O}} (r)}{\ displaystyle \ mathbf {H} (\ mathbf {x}) \ mathbf {v} = {\ frac {1} {r}} {\ Bigl [} \ nabla f (\ mathbf {x} + r \ mathbf {v}) - \ nabla f (\ mathbf {x}) {\ Bigr]} + {\ mathcal {O}} (r)}

, поэтому, если градиент уже вычислен, приблизительный гессиан может быть вычислен линейным (в размер градиента) количество скалярных операций. (Хотя эта схема аппроксимации проста в программировании, она не является численно стабильной, так как r необходимо сделать маленьким, чтобы предотвратить ошибку из-за O (r) {\ displaystyle {\ mathcal {O}} (r)}{\ displaystyle {\ mathcal {O}} (r)} , но при его уменьшении теряется точность в первом члене.)

Другие приложения

Матрица Гессе обычно используется для выражения операторов обработки изображений в обработке изображений и компьютерное зрение (см. детектор капель по Гауссу (LoG), детерминант гессианского (DoH) детектора капель и масштабное пространство ).

Обобщения

Гессен с краями

A Гессен с краями используется для теста второй производной в некоторых задачах оптимизации с ограничениями. Учитывая функцию f, рассмотренную ранее, но добавив функцию ограничения g такую, что g (x ) = c, гессиан с границей является гессианом функции Лагранжа Λ (x, λ) знак равно е (Икс) + λ [g (x) - c] {\ displaystyle \ Lambda (\ mathbf {x}, \ lambda) = f (\ mathbf {x}) + \ lambda [g (\ mathbf {x}) -c]}{\ displaystyle \ Lambda (\ mathbf {x}, \ lambda) = f (\ mathbf {x}) + \ lambda [g (\ mathbf {x}) -c]} :

H (Λ) = [∂ 2 Λ ∂ λ 2 ∂ 2 Λ ∂ λ ∂ x (∂ 2 Λ ∂ λ ∂ x) T ∂ 2 Λ ∂ x 2] = [0 ∂ g ∂ x 1 ∂ g ∂ x 2 ⋯ ∂ g ∂ xn ∂ g ∂ x 1 ∂ 2 Λ ∂ x 1 2 ∂ 2 Λ ∂ x 1 ∂ x 2 ⋯ ∂ 2 Λ ∂ x 1 ∂ xn ∂ g ∂ x 2 ∂ 2 Λ ∂ x 2 ∂ x 1 ∂ 2 Λ ∂ x 2 2 ⋯ ∂ 2 Λ ∂ x 2 ∂ xn ⋮ ⋮ ⋱ ⋮ ∂ g ∂ xn ∂ 2 Λ ∂ xn ∂ x 1 ∂ 2 Λ ∂ xn ∂ x 2 ⋯ ∂ 2 Λ ∂ xn 2] знак равно [0 ∂ g ∂ x (∂ g ∂ x) T ∂ 2 Λ ∂ x 2] {\ displaystyle \ mathbf {H} (\ Lambda) = {\ begin {bmatrix} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ lambda ^ {2}}} и {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ lambda \ partial \ mathbf {x}}} \\\ left ({\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ lambda \ partial \ mathbf {x}}} \ right) ^ {\ mathsf {T}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ m athbf {x} ^ {2}}} \ end {bmatrix}} = {\ begin {bmatrix} 0 {\ dfrac {\ partial g} {\ partial x_ {1}}} {\ dfrac {\ partial g} {\ partial x_ {2}}} \ cdots {\ dfrac {\ partial g} {\ partial x_ {n}}} \\ [2.2ex] {\ dfrac {\ partial g} {\ partial x_ {1 }}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {1} ^ {2}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {1 } \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {1} \, \ partial x_ {n}}} \\ [2.2ex ] {\ dfrac {\ partial g} {\ partial x_ {2}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} ^ {2}}} \ cdots {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} \, \ partial x_ {n}}} \\ [2.2ex] \ vdots \ vdots \ vdots \ ddots \ vdots \\ [2.2ex] {\ dfrac {\ partial g} {\ partial x_ {n }}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {n} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ частичный x_ {n} \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {n} ^ {2}}} \ end {bmatrix} } = {\ begin {bmatrix} 0 {\ dfrac {\ partial g} {\ partial \ mathbf {x}}} \\\ left ({\ dfrac {\ partial g} {\ partial \ mathbf {x}}} \ right) ^ {\ mathsf {T}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ mathbf {x} ^ {2}}} \ end {bmatrix}}}{\ displaystyle \ mathbf {H} (\ Lambda) = {\ begin {bmatrix} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ lambda ^ {2}}} {\ dfrac { \ partial ^ {2} \ Lambda} {\ partial \ lambda \ partial \ mathbf {x}}} \\\ left ({\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ lambda \ partial \ mathbf {x}}} \ right) ^ {\ mathsf {T}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ mathbf {x} ^ {2}}} \ end {bmatrix}} = {\ begin {bmatrix} 0 {\ dfrac {\ partial g} {\ partial x_ {1}}} {\ dfrac {\ partial g} {\ partial x_ {2}}} \ cdots {\ dfrac {\ partial g} {\ partial x_ {n}}} \\ [2.2ex] {\ dfrac {\ partial g} {\ partial x_ {1}}} и {\ dfrac {\ partial ^ {2} \ Lambda } {\ partial x_ {1} ^ {2}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {1} \, \ partial x_ {2}}} \ cdots { \ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {1} \, \ partial x_ {n}}} \\ [2.2ex] {\ dfrac {\ partial g} {\ partial x_ {2} }} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} \, \ partial x_ {1}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} ^ {2}}} \ cdots { \ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {2} \, \ partial x_ {n}}} \\ [2.2ex] \ vdots \ vdots \ vdots \ ddots \ vdots \ \ [2.2ex] {\ dfrac {\ partial g} {\ partial x_ {n}}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {n} \, \ partial x_ {1 }}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial x_ {n} \, \ partial x_ {2}}} \ cdots {\ dfrac {\ partial ^ {2} \ Lambda } {\ partial x_ {n} ^ {2}}} \ end {bmatrix}} = {\ begin {bmatrix} 0 {\ dfrac {\ partial g} {\ partial \ mathbf {x}}} \\\ left ({\ dfrac {\ partial g} {\ partial \ mathbf {x}}} \ right) ^ {\ mathsf {T}} {\ dfrac {\ partial ^ {2} \ Lambda} {\ partial \ mathbf { x} ^ {2}}} \ end {bmatrix}}}

Если есть, скажем, m ограничений, то ноль в верхнем левом углу - это блок размером m × m нулей, и есть m граничных строк вверху и m граничных столбцов слева.

Приведенные выше правила, утверждающие, что экстремумы характеризуются (среди критических точек с неособым гессианом) положительно-определенным или отрицательно-определенным гессианом, здесь неприменимы, поскольку гессиан с границей не может быть ни отрицательно-определенным, ни положительным -определенный, как z TH z = 0 {\ displaystyle \ mathbf {z} ^ {\ mathsf {T}} \ mathbf {H} \ mathbf {z} = 0}{\ displaystyle \ mathbf {z} ^ {\ mathsf {T}} \ mathbf {H} \ mathbf {z} = 0} if z {\ displaystyle \ mathbf {z}}\ mathbf {z} - любой вектор, единственный ненулевой элемент которого является его первым.

Тест второй производной состоит из знаковых ограничений определителей некоторого набора n - m подматриц гессиана с краями. Интуитивно можно представить, что m ограничений сводят проблему к задаче с n - m свободными переменными. (Например, максимизация f (x 1,x2,x3) с учетом ограничения x 1+x2+x3= 1 может быть уменьшена до максимизации f (x 1,x2, 1 – x 1–x2) без ограничений.)

В частности, знаковые условия накладываются на последовательность ведущих основных миноров (определителей выровненных по левому верху подматриц) ограниченного гессиана, для которого первые 2m старших основных минора игнорируются, а наименьший минор состоит из из усеченных первых 2m + 1 строк и столбцов, следующая состоит из усеченных первых 2m + 2 строк и столбцов и т. д., причем последняя представляет собой весь гессен с краями; если 2m + 1 больше, чем n + m, то наименьший ведущий главный минор - это сам гессиан. Таким образом, необходимо рассмотреть n – m миноров, каждый из которых оценивается в определенной точке, рассматриваемой как кандидат на максимум или минимум. Достаточным условием для локального максимума является то, что эти миноры чередуются по знаку с наименьшим, имеющим знак (–1). Достаточным условием локального минимума является то, что все эти миноры имеют знак (–1). (В неограниченном случае m = 0 эти условия совпадают с условиями, при которых неограниченный гессиан должен быть отрицательно определенным или положительно определенным соответственно).

Функции с векторными значениями

Если f вместо этого является векторным полем f: ℝ → ℝ, т.е.

f (x) = (f 1 (x), е 2 (х),…, фм (х)), {\ displaystyle \ mathbf {f} (\ mathbf {x}) = {\ big (} f_ {1} (\ mathbf {x}), f_ {2 } (\ mathbf {x}), \ dots, f_ {m} (\ mathbf {x}) {\ big)},}{\ displaystyle \ mathbf {f} (\ mathbf {x}) = {\ big (} f_ { 1} (\ mathbf {x}), f_ {2} (\ mathbf {x}), \ dots, f_ {m} (\ mathbf {x}) {\ big)},}

то набор вторых частных производных не является матрицей × n, а скорее тензор третьего порядка. Это можно представить как массив из m матриц Гессе, по одной для каждого компонента f:

H (f) = (H (f 1), H (f 2),…, H (f m)). {\ displaystyle \ mathbf {H} (\ mathbf {f}) = {\ big (} \ mathbf {H} (f_ {1}), \ mathbf {H} (f_ {2}), \ dots, \ mathbf {H} (f_ {m}) {\ big)}.}{\ displaystyle \ mathbf {H} (\ mathbf {f}) = {\ big (} \ mathbf {H} (f_ {1}), \ mathbf {H} (f_ {2}), \ dots, \ mathbf {H} (f_ {m}) {\ big)}.}

Этот тензор вырождается в обычную матрицу Гессе при m = 1.

Обобщение на комплексный случай

В в контексте нескольких сложных переменных, гессиан может быть обобщен. Предположим, f: C n ⟶ C {\ displaystyle f \ двоеточие \ mathbb {C} ^ {n} \ longrightarrow \ mathbb {C}}{ \ displaystyle f \ двоеточие \ mathbb {C} ^ {n} \ longrightarrow \ mathbb {C}} , и мы пишем f (z 1,…, Zn) {\ displaystyle f \ left (z_ {1}, \ ldots, z_ {n} \ right)}{\ displaystyle е \ влево (z_ {1}, \ ldots, z_ {n} \ right)} . Затем можно обобщить гессиан на ∂ 2 f ∂ zi ∂ zj ¯ {\ displaystyle {\ frac {\ partial ^ {2} f} {\ partial z_ {i} \ partial {\ overline {z_ {j} }}}}}{\ displaystyle {\ frac {\ partial ^ {2} f} {\ partial z_ {i} \ partial {\ overline {z_ {j}}}}} . Обратите внимание, что если f {\ displaystyle f}f удовлетворяет n-мерным условиям Коши – Римана, то комплексная матрица Гессе тождественно равна нулю.

Обобщения на римановы многообразия

Пусть (M, g) {\ displaystyle (M, g)}(M, g) риманово многообразие и ∇ {\ displaystyle \ nabla}\ nabla его связь Леви-Чивита. Пусть f: M → R {\ displaystyle f: M \ to \ mathbb {R}}f: M \ to \ mathbb {R} - гладкая функция. Мы можем определить тензор Гессе

Гесса (f) ∈ Γ (T ∗ M ⊗ T ∗ M) {\ displaystyle \ displaystyle {\ t_dv {Hess}} (f) \ in \ Gamma (T ^ {*} M \ otimes T ^ {*} M)}\ displaystyle \ t_dv {Hess} (f) \ in \ Gamma (T ^ * M \ otimes T ^ * M) от Hess (f): = ∇ ∇ f = ∇ df {\ displaystyle {\ t_dv {Hess}} (f): = \ nabla \ nabla f = \ nabla df}\ t_dv {Hess} (f): = \ nabla \ nabla f = \ nabla df ,

где мы воспользовались преимуществом того, что первая ковариантная производная функции совпадает с ее обычной производной. Выбирая локальные координаты {xi} {\ displaystyle \ {x ^ {i} \}}\ {x ^ i \} , мы получаем локальное выражение для гессиана как

Hess (f) = ∇ i ∂ jfdxi ⊗ dxj знак равно (∂ 2 е ∂ xi ∂ xj - Γ ijk ∂ f ∂ xk) dxi ⊗ dxj {\ displaystyle {\ t_dv {Hess}} (f) = \ nabla _ {i} \, \ partial _ {j} f \ dx ^ {i} \! \ otimes \! dx ^ {j} = \ left ({\ frac {\ partial ^ {2} f} {\ partial x ^ {i} \ partial x ^ {j}}} - \ Gamma _ {ij} ^ {k} {\ frac {\ partial f} {\ partial x ^ {k}}} \ right) dx ^ {i} \ otimes dx ^ {j}}\ t_dv {Hess} (f) = \ nabla_i \, \ partial_j f \ dx ^ i \! \ Otimes \ ! dx ^ j = \ left (\ frac {\ partial ^ 2 f} {\ partial x ^ i \ partial x ^ j} - \ Gamma_ {ij} ^ k \ frac {\ partial f} {\ partial x ^ k} \ right) dx ^ i \ otimes dx ^ j

где Γ ijk {\ displaystyle \ Gamma _ {ij} ^ {k}}\ Gamma ^ k_ {ij} - символы Кристоффеля соединения. Другие эквивалентные формы для гессиана задаются следующим образом:

Hess (f) (X, Y) = ⟨∇ X grad f, Y⟩ {\ displaystyle {\ t_dv {Hess}} (f) (X, Y) = \ langle \ nabla _ {X} {\ t_dv {grad}} f, Y \ rangle}\ t_dv {Hess} (f) (X, Y) = \ langle \ nabla_X \ t_dv {grad} f, Y \ rangle и Hess (f) (X, Y) = X (Y f) - df (∇ XY) {\ displaystyle {\ t_dv {Hess}} (f) (X, Y) = X (Yf) -df (\ nabla _ {X} Y)}\ t_dv {Hess} (е) (X, Y) = X (Yf) -df (\ nabla_XY) .
См. также
Примечания
Дополнительная литература
  • Льюис, Дэвид В. (1991). Матричная теория. Сингапур: World Scientific. ISBN 978-981-02-0689-5.
  • Магнус, Ян Р.; Neudecker, Хайнц (1999). «Второй дифференциал». Матричное дифференциальное исчисление: с приложениями в статистике и эконометрике (пересмотренное издание). Нью-Йорк: Вили. С. 99–115. ISBN 0-471-98633-X.
Внешние ссылки
Последняя правка сделана 2021-05-23 10:41:59
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте