Собственное разложение матрицы

редактировать

В линейной алгебре, собственное разложение или иногда спектральное разложение - это факторизация матрицы в каноническую форму, посредством чего матрица представлена ​​в терминах своих собственных значений и собственных векторов. Таким образом можно факторизовать только диагонализуемые матрицы.

Содержание
  • 1 Фундаментальная теория собственных векторов и собственных значений матриц
  • 2 Собственное разложение матрицы
    • 2.1 Пример
    • 2.2 Матрица, обратная разложением по собственным
      • 2.2.1 Практическое применение
  • 3 Функциональное исчисление
    • 3.1 Примеры
  • 4 Разложение для специальных матриц
    • 4.1 Нормальные матрицы
    • 4.2 Реальные симметричные матрицы
  • 5 Полезные факты
    • 5.1 Полезные факты о собственных значениях
    • 5.2 Полезные факты о собственных векторах
    • 5.3 Полезные факты о собственном разложении
    • 5.4 Полезные факты об обратной матрице
  • 6 Численные вычисления
    • 6.1 Численное вычисление собственных значений
    • 6.2 Численное вычисление собственных векторов
  • 7 Дополнительные темы
    • 7.1 Обобщенные собственные подпространства
    • 7.2 Сопряженный собственный вектор
    • 7.3 Обобщенная проблема собственных значений
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки
  • 11 Внешние ссылки
Фундаментальная теория собственных векторов и собственных значений матриц

(Ненулевой) вектор v размерности N является собственной функцией ctor квадратной матрицы N × N A, если он удовлетворяет линейному уравнению

A v = λ v {\ displaystyle \ mathbf {A} \ mathbf {v} = \ lambda \ mathbf {v}}{\displaystyle \mathbf {A} \mathbf {v} =\lambda \mathbf {v} }

, где λ - скаляр, называемый собственным значением, соответствующим v . То есть собственные векторы - это векторы, которые линейное преобразование A просто удлиняет или сжимает, и величина, на которую они удлиняются / сжимаются, является собственным значением. Вышеупомянутое уравнение называется уравнением собственных значений или проблемой собственных значений .

. Это дает уравнение для собственных значений

p (λ) = det (A - λ I) = 0. { \ displaystyle p \ left (\ lambda \ right) = \ det \ left (\ mathbf {A} - \ lambda \ mathbf {I} \ right) = 0.}{\displaystyle p\left(\lambda \right)=\det \left(\mathbf {A} -\lambda \mathbf {I} \right)=0.}

Мы называем p (λ) характеристический многочлен, и уравнение, называемое характеристическим уравнением, является полиномиальным уравнением N-го порядка от неизвестной λ. Это уравнение будет иметь N λ различных решений, где 1 ≤ N λ ≤ N. Набор решений, то есть собственные значения, называется спектром. из A.

Мы можем разложить на множители p как

p (λ) = (λ - λ 1) n 1 (λ - λ 2) n 2 ⋯ (λ - λ N λ) N N λ знак равно 0. {\ Displaystyle p \ left (\ lambda \ right) = \ left (\ lambda - \ lambda _ {1} \ right) ^ {n_ {1}} \ left (\ lambda - \ lambda _ {2} \ right) ^ {n_ {2}} \ cdots \ left (\ lambda - \ lambda _ {N _ {\ lambda}} \ right) ^ {n_ {N _ {\ lambda}}} = 0.}{\displaystyle p\left(\lambda \right)=\left(\lambda -\lambda _{1}\right)^{n_{1}}\left(\lambda -\lambda _{2}\right)^{n_{2}}\cdots \left(\lambda -\lambda _{N_{\lambda }}\right)^{n_{N_{\lambda }}}=0.}

Целое число n i называется алгебраической кратностью собственного значения λ i. Если поле скаляров алгебраически замкнуто, сумма алгебраических кратностей равна N:

∑ i = 1 N λ n i = N. {\ displaystyle \ sum \ limits _ {i = 1} ^ {N _ {\ lambda}} {n_ {i}} = N.}{\displaystyle \sum \limits _{i=1}^{N_{\lambda }}{n_{i}}=N.}

Для каждого собственного значения λ i у нас есть конкретное Уравнение на собственные значения

(A - λ я I) v = 0. {\ displaystyle \ left (\ mathbf {A} - \ lambda _ {i} \ mathbf {I} \ right) \ mathbf {v} = 0. }{\displaystyle \left(\mathbf {A} -\lambda _{i}\mathbf {I} \right)\mathbf {v} =0.}

Для каждого уравнения на собственные значения будет 1 ≤ ​​m i ≤ n iлинейно независимых решений. Линейные комбинации решений m i являются собственными векторами, связанными с собственным значением λ i. Целое число m i называется геометрической кратностью λ i. Важно помнить, что алгебраическая кратность n i и геометрическая кратность m i могут быть или не равны, но мы всегда имеем m i ≤ n i. Самым простым случаем является, конечно, когда m i = n i = 1. Общее количество линейно независимых собственных векторов, N v, может быть вычислено путем суммирования геометрических кратностей

∑ i = 1 N λ mi = N v. {\ displaystyle \ sum \ limits _ {i = 1} ^ {N _ {\ lambda}} {m_ {i}} = N _ {\ mathbf {v}}.}{\displaystyle \sum \limits _{i=1}^{N_{\lambda }}{m_{i}}=N_{\mathbf {v} }.}

Собственные векторы можно индексировать по собственным значениям, используя двойной индекс, где vijявляется j-м собственным вектором для i-го собственного значения. Собственные векторы также могут быть проиндексированы с использованием более простой записи единственного индекса vkс k = 1, 2,..., N v.

Собственное разложение матрицы

Пусть A - квадратная матрица размера n × n с n линейно независимыми собственными векторами q i (где i = 1,..., n). Тогда A можно разложить на множители как

A = Q Λ Q - 1 {\ displaystyle \ mathbf {A} = \ mathbf {Q} \ mathbf {\ Lambda} \ mathbf {Q} ^ {- 1}}\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

где Q - квадратная матрица размера n × n, i-й столбец которой является собственным вектором q i из A, и Λ - это диагональная матрица , диагональные элементы которой являются соответствующими собственными значениями, Λ ii = λ i. Обратите внимание, что только диагонализуемые матрицы могут быть факторизованы таким образом. Например, дефектная матрица [1 1 0 1] {\ displaystyle \ left [{\ begin {smallmatrix} 1 1 \\ 0 1 \ end {smallmatrix}} \ right]}{\displaystyle \left[{\begin{smallmatrix}11\\01\end{smallmatrix}}\right]}(который представляет собой матрицу сдвига ) не может быть диагонализован.

n собственных векторов q i обычно нормализованы, но это не обязательно. Ненормализованный набор из n собственных векторов v i также может использоваться в качестве столбцов Q . Это можно понять, отметив, что величина собственных векторов в Q аннулируется при разложении из-за наличия Q.

. Разложение можно вывести из фундаментального свойства собственных векторов:

A v = λ v AQ = Q Λ A = Q Λ Q - 1. {\ displaystyle {\ begin {align} \ mathbf {A} \ mathbf {v} = \ lambda \ mathbf {v} \\\ mathbf {A} \ mathbf {Q} = \ mathbf {Q} \ mathbf { \ Lambda} \\\ mathbf {A} = \ mathbf {Q} \ mathbf {\ Lambda} \ mathbf {Q} ^ {- 1}. \ End {align}}}{\displaystyle {\begin{aligned}\mathbf {A} \mathbf {v} =\lambda \mathbf {v} \\\mathbf {A} \mathbf {Q} =\mathbf {Q} \mathbf {\Lambda } \\\mathbf {A} =\mathbf {Q} \mathbf {\Lambda } \mathbf {Q} ^{-1}.\end{aligned}}}

Пример

Действительная матрица 2 × 2 A

A = [1 0 1 3] {\ displaystyle \ mathbf {A} = {\ begin {bmatrix} 1 0 \\ 1 3 \\\ end {bmatrix}}}\mathbf{A} = \begin{bmatrix} 1 0 \\ 1 3 \\ \end{bmatrix}

может разложить на диагональную матрицу путем умножения невырожденной матрицы B

B = [abcd] ∈ R 2 × 2. {\ displaystyle \ mathbf {B} = {\ begin {bmatrix} a b \\ c d \ end {bmatrix}} \ in \ mathbb {R} ^ {2 \ times 2}.}{\displaystyle \mathbf {B} ={\begin{bmatrix}ab\\cd\end{bmatrix}}\in \mathbb {R} ^{2\times 2}.}

Тогда

[abcd ] - 1 [1 0 1 3] [abcd] = [x 0 0 y], {\ displaystyle {\ begin {bmatrix} a b \\ c d \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} a b \\ c d \ end {bmatrix}} = {\ begin {bmatrix} x 0 \\ 0 y \ end {bmatrix}},}{\displaystyle {\begin{bmatrix}ab\\cd\end{bmatrix}}^{-1}{\begin{bmatrix}10\\13\end{bmatrix}}{\begin{bmatrix}ab\\cd\end{bmatrix}}={\begin{bmatrix}x0\\0y\end{bmatrix}},}

для некоторых вещественная диагональная матрица [x 0 0 y] {\ displaystyle \ left [{\ begin {smallmatrix} x 0 \\ 0 y \ end {smallmatrix}} \ right]}{\displaystyle \left[{\begin{smallmatrix}x0\\0y\end{smallmatrix}}\right]}.

Умножение обеих частей уравнения слева автор B:

[1 0 1 3] [abcd] = [abcd] [x 0 0 y]. {\ displaystyle {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} a b \\ c d \ end {bmatrix}} = {\ begin {bmatrix} a b \\ c d \ end {bmatrix }} {\ begin {bmatrix} x 0 \\ 0 y \ end {bmatrix}}.}{\displaystyle {\begin{bmatrix}10\\13\end{bm atrix}}{\begin{bmatrix}ab\\cd\end{bmatrix}}={\begin{bmatrix}ab\\cd\end{bmatrix}}{\begin{bmatrix}x0\\0y\end{bmatrix}}.}

Вышеупомянутое уравнение может быть разложено на два одновременных уравнения :

{[1 0 1 3] [ac] = [axcx] [1 0 1 3] [bd] = [bydy]. {\ displaystyle {\ begin {cases} {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} a \\ c \ end {bmatrix}} = {\ begin {bmatrix} ax \ \ cx \ end {bmatrix}} \\ {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} b \\ d \ end {bmatrix}} = {\ begin {bmatrix} by \\ dy \ end {bmatrix}} \ end {cases}}.}{\displaystyle {\begin{cases}{\begin{bmatrix}10\\13\end{bmatrix}}{\begin{bmatrix}a\\c\end{bmatrix}}={\begin{bmatrix}ax\\cx\end{bmatrix}}\\{\begin{bmatrix}10\\13\end{bmatrix}}{\begin{bmatrix}b\\d\end{bmatrix}}={\begin{bmatrix}by\\dy\end{bmatrix}}\end{cases}}.}

Выделение собственных значений x и y:

{[1 0 1 3] [ac] = x [ ac] [1 0 1 3] [bd] = y [bd] {\ displaystyle {\ begin {cases} {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} a \\ c \ end {bmatrix}} = x {\ begin {bmatrix} a \\ c \ end {bmatrix}} \\ {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} b \\ d \ end {bmatrix}} = y {\ begin {bmatrix} b \\ d \ end {bmatrix}} \ end {cases}}} \begin{cases} \begin{bmatrix} 1 0\\ 1 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = x\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 0\\ 1 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = y\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

Пусть

a → = [ac], b → = [bd], {\ displaystyle {\ overrightarrow {a}} = {\ begin {bmatrix} a \\ c \ end {bmatrix}}, \ quad {\ overrightarrow {b}} = {\ begin {bmatrix} b \\ d \ end {bmatrix}},}{\displaystyle {\overrightarrow {a}}={\begin{bmatrix}a\\c\end{bmatrix}},\quad {\overrightarrow {b}}={\begin{bmatrix}b\\d\end{bmatrix}},}

это дает нам два векторных уравнения:

{A a → = xa → A b → = yb → {\ displaystyle {\ begin {cases} A {\ overrightarrow {a}} = x {\ overrightarrow {a}} \\ A {\ overrighta rrow {b}} = y {\ overrightarrow {b}} \ end {cases}}}\begin{cases} A \overrightarrow{a} = x \overrightarrow{a} \\ A \overrightarrow{b} = y \overrightarrow{b} \end{cases}

И может быть представлено одним векторным уравнением, включающим два решения в качестве собственных значений:

A u = λ u {\ displaystyle \ mathbf {A} \ mathbf {u} = \ lambda \ mathbf {u}}\mathbf{A} \mathbf{u} = \lambda \mathbf{u}

где λ представляет два собственных значения x и y, а u представляет векторы a → и b →.

Сдвиг λ u влево и факторинг u out

(A - λ I) u = 0 {\ displaystyle (\ mathbf {A } - \ lambda \ mathbf {I}) \ mathbf {u} = \ mathbf {0}}{\displaystyle (\mathbf {A} -\lambda \mathbf {I})\mathbf {u} =\mathbf {0} }

Поскольку B неособое число, важно, чтобы u было ненулевой. Следовательно,

det (A - λ I) = 0 {\ displaystyle \ det (\ mathbf {A} - \ lambda \ mathbf {I}) = 0}{\displaystyle \det(\mathbf {A} -\lambda \mathbf {I})=0}

Таким образом,

(1 - λ) ( 3 - λ) = 0 {\ displaystyle (1- \ lambda) (3- \ lambda) = 0}{\displaystyle (1-\lambda)(3-\lambda)=0}

, что дает нам решения собственных значений матрицы A как λ = 1 или λ = 3, и результирующая диагональная матрица из собственного разложения A, таким образом, будет [1 0 0 3] {\ displaystyle \ left [{\ begin {smallmatrix} 1 0 \\ 0 3 \ end {smallmatrix }} \ right]}{\displaystyle \left[{\begin{smallmatrix}10\\03\end{smallmatrix}}\right]}.

Возвращение решений в указанные выше одновременные уравнения

{[1 0 1 3] [ac] = 1 [ac] [1 0 1 3] [bd] = 3 [bd] {\ displaystyle {\ begin {cases} {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} a \\ c \ end {bmatrix}} = 1 {\ begin {bmatrix} a \\ c \ end {bmatrix}} \\ {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} b \\ d \ end {bmatrix}} = 3 {\ begin {bmatrix } b \\ d \ end {bmatrix}} \ end {cases}}}\begin{cases} \begin{bmatrix} 1 0 \\ 1 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = 1\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 0\\ 1 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = 3\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

Решая уравнения, получаем

a = - 2 c и b = 0, c, d ∈ R. {\ displaystyle a = -2c \ quad {\ text {and}} \ quad b = 0, \ qquad c, d \ in \ mathbb {R}.}{\displaystyle a=-2c\quad {\text{and}}\quad b=0,\qquad c,d\in \mathbb {R}.}

Таким образом, матрица B требуется для собственного разложения A равно

B = [- 2 c 0 cd], c, d ∈ R, {\ displaystyle \ mathbf {B} = {\ begin {bmatrix} -2c 0 \\ c d \ end {bmatrix}}, \ qquad c, d \ in \ mathbb {R},}{\displaystyle \mathbf {B} ={\begin{bmatrix}-2c0\\cd\end{bmatrix}},\qquad c,d\in \mathbb {R},}

то есть:

[- 2 c 0 cd] - 1 [1 0 1 3] [- 2 c 0 cd] = [1 0 0 3], c, d ∈ R {\ displaystyle {\ begin {bmatrix} -2c 0 \\ c d \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} 1 0 \\ 1 3 \ end {bmatrix}} {\ begin {bmatrix} -2c 0 \\ c d \ end {bmatrix}} = {\ begin {bmatrix} 1 0 \\ 0 3 \ end {bmatrix}}, \ qquad c, d \ in \ mathbb {R}}{\displaystyle {\begin{bmatrix}-2c0\\cd\end{bmatrix}}^{-1}{\begin{bmatrix}10\\13\end{bmatrix}}{\begin{bmatrix}-2c0\\cd\end{bmatrix}}={\begin{bmatrix}10\\03\end{bmatrix}},\qquad c,d\in \mathbb {R} }

Матрица, обратная посредством собственного разложения

Если матрица A может быть разложена по собственным значениям, и если ни одно из ее собственных значений не равно нулю, то A равно неособое число, а его обратное значение -

A - 1 = Q Λ - 1 Q - 1 {\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda } ^ {- 1} \ mathbf {Q} ^ {- 1}}{\displaystyle \mathbf {A} ^{-1}=\mathbf {Q} \mathbf {\Lambda } ^{-1}\mathbf {Q} ^{-1}}

Если A {\ displaystyle \ mathbf {A}}\mathbf {A} - симметричная матрица, sin ce Q {\ displaystyle \ mathbf {Q}}\mathbf {Q} формируется из собственных векторов A {\ displaystyle \ mathbf {A}}\mathbf {A} гарантированно ортогональная матрица, поэтому Q - 1 = QT {\ displaystyle \ mathbf {Q} ^ {- 1} = \ mathbf {Q} ^ {\ mathrm {T}}}{\displaystyle \mathbf {Q} ^{-1}=\mathbf {Q} ^{\mathrm {T} }}. Кроме того, поскольку Λ представляет собой диагональную матрицу , ее обратную матрицу легко вычислить:

[Λ - 1] ii = 1 λ i {\ displaystyle \ left [\ Lambda ^ {-1} \ right] _ {ii} = {\ frac {1} {\ lambda _ {i}}}}{\displaystyle \left[\Lambda ^{-1}\right]_{ii}={\frac {1}{\lambda _{i}}}}

Практическое значение

Когда собственное разложение используется на матрице измеренных, реальных data, инверсия может быть менее достоверной, если все собственные значения используются без изменений в форме выше. Это связано с тем, что по мере того, как собственные значения становятся относительно небольшими, их вклад в инверсию велик. Те, которые близки к нулю или находятся на уровне «шума» измерительной системы, будут иметь чрезмерное влияние и могут затруднить решения (обнаружение) с использованием обратного.

Было предложено два смягчения: усечение малых или нулевых собственных значений и распространение самого низкого надежного собственного значения на те, которые ниже него.

Первый метод смягчения подобен разреженной выборке исходной матрицы, удаляя компоненты, которые не считаются ценными. Однако, если процесс решения или обнаружения близок к уровню шума, усечение может удалить компоненты, которые влияют на желаемое решение.

Второе смягчение расширяет собственное значение, так что более низкие значения имеют гораздо меньшее влияние на инверсию, но все же вносят свой вклад, так что решения, близкие к шуму, все равно будут найдены.

Надежное собственное значение может быть найдено, если предположить, что очень похожие и низкие собственные значения являются хорошим представлением шума измерения (который считается низким для большинства систем).

Если собственные значения отсортированы по рангу по значению, то надежное собственное значение может быть найдено путем минимизации лапласиана отсортированных собственных значений:

min | ∇ 2 λ s | {\ displaystyle \ min \ left | \ nabla ^ {2} \ lambda _ {\ mathrm {s}} \ right |}{\displaystyle \min \left|\nabla ^{2}\lambda _{\mathrm {s} }\right|}

, где собственные значения помечены индексом s для обозначения сортировки. Положение минимизации - это самое низкое надежное собственное значение. В измерительных системах квадратный корень из этого надежного собственного значения представляет собой средний шум по компонентам системы.

Функциональное исчисление

Собственное разложение позволяет значительно упростить вычисление степенного ряда матриц. Если f (x) задано как

f (x) = a 0 + a 1 x + a 2 x 2 + ⋯ {\ displaystyle f (x) = a_ {0} + a_ {1} x + a_ { 2} x ^ {2} + \ cdots}{\displaystyle f(x)=a_{0}+a_{1}x+a_{2}x^{2}+\cdots }

тогда мы знаем, что

f (A) = Q f (Λ) Q - 1 {\ displaystyle f \ left (\ mathbf {A} \ right) = \ mathbf {Q} f \ left (\ mathbf {\ Lambda} \ right) \ mathbf {Q} ^ {- 1}}{\displaystyle f\left(\mathbf {A} \right)=\mathbf {Q} f\left(\mathbf {\Lambda } \right)\mathbf {Q} ^{-1}}

Потому что Λ является диагональной матрицей, функции от Λ очень легко вычислить:

[f (Λ)] ii = f (λ i) {\ displaystyle \ left [f \ left (\ mathbf {\ Lambda} \ right) \ right] _ {ii} = f \ left (\ lambda _ {i} \ right)}{\displaystyle \left[f\left(\mathbf {\Lambda } \right)\right]_{ii}=f\left(\lambda _{i}\right)}

Внедиагональные элементы f (Λ ) равны нулю; то есть f (Λ ) также является диагональной матрицей. Следовательно, вычисление f (A ) сводится к простому вычислению функции для каждого из собственных значений.

Подобная техника в более общем плане работает с голоморфным функциональным исчислением, используя

A - 1 = Q Λ - 1 Q - 1 {\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda} ^ {- 1} \ mathbf {Q} ^ {- 1}}{\displaystyle \mathbf {A} ^{-1}=\mathbf {Q} \mathbf {\Lambda } ^{-1}\mathbf {Q} ^{-1}}

из выше. И снова мы находим, что

[е (Λ)] ii = f (λ i) {\ displaystyle \ left [f \ left (\ mathbf {\ Lambda} \ right) \ right] _ {ii} = f \ left (\ lambda _ {i} \ right)}{\displaystyle \left[f\left(\mathbf {\Lambda } \right)\right]_{ii}=f\left(\lambda _{i}\right)}

Примеры

A 2 = (Q Λ Q - 1) (Q Λ Q - 1) = Q Λ (Q - 1 Q) Λ Q - 1 Знак равно Q Λ 2 Q - 1 A N знак равно Q Λ N Q - 1 ехр ⁡ A = Q Λ (Λ) Q - 1 {\ displaystyle {\ begin {align} \ mathbf {A} ^ {2} = \ left (\ mathbf {Q} \ mathbf {\ Lambda} \ mathbf {Q} ^ {- 1} \ right) \ left (\ mathbf {Q} \ mathbf {\ Lambda} \ mathbf {Q} ^ {- 1} \ right) = \ mathbf {Q} \ mathbf {\ Lambda} \ left (\ mathbf {Q} ^ {- 1} \ mathbf {Q} \ right) \ mathbf {\ Lambda} \ mathbf {Q} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda} ^ {2} \ mathbf {Q} ^ {- 1} \\\ mathbf {A} ^ {n} = \ mathbf {Q} \ mathbf {\ Лямбда} ^ {n} \ mathbf {Q} ^ {- 1} \\\ exp {\ mathbf {A}} = \ mathbf {Q} \ exp {(\ mathbf {\ Lambda})} \ mathbf {Q } ^ {- 1} \ end {align}}}{\displaystyle {\begin{aligned}\mathbf {A} ^{2}=\left(\mathbf {Q} \mathbf {\Lambda } \mathbf {Q} ^{-1}\right)\left(\mathbf {Q} \mathbf {\Lambda } \mathbf {Q} ^{-1}\right)=\mathbf {Q} \mathbf {\Lambda } \left(\mathbf {Q} ^{-1}\mathbf {Q} \right)\mathbf {\Lambda } \mathbf {Q} ^{-1}=\mathbf {Q} \mathbf {\Lambda } ^{2}\mathbf {Q} ^{-1}\\\mathbf {A} ^{n}=\mathbf {Q} \mathbf {\Lambda } ^{n}\mathbf {Q} ^{-1}\\\exp {\mathbf {A} }=\mathbf {Q} \exp {(\mathbf {\Lambda })}\mathbf {Q} ^{-1}\end{aligned}}}

, которые являются примерами для функций f (x) = x 2, f (x) = xn, f (x) = exp ⁡ x {\ displaystyle f (x) = x ^ {2}, \; f (x) = x ^ {n}, \; f (x) = \ exp {x}}{\displaystyle f(x)=x^{2},\;f(x)=x^{n},\;f(x)=\exp {x}}. Кроме того, exp ⁡ A {\ displaystyle \ exp {\ mathbf {A}}}{\displaystyle \exp {\mathbf {A} }}- это экспоненциальная матрица.

Разложение для специальных матриц

Нормальные матрицы

Квадратная матрица с комплексным знаком A - это нормальный (то есть AA= AA*, где A - сопряженное транспонирование ) тогда и только тогда, когда его можно разложить как

A = U Λ U ∗ {\ displaystyle \ mathbf {A} = \ mathbf {U} \ mathbf {\ Lambda} \ mathbf {U} ^ {*}}{\displaystyle \mathbf {A} =\mathbf {U} \mathbf {\Lambda } \mathbf {U} ^{*}}

, где U - это унитарная матрица (то есть U= U) и Λ = diag (λ 1,..., λ n) представляет собой диагональную матрицу . Столбцы u1,…, unв U образуют ортонормированный базис и являются собственными векторами A с соответствующими собственными значениями λ 1,…, Λ n.

Если A ограничивается эрмитовой матрицей (A= A*), то Λ имеет только действительные значения. Если A ограничен унитарной матрицей, то Λ принимает все свои значения на комплексной единичной окружности, то есть | λ i | = 1.

Действительные симметричные матрицы

В качестве особого случая для каждой n × n вещественной симметричной матрицы собственные значения являются действительными, а собственные векторы могут быть выбраны действительными и ортонормированный. Таким образом, вещественная симметричная матрица A может быть разложена как

A = Q Λ QT {\ displaystyle \ mathbf {A} = \ mathbf {Q} \ mathbf {\ Lambda} \ mathbf {Q} ^ {\ mathsf {T}}}{\displaystyle \mathbf {A} =\mathbf {Q} \mathbf {\La mbda } \mathbf {Q} ^{\mathsf {T}}}

где Q - это ортогональная матрица, столбцы которой являются собственными векторами A, а Λ - диагональная матрица, элементы которой являются собственными значениями A.

Полезные факты

Полезные факты, касающиеся собственных значений

  • Произведение собственных значений равно определителю A
    det (A) знак равно ∏ я знак равно 1 N λ λ ini {\ displaystyle \ det \ left (\ mathbf {A} \ right) = \ prod \ limits _ {i = 1} ^ {N _ {\ lambda}} {\ lambda _ {i} ^ {n_ {i}}}}{\displaystyle \det \left(\mathbf {A} \right)=\prod \limits _{i=1}^{N_{\lambda }}{\lambda _{i}^{n_{i}}}}
    Обратите внимание, что каждое собственное значение возводится в степень n i, алгебраическая кратность.
  • Сумма собственных значений равна к следу из A
    тр ⁡ (A) = ∑ я = 1 N λ ni λ я {\ displaystyle \ operatorname {tr} \ left (\ mathbf {A} \ right) = \ sum \ limits _ {i = 1} ^ {N _ {\ lambda}} {{n_ {i}} \ lambda _ {i}}}{\displaystyle \operatorname {tr} \left(\mathbf {A} \right)=\sum \limits _{i=1}^{N_{\lambda }}{{n_{i}}\lambda _{i}}}
    Обратите внимание, что каждое собственное значение умножается на n i, алгебраическая кратность.
  • Если собственные значения A равны λ i, а A обратимо, то собственные значения A - это просто λ. i.
  • Если собственные значения A равны λ i, то собственные значения f (A ) равны просто f ( λ i) для любой голоморфной функции f.

Полезные факты о собственных векторах

  • Если A является эрмитовым и полноранговым, базис собственных векторов могут быть выбраны взаимно ортогональными. Собственные значения действительны.
  • Собственные векторы A совпадают с собственными векторами A.
  • . Собственные векторы определены только с точностью до мультипликативной константы. То есть, если Av = λ v, то c v также является собственным вектором для любого скаляра c ≠ 0. В частности, - v и e v (для любого θ) также являются собственными векторами.
  • В случае вырожденных собственных значений (собственное значение встречается более одного раза) собственные векторы обладают дополнительной свободой вращения, т. е. означает сказать, что любая линейная (ортонормированная) комбинация собственных векторов, разделяющих собственное значение (в вырожденном подпространстве), сами являются собственными векторами (в подпространстве).

Полезные факты относительно собственного разложения

  • Aмогут быть разложены по собственным тогда и только тогда, когда количество линейно независимые собственные векторы, N v {\ displaystyle N _ {\ mathbf {v}}}{\displaystyle N_{\mathbf {v} }}, равны размерности собственного вектора: N v = N {\ displaystyle N _ {\ mathbf { v}} = N \,}{\displaystyle N_{\mathbf {v} }=N\,}
  • Если p (λ) не имеет повторяющихся корней, то есть если N λ = N, {\ displaystyle N _ {\ lambda} = N,}{\displaystyle N_{\lambda }=N,}, то A может быть разложен по собственным значениям.
  • Выражение «A может быть разложено по собственным значениям» не подразумевает, что имеет инверсию.
  • Утверждение «A имеет инверсию» не подразумевает, что A может быть разложен на собственные элементы. Контрпример: [1 1 0 1] {\ displaystyle \ left [{\ begin {smallmatrix} 1 1 \\ 0 1 \ end {smallmatrix}} \ right]}{\displaystyle \left[{\begin{smallmatrix}11\\01\end{smallmatrix}}\right]}, что является обратимым дефектная матрица.

Полезные сведения об обратной матрице

  • Aмогут быть инвертированы тогда и только тогда, когда
    λ i ≠ 0 ∀ i {\ displaystyle \ lambda _ {i} \ neq 0 \ quad \ forall \, i}{\displaystyle \lambda _{i}\neq 0\quad \forall \,i}
  • Если λ i ≠ 0 и N v= N, обратное значение дается как
    A - 1 = Q Λ - 1 Q - 1 {\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda} ^ {- 1} \ mathbf {Q} ^ {- 1}}{\displaystyle \mathbf {A} ^{-1}=\mathbf {Q} \mathbf {\Lambda } ^{-1}\mathbf {Q} ^{-1}}
Численные вычисления

Численные вычисления собственные значения

Предположим, что мы хотим вычислить собственные значения данной матрицы. Если матрица мала, мы можем вычислить их символически, используя характеристический полином . Однако это часто невозможно для больших матриц, и в этом случае мы должны использовать численный метод .

На практике собственные значения больших матриц не вычисляются с использованием характеристического полинома. Вычисление полинома само по себе становится дорогостоящим, а точные (символьные) корни полинома высокой степени может быть трудно вычислить и выразить: теорема Абеля – Руффини подразумевает, что корни высокой степени (5 или выше) полиномы не могут быть выражены просто с помощью корней n-й степени. Следовательно, общие алгоритмы поиска собственных векторов и собственных значений являются итеративными.

Существуют итерационные численные алгоритмы для аппроксимации корней многочленов, такие как метод Ньютона, но в целом нецелесообразно вычислять характеристический многочлен и затем примените эти методы. Одна из причин заключается в том, что небольшие ошибки округления в коэффициентах характеристического полинома могут привести к большим ошибкам в собственных значениях и собственных векторах: корни являются чрезвычайно плохо обусловленной функцией коэффициентов.

Простым и точным итерационным методом является степенной метод : выбирается случайный вектор v и последовательность единичные векторы вычисляются как

A v ‖ A v ‖, A 2 v ‖ A 2 v ‖, A 3 v ‖ A 3 v ‖,… {\ displaystyle {\ frac {\ mathbf {A} \ mathbf {v}} {\ left \ | \ mathbf {A} \ mathbf {v} \ right \ |}}, {\ frac {\ mathbf {A} ^ {2} \ mathbf {v}} {\ left \ | \ mathbf {A} ^ {2} \ mathbf {v} \ right \ |}}, {\ frac {\ mathbf {A} ^ {3} \ mathbf {v}} {\ left \ | \ mathbf {A } ^ {3} \ mathbf {v} \ right \ |}}, \ ldots}{\displaystyle {\frac {\mathbf {A} \mathbf {v} }{\left\|\mathbf {A} \mathbf {v} \right\|}},{\frac {\mathbf {A} ^{2}\mathbf {v} }{\left\|\mathbf {A} ^{2}\mathbf {v} \right\|}},{\frac {\mathbf {A} ^{3}\mathbf {v} }{\left\|\mathbf {A} ^{3}\mathbf {v} \right\|}},\ldots }

Эта последовательность будет почти всегда сходиться к собственному вектору, соответствующему собственному значению наибольшего величина при условии, что v имеет ненулевую компоненту этого собственного вектора в базисе собственных векторов (а также что существует только одно собственное значение наибольшей величины). Этот простой алгоритм полезен в некоторых практических приложениях; например, Google использует его для вычисления рейтинга страниц документов в своей поисковой системе. Кроме того, силовой метод является отправной точкой для многих более сложных алгоритмов. Например, сохраняя не только последний вектор в последовательности, но вместо этого глядя на span всех векторов в последовательности, можно получить лучшее (более быстрое сходящееся) приближение для собственного вектора, и это идея является основой итерации Арнольди. В качестве альтернативы, важный QR-алгоритм также основан на тонком преобразовании метода степеней.

Численное вычисление собственных векторов

После вычисления собственных значений собственные векторы могут быть вычисляется путем решения уравнения

(A - λ я I) vi, j = 0 {\ displaystyle \ left (\ mathbf {A} - \ lambda _ {i} \ mathbf {I} \ right) \ mathbf {v } _ {i, j} = 0}{\displaystyle \left(\mathbf {A} -\lambda _{i}\mathbf {I} \right)\mathbf {v} _{i,j}=0}

с использованием исключения Гаусса или любого другого метода для решения матричных уравнений.

Однако на практике крупномасштабные собственные значения методы, собственные векторы обычно вычисляются другими способами, как побочный продукт вычисления собственных значений. В итерации мощности, например, собственный вектор фактически вычисляется перед собственным значением (которое обычно вычисляется посредством отношения Рэлея собственного вектора). В QR-алгоритме для эрмитовой матрицы (или любой нормальной матрицы ) ортонормированные собственные векторы получаются как произведение матриц Q из шагов в алгоритм. (Для более общих матриц алгоритм QR сначала выдает разложение Шура, из которого собственные векторы могут быть получены с помощью процедуры обратной подстановки.) Для эрмитовых матриц Divide- Алгоритм собственных значений and-conquer более эффективен, чем алгоритм QR, если требуются как собственные векторы, так и собственные значения.

Дополнительные темы

Обобщенные собственные подпространства

Напомним, что геометрическая кратность собственного значения можно описать как размерность соответствующего собственного подпространства, нулевого пространства λ I− A. Алгебраическая множественность также может рассматриваться как измерение: это измерение связанного обобщенного собственного подпространства (1-е чувство), которое является нулевым пространством матрицы (λ I− A) для любого достаточно большого k. То есть это пространство обобщенных собственных векторов (в первом смысле), где обобщенный собственный вектор - это любой вектор, который в конечном итоге становится 0, если λ I− Aприменяется к нему достаточно раз подряд. Любой собственный вектор является обобщенным собственным вектором, поэтому каждое собственное подпространство содержится в соответствующем обобщенном собственном подпространстве. Это обеспечивает простое доказательство того, что геометрическая кратность всегда меньше или равна алгебраической кратности.

Это использование не следует путать с описанной ниже обобщенной проблемой собственных значений.

Сопряженный собственный вектор

A Сопряженный собственный вектор или конъюгированный вектор - это вектор, отправленный после преобразования в скалярное кратное его сопряженного, где скаляр называется сопряженным собственным значением или собственное значение линейного преобразования. Собственные векторы и собственные значения представляют по существу ту же информацию и значение, что и обычные собственные векторы и собственные значения, но возникают при использовании альтернативной системы координат. Соответствующее уравнение:

A v = λ v ∗. {\ displaystyle \ mathbf {A} \ mathbf {v} = \ lambda \ mathbf {v} ^ {*}.}{\displaystyle \mathbf {A} \mathbf {v} =\lambda \mathbf {v} ^{*}.}

Например, в теории когерентного электромагнитного рассеяния линейное преобразование A представляет действие, выполняемое рассеивающим объектом, а собственные векторы представляют состояния поляризации электромагнитной волны. В оптике система координат определяется с точки зрения волны, известной как выравнивание по прямому рассеянию (FSA), и приводит к регулярному уравнению собственных значений, тогда как в радаре, система координат определяется с точки зрения радара, известной как выравнивание обратного рассеяния (BSA), и приводит к уравнению для конусных значений.

Обобщенная задача на собственные значения

A Обобщенная проблема на собственные значения (во втором смысле) - это проблема поиска вектора v, который подчиняется

A v = λ B v {\ displaystyle \ mathbf {A} \ mathbf {v} = \ lambda \ mathbf {B} \ mathbf {v}}{\displaystyle \mathbf {A} \mathbf {v} =\lambda \mathbf {B} \ mathbf {v} }

где A и B - матрицы. Если v подчиняется этому уравнению с некоторым λ, то мы называем v обобщенным собственным вектором A и B (во втором смысле), а λ называется обобщенным собственным значением A и B (во втором смысле), которое соответствует обобщенному собственному вектору v . Возможные значения λ должны соответствовать следующему уравнению:

det (A - λ B) = 0. {\ displaystyle \ det (\ mathbf {A} - \ lambda \ mathbf {B}) = 0.}{\displaystyle \det(\mathbf {A} -\lambda \mathbf {B})=0.}

Если можно найти n линейно независимых векторов {v1,..., vn} таких, что для каждого i ∈ {1,..., n}, Avi= λ iBvi, то мы определяем матрицы P и D такие, что

P = (| | v 1 ⋯ vn | |) ≡ ((v 1) 1 ⋯ (vn) 1 ⋮ ⋮ (v 1) n ⋯ (vn) n) {\ displaystyle P = {\ begin {pmatrix} | | \\\ mathbf {v} _ {1} \ cdots \ mathbf {v} _ {n} \\ | | \ end {pmatrix}} \ Equiv {\ begin {pmatrix} (\ mathbf {v} _ {1}) _ {1} \ cdots (\ mathbf {v} _ {n}) _ {1} \\\ vdots \ vdots \\ (\ mathbf {v} _ {1}) _ {n} \ cdots (\ mathbf {v} _ {n}) _ {n} \ end {pmatrix}}}{\displaystyle P={\begin{pmatrix}||\\\mathbf {v} _{1}\cdots \mathbf {v} _{n}\\||\end{pmatrix}}\equiv {\begin{pmatrix}(\mathbf {v} _{1})_{1}\cdots (\mathbf {v} _{n})_{1}\\\vdots \vdots \\(\mathbf {v} _{1})_{n}\cdots (\mathbf {v} _{n})_{n}\end{pmatrix}}}
(D) ij = {λ i, если i = j 0, в противном случае {\ displaystyle (D) _ {ij} = {\ begin {cases} \ lambda _ {i}, {\ text {if} } i = j \\ 0, {\ text {else}} \ end {cases}}}{\displaystyle (D)_{ij}={\begin{cases}\lambda _{i},{\text{if }}i=j\\0,{\text{otherwise}}\end{cases}}}

Тогда выполняется следующее равенство

A = BPDP - 1 {\ displaystyle \ mathbf {A} = \ mathbf {B} \ mathbf {P} \ mathbf {D} \ mathbf {P} ^ {- 1}}{\displaystyle \mathbf {A} =\mathbf {B} \mathbf {P} \mathbf {D} \mathbf {P} ^{-1}}

И доказательство:

A P = A (| | v 1 ⋯ v n | |) Знак равно (| | A v 1 ⋯ A vn | |) = (| | λ 1 B v 1 ⋯ λ n B vn | |) = (| | B v 1 ⋯ B vn | |) D = BPD {\ Displaystyle \ mathbf {A} \ mathbf {P} = \ mathbf {A} {\ begin {pmatrix} | | \\\ mathbf {v} _ {1} \ cdots \ mathbf {v} _ {n} \ \ | | \ end {pmatrix}} = {\ begin {pmatrix} | | \\ A \ mathbf {v} _ {1} \ cdots A \ mathbf {v} _ {n} \\ | | \ end {pmatrix}} = {\ begin {pmatrix} | | \\\ lambda _ {1} B \ mathbf {v} _ {1} \ cdots \ lambda _ {n} B \ mathbf {v} _ {n} \\ | | \ end {pmatrix}} = {\ begin {pmatrix} | | \\ B \ mathbf {v} _ {1} \ cdots B \ mathbf {v} _ {n} \\ | | \ end {pmatrix}} \ mathbf {D} = \ mathbf {B} \ mathbf {P} \ mathbf {D}}{\displaystyle \mathbf {A} \mathbf {P} =\mathbf {A} {\begin{pmatrix}||\\\mathbf {v} _{1}\cdots \mathbf {v} _{n}\\||\end{pmatrix}}={\begin{pmatrix}||\\A\mathbf {v} _{1}\cdots A\mathbf {v} _{n}\\||\end{pmatrix}}={\begin{pmatrix}||\\\lambda _{1}B\mathbf {v} _{1}\cdots \lambda _{n}B\mathbf {v} _{n}\\||\end{pmatrix}}={\begin{pmatrix}||\\B\mathbf {v} _{1}\cdots B\mathbf {v} _{n}\\||\end{pmatrix}}\mathbf {D} =\mathbf {B} \mathbf {P} \mathbf {D} }

И поскольку P обратимо, мы умножаем уравнение справа обратным, завершая доказательство.

Набор матриц вида A - λ B, где λ - комплексное число, называется карандашом; термин матричный пучок может также относиться к паре (A, B) матриц.

Если B обратимо, то исходная задача может быть записана в форма

B - 1 A v = λ v {\ displaystyle \ mathbf {B} ^ {- 1} \ mathbf {A} \ mathbf {v} = \ lambda \ mathbf {v}}{\displaystyle \mathbf {B} ^{-1}\mathbf {A} \mathbf {v} =\lambda \mathbf {v} }

который является стандартная задача на собственные значения. Однако в большинстве ситуаций предпочтительнее не выполнять инверсию, а решать обобщенную проблему собственных значений, как было заявлено изначально. Это особенно важно, если A и B являются эрмитовыми матрицами, поскольку в этом случае BAв общем случае не является эрмитовым, и важные свойства решения больше не очевидный.

Если A и B одновременно симметричны или эрмитовы, и B также является положительно определенной матрицей, собственные значения λ i являются действительными, а собственные векторы v1и v2с различными собственными значениями являются B -ортогональными (v1Bv2= 0). В этом случае собственные векторы можно выбрать так, чтобы матрица P, определенная выше, удовлетворяла

P ∗ BP = I {\ displaystyle \ mathbf {P} ^ {*} \ mathbf {B} \ mathbf { P} = \ mathbf {I}}{\displaystyle \mathbf {P} ^{*}\mathbf {B} \mathbf {P} =\mathbf {I} }или PP ∗ B = I {\ displaystyle \ mathbf {P} \ mathbf {P} ^ {*} \ mathbf {B} = \ mathbf { I}}{\displaystyle \mathbf {P} \mathbf {P} ^{*}\mathbf {B} =\mathbf {I} },

и существует базис обобщенных собственных векторов (это не проблема дефектного ). Этот случай иногда называют эрмитовым определенным пучком или определенным пучком.

См. Также
Примечания
Ссылки
  • Франклин, Джоэл Н. (1968). Матричная теория. Dover Publications. ISBN 978-0-486-41179-8.
  • Golub, Gene H.; Ван Лоан, Чарльз Ф. (1996), Matrix Computations (3-е изд.), Балтимор: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
  • Хорн, Роджер А.; Джонсон, Чарльз Р. (1985). Матричный анализ. Издательство Кембриджского университета. ISBN 978-0-521-38632-6.
  • Хорн, Роджер А.; Джонсон, Чарльз Р. (1991). Темы матричного анализа. Издательство Кембриджского университета. ISBN 978-0-521-46713-1.
  • Крейсциг, Эрвин (1972), Высшая инженерная математика (3-е изд.), Нью-Йорк: Wiley, ISBN 978-0-471-50728-4
  • Неринг, Эвар Д. (1970), Линейная алгебра и теория матриц (2-е изд.), Нью-Йорк: Уайли, LCCN 76091646
  • Странг, Г. (1998). Introduction to Linear Algebra (3rd ed.). Wellesley-Cambridge Press. ISBN 978-0-9614088-5-5.
External links
Последняя правка сделана 2021-05-18 09:25:47
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте