Диагонализуемая матрица

редактировать

матриц, похожих на диагональные матрицы

В линейной алгебре квадратная матрица A {\ displaystyle A}Aназывается диагонализуемым или исправным, если он похож на на диагональная матрица, т. е. если существует обратимая матрица P {\ displaystyle P}Pи диагональная матрица D {\ displaystyle D}D такой, что P - 1 AP = D {\ displaystyle P ^ {- 1} AP = D}{\displaystyle P^{-1}AP=D}, или эквивалентно A = PDP - 1 {\ displaystyle A = PDP ^ {- 1}}{\ displaystyle A = PDP ^ {- 1 }} . (Такие P, D {\ displaystyle P, D}{\displaystyle P,D}не уникальны.) Для конечного размерного векторного пространства V { \ displaystyle V}V , линейная карта T: V → V {\ displaystyle T: V \ to V}{\ displaystyle T: V \ to V} называется диагонализуемой если существует упорядоченный базис V {\ displaystyle V}V , состоящий из собственных векторов T {\ displaystyle T}T. Эти определения эквивалентны: если T {\ displaystyle T}Tимеет матричное представление A = PDP - 1 {\ displaystyle A = PDP ^ {- 1}}{\ displaystyle A = PDP ^ {- 1 }} , как указано выше, тогда векторы-столбцы P {\ displaystyle P}Pобразуют основу собственных векторов T {\ displaystyle T}T, а диагональные элементы из D {\ displaystyle D}D - соответствующие собственные значения T {\ displaystyle T}T; относительно этого базиса собственного вектора A {\ displaystyle A}Aпредставлен как D {\ displaystyle D}D . Диагонализация - это процесс поиска указанного выше P {\ displaystyle P}Pи D {\ displaystyle D}D .

Диагонализуемые матрицы и карты особенно удобны для вычислений, если известны их собственные значения и собственные векторы. Можно возвести диагональную матрицу D {\ displaystyle D}D в степень, просто возведя диагональные элементы в эту степень, а детерминант диагональной матрицы - это просто произведение всех диагональных входов; такие вычисления легко обобщаются на A = P D P - 1 {\ displaystyle A = PDP ^ {- 1}}{\ displaystyle A = PDP ^ {- 1 }} . Геометрически диагонализуемая матрица представляет собой неоднородное расширение (или анизотропное масштабирование) - она ​​масштабирует пространство, как и однородное расширение, но с другим множителем вдоль каждой оси собственного вектора, множителем, определяемым соответствующим собственным значением.

Квадратная матрица, не поддающаяся диагонализации, называется дефектной. Может случиться так, что матрица A {\ displaystyle A}Aс действительными записями имеет дефект по сравнению с действительными числами, что означает, что A = PDP - 1 {\ displaystyle A = PDP ^ {- 1}}{\ displaystyle A = PDP ^ {- 1 }} невозможно для любого обратимого P {\ displaystyle P}Pи диагонального D {\ displaystyle D}D с реальными записями, но это возможно со сложными записями, так что A {\ displaystyle A}Aможно диагонализовать по комплексным числам. Например, это имеет место для общей матрицы вращения .

. Многие результаты для диагонализуемых матриц справедливы только для алгебраически замкнутого поля (например, комплексные числа). В этом случае диагонализуемые матрицы являются плотными в пространстве всех матриц, что означает, что любая дефектная матрица может быть деформирована в диагонализуемую матрицу небольшим возмущением ; и теорема о нормальной форме Жордана утверждает, что любая матрица является однозначно суммой диагонализуемой матрицы и нильпотентной матрицы. В алгебраически замкнутом поле диагонализуемые матрицы эквивалентны полупростым матрицам.

Содержание
  • 1 Определение
  • 2 Характеризация
  • 3 Диагонализация
  • 4 Одновременная диагонализация
  • 5 Примеры
    • 5.1 Диагонализуемые матрицы
    • 5.2 Не диагонализуемые матрицы
    • 5.3 Как диагонализовать матрицу
  • 6 Применение к матричным функциям
    • 6.1 Специальное приложение
  • 7 Приложение квантовой механики
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки
  • 11 Внешние ссылки
Определение

Квадрат n × n {\ displaystyle n \ times n}n\times nматрица A {\ displaystyle A}Aнад полем F {\ displaystyle F}F называется диагонализуемым или исправна, если существует обратимая матрица P {\ displaystyle P}Pтакая, что P - 1 AP {\ displaystyle P ^ {- 1} AP}P^{{-1}}AP- диагональная матрица. Формально

A ∈ F n × n диагонализуемый ⟺ ∃ P, P - 1 ∈ F n × n: P - 1 AP диагональ {\ displaystyle A \ in F ^ {n \ times n} {\ text {diagonalizable} } \ iff \ exists \, P, P ^ {- 1} \ in F ^ {n \ times n}: \; P ^ {- 1} \! AP {\ text {diagonal}}}{\ displaystyle A \ in F ^ {n \ times n} {\ text {diagonalizable}} \ iff \ exists \, P, P ^ {- 1} \ in F ^ {n \ times n}: \; P ^ {- 1} \! AP {\ text {диагональ}}}

Характеристика

Фундаментальный факт о диагонализуемых отображениях и матрицах выражается следующим образом:

  • Матрица n × n {\ displaystyle n \ times n}n\times nA {\ displaystyle A}Aнад полем F {\ displaystyle F}F диагонализируется тогда и только тогда, когда сумма измерений собственных подпространств равно n {\ displaystyle n}n , что имеет место тогда и только тогда, когда существует базис из F n {\ displaystyle F ^ {n}}F^{n}, состоящий из собственных векторов A {\ displaystyle A}A. Если такой базис был найден, можно сформировать матрицу P {\ displaystyle P}P, имеющую эти базисные векторы в качестве столбцов, а P - 1 AP { \ displaystyle P ^ {- 1} \! AP}{\displaystyle P^{-1}\!AP}будет диагональной матрицей, диагональные элементы которой являются собственными значениями A {\ displaystyle A}A. Матрица P {\ displaystyle P}Pизвестна как модальная матрица для A {\ displaystyle A}A.
  • линейная карта T: V → V {\ displaystyle T: V \ to V}{\ displaystyle T: V \ to V} диагонализуем тогда и только тогда, когда сумма измерений его собственных подпространств равна dim ⁡ (V) {\ displaystyle \ operatorname {dim} (V)}{\ displaystyle \ operatorname {dim} (V)} , что имеет место тогда и только тогда, когда существует базис V {\ displaystyle V}V , состоящий из собственных векторов из T {\ displaystyle T}T. Что касается такой основы, T {\ displaystyle T}Tбудет представлен диагональной матрицей. Диагональные элементы этой матрицы являются собственными значениями T {\ displaystyle T}T.

Другая характеристика: матрицу или линейную карту можно диагонализовать по полю F {\ displaystyle F}F тогда и только тогда, когда его минимальный многочлен является продуктом различных линейных множителей над F {\ displaystyle F}F . (Иными словами, матрица диагонализуема тогда и только тогда, когда все ее элементарные делители линейны.)

Следующее достаточное (но не необходимое) условие часто бывает полезным.

  • Матрица n × n {\ displaystyle n \ times n}n\times nA {\ displaystyle A}Aдиагонализируется по полю F { \ displaystyle F}F , если он имеет n {\ displaystyle n}n различные собственные значения в F {\ displaystyle F}F , т. е. если его характеристический многочлен имеет n {\ displaystyle n}n отдельные корни в F {\ displaystyle F}F ; однако обратное может быть ложным. Рассмотрим
    [- 1 3 - 1 - 3 5 - 1 - 3 3 1], {\ displaystyle {\ begin {bmatrix} -1 3 -1 \\ - 3 5 -1 \\ - 3 3 1 \ end {bmatrix}},}\ begin {bmatrix} -1 3 -1 \\ -3 5 -1 \\ -3 3 1 \ end {bmatrix},

    , который имеет собственные значения 1, 2, 2 (не все разные) и диагонализуемый с диагональной формой (аналогично A {\ displaystyle A}A)

    [1 0 0 0 2 0 0 0 2] {\ displaystyle {\ begin {bmatrix} 1 0 0 \\ 0 2 0 \\ 0 0 2 \ end {bmatrix}}}\begin{bmatrix} 1 0 0 \\ 0 2 0 \\ 0 0 2 \end{bmatrix}

    и изменение базовой матрицы P {\ displaystyle P}P

    [1 1 - 1 1 1 0 1 0 3]. {\ Displaystyle {\ begin {bmatrix} 1 1 -1 \\ 1 1 0 \\ 1 0 3 \ end {bmatrix}}.}\ begin {bmatrix} 1 1 -1 \\ 1 1 0 \\ 1 0 3 \ end {bmatrix}.
    Обратное неверно когда A {\ displaystyle A}Aимеет собственное подпространство размерности больше 1. В этом примере собственное подпространство A {\ displaystyle A}Aсвязано с собственное значение 2 имеет размерность 2.
  • Линейное отображение T: V → V {\ displaystyle T: V \ to V}{\ displaystyle T: V \ to V} с n = dim ⁡ (V) {\ displaystyle n = \ operatorname {dim} (V)}{\ displaystyle n = \ operatorname {dim} (V)} можно диагонализовать, если он имеет n {\ displaystyle n}n различные собственные значения, т. е. если его chara Критический полином имеет n {\ displaystyle n}n различных корней в F {\ displaystyle F}F .

Пусть A {\ displaystyle A}Aбудет матрица над F {\ displaystyle F}F . Если A {\ displaystyle A}Aдиагонализуем, то любая его степень также возможна. И наоборот, если A {\ displaystyle A}Aобратимо, F {\ displaystyle F}F алгебраически замкнуто, а A n {\ displaystyle A ^ {n}}A ^ {n} можно диагонализовать для некоторого n {\ displaystyle n}n , которое не является целым числом, кратным характеристике F {\ displaystyle F}F , тогда A {\ displaystyle A}Aможно диагонализовать. Доказательство: если A n {\ displaystyle A ^ {n}}A ^ {n} диагонализуем, то A {\ displaystyle A}Aаннигилируется некоторым полиномом . (Xn - λ 1) ⋯ (Xn - λ К) {\ Displaystyle \ left (x ^ {n} - \ lambda _ {1} \ right) \ cdots \ left (x ^ {n} - \ lambda _ {k } \ right)}{\ displaystyle \ left (x ^ {n} - \ lambda _ {1 } \ right) \ cdots \ left (x ^ {n} - \ lambda _ {k} \ right)} , который не имеет кратного корня (поскольку λ j ≠ 0 {\ displaystyle \ lambda _ {j} \ neq 0}\lambda_j \ne 0) и делится на минимальный многочлен от A {\ displaystyle A}A.

По комплексным числам C {\ displaystyle \ mathbb {C}}\ mathbb {C} почти каждая матрица диагонализуема. Точнее: набор сложных матриц n × n {\ displaystyle n \ times n}n\times n, которые не диагонализируются по C {\ displaystyle \ mathbb {C}}\ mathbb {C} , рассматриваемое как подмножество из C n × n {\ displaystyle \ mathbb {C} ^ {n \ times n}}\ mathbb {C} ^ {n \ times n} , имеет меру Лебега ноль. Можно также сказать, что диагонализуемые матрицы образуют плотное подмножество относительно топологии Зарисского : недиагонализуемые матрицы лежат внутри исчезающего множества дискриминанта характеристического многочлена, который является гиперповерхностью . Из этого следует также плотность в обычной (сильной) топологии, задаваемой нормой . То же самое не относится к R {\ displaystyle \ mathbb {R}}\mathbb {R} .

Разложение Джордана – Шевалле выражает оператор как сумму его полупростой (т. Е. Диагонализуемой) части и ее нильпотентная часть. Следовательно, матрица диагонализуема тогда и только тогда, когда ее нильпотентная часть равна нулю. Другими словами, матрица диагонализуема, если каждый блок в ее жордановой форме не имеет нильпотентной части; то есть каждый "блок" представляет собой матрицу "одна за другой".

Диагонализация
Диагонализацию матрицы можно интерпретировать как поворот осей для выравнивания их с собственными векторами.

Если матрица A {\ displaystyle A}Aможно диагонализовать, то есть

P - 1 AP = (λ 1 0… 0 0 λ 2… 0 ⋮ ⋮ ⋱ ⋮ 0 0… λ n), {\ displaystyle P ^ {- 1} AP = {\ begin {pmatrix} \ lambda _ {1} 0 \ dots 0 \\ 0 \ lambda _ {2} \ dots 0 \\\ vdots \ vdots \ ddots \ vdots \\ 0 0 \ dots \ lambda _ {n} \ end {pmatrix}},}{\displaystyle P^{-1}AP={\begin{pmatrix}\lambda _{1}0\dots 0\\0\lambda _{2}\dots 0\\\vdots \vdots \ddots \vdots \\00\dots \lambda _{n}\end{pmatrix}},}

затем:

AP = P (λ 1 0… 0 0 λ 2… 0 ⋮ ⋮ ⋱ ⋮ 0 0… λ n). {\ displaystyle AP = P {\ begin {pmatrix} \ lambda _ {1} 0 \ dots 0 \\ 0 \ lambda _ {2} \ dots 0 \\\ vdots \ vdots \ ddots \ vdots \\ 0 0 \ dots \ lambda _ {n} \ end {pmatrix}}.}{\displaystyle AP=P{\begin{pmatrix}\lambda _{1}0\dots 0\\0\lambda _{2}\dots 0\\\vdots \vdots \ddots \vdots \\00\dots \lambda _{n}\end{pmatrix}}.}

Запись P {\ displaystyle P}Pкак блочная матрица своего столбца векторы α → я {\ displaystyle {\ vec {\ alpha}} _ {i}}\vec{\alpha}_{i}

P = (α → 1 α → 2 ⋯ α → n), {\ displaystyle P = {\ begin { pmatrix} {\ vec {\ alpha}} _ {1} {\ vec {\ alpha}} _ {2} \ cdots {\ vec {\ alpha}} _ {n} \ end {pmatrix}}, }{\displaystyle P={\begin{pmatrix}{\vec {\alpha }}_{1}{\vec {\alpha }}_{2}\cdots {\vec {\alpha }}_{n}\end{pmatrix}},}

вышеприведенное уравнение можно переписать как

A α → i = λ i α → i (i = 1, 2, ⋯, n). {\ displaystyle A {\ vec {\ alpha}} _ {i} = \ lambda _ {i} {\ vec {\ alpha}} _ {i} \ qquad (i = 1,2, \ cdots, n). }{\displaystyle A{\vec {\alpha }}_{i}=\lambda _{i}{\vec {\alpha }}_{i}\qquad (i=1,2,\cdots,n).}

Итак, векторы-столбцы P {\ displaystyle P}Pявляются правыми собственными векторами из A {\ displaystyle A}A, и соответствующий диагональный элемент - это соответствующее собственное значение . Обратимость P {\ displaystyle P}Pтакже предполагает, что собственные векторы линейно независимы и образуют основу F n {\ displaystyle F ^ {n} }{\displaystyle F^{n}}. Это необходимое и достаточное условие диагонализуемости и канонического подхода к диагонализации. векторы-строки из P - 1 {\ displaystyle P ^ {- 1}}P ^ {{- 1}} - это левые собственные векторы из A {\ displaystyle A}A.

Когда комплексная матрица A ∈ C n × n {\ displaystyle A \ in \ mathbb {C} ^ {n \ times n}}{\displaystyle A\in \mathbb {C} ^{n\times n}}является эрмитовой матрицей (или, в более общем смысле, нормальная матрица ), собственные векторы A {\ displaystyle A}Aмогут быть выбраны для формирования ортонормированного базиса C n {\ displaystyle \ mathbb {C} ^ {n}}\mathbb {C} ^{n}и P {\ displaystyle P}Pможно выбрать в качестве унитарная матрица. Если, кроме того, A ∈ R n × n {\ displaystyle A \ in \ mathbb {R} ^ {n \ times n}}{\ displaystyle A \ in \ mathbb {R} ^ {n \ times n}} является вещественной симметричной матрицей, тогда его собственные векторы могут быть выбраны в качестве ортонормированного базиса R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} и P {\ displaystyle P}Pможет быть выбрана как ортогональная матрица.

. Для большинства практических работ матрицы диагонализируются численно с использованием компьютерного программного обеспечения. Для этого существует множество алгоритмов.

Одновременная диагонализация

Набор матриц называется одновременно диагонализуемым, если существует одна обратимая матрица P {\ displaystyle P}Pтакая, что P - 1 AP {\ displaystyle P ^ {- 1} AP}P^{{-1}}AP- диагональная матрица для каждого A {\ displaystyle A}Aв наборе. Следующая теорема характеризует одновременно диагонализуемые матрицы: набор диагонализируемых матриц коммутирует тогда и только тогда, когда набор одновременно диагонализируется.

Набор всех n × n {\ displaystyle n \ times n}n\times nдиагонализуемые матрицы (более C {\ displaystyle \ mathbb {C}}\ mathbb {C} ) с n>1 {\ displaystyle n>1}n>1 нельзя диагонализовать одновременно. Например, матрицы

[1 0 0 0] и [1 1 0 0] {\ displaystyle {\ begin {bmatrix} 1 0 \\ 0 0 \ end {bmatrix}} \ quad {\ text {and}} \ quad {\ begin {bmatrix} 1 1 \\ 0 0 \ end {bmatrix}}}\ begin {bmatrix} 1 0 \\ 0 0 \ end {bmatrix} \ quad \ text {и} \ quad \ begin {bmatrix} 1 1 \\ 0 0 \ end {bmatrix}

диагонализуемы, но не одновременно диагонализуемы, потому что они не коммутируют.

Набор состоит из коммутирующих нормальных матриц тогда и только тогда, когда он одновременно диагонализуем с помощью унитарной матрицы ; то есть существует au нитарная матрица U {\ displaystyle U}Uтакая, что U ∗ AU {\ displaystyle U ^ {*} \! AU}{\ displaystyle U ^ {*} \! AU} диагональна для каждого A {\ displaystyle A}Aв наборе.

На языке теории Ли набор одновременно диагонализуемых матриц генерирует торальную алгебру Ли.

Примеры

Диагонализуемые матрицы

  • Инволюции диагонализуемы по действительным числам (и действительно по любому полю характеристики, кроме 2), с ± 1 по диагонали.
  • эндоморфизмы конечного порядка диагонализуемы по C {\ displaystyle \ mathbb {C}}\ mathbb {C} (или любое алгебраически замкнутое поле, где характеристика поля не делит порядок эндоморфизма) с корнями из единицы на диагонали. Это следует из того, что минимальный многочлен отделим, потому что корни единицы различны.
  • Проекции диагонализуемы, с нулями и единицами на диагонали.
  • Real симметричные матрицы диагонализируются с помощью ортогональных матриц ; т.е. если дана действительная симметричная матрица A {\ displaystyle A}A, QTAQ {\ displaystyle Q ^ {\ mathrm {T}} AQ}{\displaystyle Q^{ \mathrm {T} }AQ}диагональна для некоторой ортогональной матрицы Q {\ Displaystyle Q}Q . В более общем смысле, матрицы можно диагонализовать с помощью унитарных матриц тогда и только тогда, когда они нормальные. В случае реальной симметричной матрицы мы видим, что A = AT {\ displaystyle A = A ^ {\ mathrm {T}}}{\ displaystyle A = A ^ {\ mathrm {T}}} , поэтому ясно, что AAT = ATA {\ displaystyle AA ^ {\ mathrm {T}} = A ^ {\ mathrm {T}} A}{\displaystyle AA^{\mathrm {T} }=A^{\mathrm {T} }A}имеет место. Примерами нормальных матриц являются вещественные симметричные (или кососимметричные ) матрицы (например, ковариационные матрицы) и эрмитовы матрицы (или косоэрмитовы матрицы). См. спектральные теоремы для обобщения на бесконечномерные векторные пространства.

Матрицы, которые не диагонализируются

В общем, матрица вращения не диагонализируется по вещественным, но все матрицы вращения диагонализуемы по комплексному полю. Даже если матрица не диагонализуема, всегда можно «сделать все возможное» и найти матрицу с такими же свойствами, состоящую из собственных значений на ведущей диагонали и единиц или нулей на супердиагонали, известной как Нормальная форма Жордана.

Некоторые матрицы не диагонализуемы ни над каким полем, в первую очередь ненулевые нильпотентные матрицы. Это происходит в более общем случае, если алгебраическая и геометрическая кратности собственного значения не совпадают. Например, рассмотрим

C = [0 1 0 0]. {\ displaystyle C = {\ begin {bmatrix} 0 1 \\ 0 0 \ end {bmatrix}}.}C = \ begin {bmatrix} 0 1 \\ 0 0 \ end {bmatrix}.

Эта матрица не диагонализуема: нет матрицы U {\ displaystyle U}Uтакое, что U - 1 CU {\ displaystyle U ^ {- 1} CU}{\ displaystyle U ^ {- 1} CU} представляет собой диагональную матрицу. Действительно, C {\ displaystyle C}C имеет одно собственное значение (а именно ноль), и это собственное значение имеет алгебраическую кратность 2 и геометрическую кратность 1.

Некоторые вещественные матрицы не диагонализируются по реалы. Рассмотрим, например, матрицу

B = [0 1 - 1 0]. {\ displaystyle B = \ left [{\ begin {array} {rr} 0 1 \\\! - 1 0 \ end {array}} \ right].}{\displaystyle B=\left[{\begin{array}{rr}01\\\!-10\end{array}}\right].}

Матрица B {\ displaystyle B}B не имеет реальных собственных значений, поэтому не существует реальной матрицы Q {\ displaystyle Q}Q такой, что Q - 1 BQ {\ displaystyle Q ^ {- 1} BQ}{\displaystyle Q^{-1}BQ}- диагональная матрица. Однако мы можем диагонализовать B {\ displaystyle B}B , если разрешим использование комплексных чисел. Действительно, если мы возьмем

Q = [1 ii 1], {\ displaystyle Q = {\ begin {bmatrix} 1 {\ textrm {i}} \\ {\ textrm {i}} 1 \ end {bmatrix} },}Q = \begin{bmatrix} 1 \textrm{i} \\ \textrm{i} 1 \end{bmatrix},

, тогда Q - 1 BQ {\ displaystyle Q ^ {- 1} BQ}{\displaystyle Q^{-1}BQ}диагональный. Легко найти, что B - это матрица вращения, которая вращается против часовой стрелки на угол θ = 3 π 2 {\ displaystyle \ theta = {\ tfrac {3 \ pi} {2}}}{\displaystyle \theta ={\tfrac {3\pi }{2}}}

Обратите внимание, что приведенное выше Примеры показывают, что сумма диагонализуемых матриц не обязательно должна быть диагонализуемой.

Как диагонализовать матрицу

Диагонализация матрицы - это тот же процесс, что и поиск ее собственных значений и собственных векторов, в случае, когда собственные векторы образуют базис. Например, рассмотрим матрицу

A = [0 1 - 2 0 1 0 1 - 1 3]. {\ displaystyle A = \ left [{\ begin {array} {rrr} 0 1 \! \! \! - 2 \\ 0 1 0 \\ 1 \! \! \! - 1 3 \ end {array}} \ right]. }{\ displaystyle A = \ left [{\ begin {array} {rrr} 0 1 \! \! \ ! -2 \\ 0 1 0 \\ 1 \! \! \! - 1 3 \ end {array}} \ right].}

Корни характеристического полинома p (λ) = det (λ I - A) {\ displaystyle p (\ lambda) = \ det (\ lambda IA)}{\ displaystyle p (\ lambda) = \ det (\ лямбда IA)} - собственные значения λ 1 = 1, λ 2 = 1, λ 3 = 2 {\ displaystyle \ lambda _ {1} = 1, \ lambda _ {2} = 1, \ lambda _ {3 } = 2}{\ displaystyle \ lambda _ {1} Знак равно 1, \ лямбда _ {2} = 1, \ лямбда _ {3} = 2} . Решение линейной системы (I - A) (v) = 0 {\ displaystyle (IA) (\ mathbf {v}) = 0}{\ displaystyle (IA) (\ mathbf {v}) = 0} дает собственные векторы v 1 = (1, 1, 0) {\ displaystyle \ mathbf {v} _ {1} = (1,1,0)}{\ displaystyle \ mathbf {v} _ {1} = (1,1,0)} и v 2 = (0, 2, 1) {\ displaystyle \ mathbf {v} _ {2} = (0,2,1)}{\displaystyle \mathbf {v} _{2}=(0,2,1)}, а (2 I - A) (v) = 0 {\ displaystyle (2I-A) (\ mathbf {v}) = 0}{\ displaystyle (2I-A) (\ mathbf {v}) = 0} дает v 3 = (1, 0, - 1) {\ displaystyle \ mathbf {v} _ {3} = (1,0, -1)}{\displaystyle \mathbf {v} _{3}=(1,0,-1)}; то есть A (vi) = λ ivi {\ displaystyle A (\ mathbf {v} _ {i}) = \ lambda _ {i} \ mathbf {v} _ {i}}{\displaystyle A(\mathbf {v} _{i})=\lambda _{i}\mathbf {v} _{i}}для i = 1, 2, 3 {\ displaystyle i = 1,2,3}i=1,2,3. Эти векторы образуют основу V = R 3 {\ displaystyle V = \ mathbb {R} ^ {3}}{\ displaystyle V = \ mathbb {R} ^ {3}} , поэтому мы можем собрать их как векторы-столбцы изменения -of-base матрица P {\ displaystyle P}P, чтобы получить:

P - 1 AP = [1 0 1 1 2 0 0 1 - 1] - 1 [0 1 - 2 0 1 0 1 - 1 3] [1 0 1 1 2 0 0 1 - 1] = [1 0 0 0 1 0 0 0 2] = D. {\ displaystyle P ^ {- 1} \! AP \ = \ \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end { array}} \ right] ^ {- 1} \ left [{\ begin {array} {rrr} 0 1 \! \! \! - 2 \\ 0 1 0 \\ 1 \! \! \! - 1 3 \ end {массив }} \ right] \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] \ = \ { \ begin {bmatrix} 1 0 0 \\ 0 1 0 \\ 0 0 2 \ end {bmatrix}} \ = \ D.}{\ displaystyle P ^ {- 1} \! AP \ = \ \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] ^ {- 1} \ left [{\begin{array}{rrr}01\!\!\!-2\\010\\1\!\!\!-13\end{array}}\right]\left[{\begin{array }{rrr}1\,01\\120\\01\!\!\!\!-1\end{array}}\right]\ =\ {\begin{bmatrix}100\\010\\002\ end{bmatrix}}\ =\ D.}

Мы можем увидеть это уравнение в терминах преобразований: P {\ displaystyle P}Pпереводит стандартный базис на собственный базис, P (ei) = vi {\ displaystyle P (\ mathbf {e} _ {i}) = \ mathbf {v} _ {i}}{\ displaystyle P (\ mathbf {e} _ {i}) = \ mathbf {v} _ {i}} , поэтому мы имеем:

P - 1 AP (ei) = P - 1 A (vi) = P - 1 (λ ivi) = λ iei, {\ displaystyle P ^ {- 1} \! AP (\ mathbf {e} _ {i}) \ = \ P ^ {- 1} \! A (\ mathbf {v} _ {i}) \ = \ P ^ {- 1} \! (\ lambda _ {i} \ mathbf {v} _ {i}) \ = \ \ lambda _ {i} \ mathbf {e} _ {i},}{\displaystyle P^{-1}\!AP(\mathbf {e} _{i})\ =\ P^{-1}\!A(\mathbf {v} _{i})\ =\ P^{-1}\!(\lambda _{i}\mathbf {v} _{i})\ =\ \lambda _{i}\mathbf {e} _{i},}

так, чтобы P - 1 AP {\ displaystyle P ^ {- 1 } \! AP}{\displaystyle P^{-1}\!AP}имеет стандартный базис в качестве собственных векторов, который является определяющим свойством D {\ displaystyle D}D .

. Обратите внимание, что нет предпочтительного порядка собственные векторы в P {\ displaystyle P}P; изменение порядка собственных векторов в P {\ displaystyle P}Pпросто изменяет порядок собственных значений в диагонализованной форме A {\ displaystyle A}A.

Применение к матричным функциям

Диагонализация может использоваться для эффективного вычисления степеней матрицы A = PDP - 1 {\ displaystyle A = PDP ^ {- 1}}{\ displaystyle A = PDP ^ {- 1 }} :

A k = (PDP - 1) k = (PDP - 1) (PDP - 1) ⋯ (PDP - 1) = PD (P - 1 P) D (P - 1 P) ⋯ (P - 1 P) DP - 1 = PD k P - 1, {\ displaystyle {\ begin {align} A ^ {k} = \ left (PDP ^ {- 1} \ right) ^ {k} = \ left (PDP ^ { -1} \ right) \ left (PDP ^ {- 1} \ right) \ cdots \ left (PDP ^ {- 1} \ right) \\ = PD \ left (P ^ {- 1} P \ right) D \ left (P ^ {- 1} P \ right) \ cdots \ left (P ^ {- 1} P \ right) DP ^ {- 1} = PD ^ {k} P ^ {- 1}, \ end {align}}}{\ displaystyle {\ begin {align} A ^ { k} = \ left (PDP ^ {- 1} \ right) ^ {k} = \ left (PDP ^ {- 1} \ right) \ left (PDP ^ {- 1} \ right) \ cdots \ left ( PDP ^ {- 1} \ right) \\ = PD \ left (P ^ {- 1} P \ right) D \ left (P ^ {- 1} P \ right) \ cdots \ left (P ^ {- 1} P \ right) DP ^ {- 1} = PD ^ {k} P ^ {- 1}, \ end {align}}}

, а последнее легко вычислить, поскольку оно включает только степени диагональной матрицы. Например, для матрицы A {\ displaystyle A}Aс собственными значениями λ = 1, 1, 2 {\ displaystyle \ lambda = 1,1,2}{\ displaystyle \ lambda = 1,1,2} в приведенном выше примере мы вычисляем:

A k = PD k P - 1 = [1 0 1 1 2 0 0 1 - 1] [1 k 0 0 0 1 k 0 0 0 2 k] [1 0 1 1 2 0 0 1 - 1] - 1 = [2 - 2 k - 1 + 2 k 2 - 2 k + 1 0 1 0 - 1 + 2 k 1 - 2 k - 1 + 2 k + 1]. {\ displaystyle {\ begin {array} {rcl} A ^ {k} = PD ^ {k} P ^ {- 1} = \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] {\ begin {bmatrix} 1 ^ {k} 0 0 \\ 0 1 ^ {k} 0 \\ 0 0 2 ^ {k} \ end {bmatrix}} \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] ^ {- 1} \\ [1em] = {\ begin {bmatrix} 2-2 ^ {k} - 1 + 2 ^ {k} 2-2 ^ {k + 1} \\ 0 1 0 \\ - 1 + 2 ^ {k} 1-2 ^ {k} - 1 + 2 ^ {k + 1} \ end {bmatrix}}. \ end {array}}}{\ displaystyle {\ begin {array} {rcl} A ^ {k} = PD ^ {k} P ^ {- 1} = \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] {\ begin {bmatrix} 1 ^ {k} 0 0 \\ 0 1 ^ {k} 0 \ \ 0 0 2 ^ {k} \ end {bmatrix}} \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] ^ {- 1} \\ [1em] = {\ begin {bmatrix} 2-2 ^ {k} - 1 + 2 ^ {k} 2-2 ^ {k + 1} \\ 0 1 0 \\ - 1 + 2 ^ {k} 1-2 ^ {k} - 1 + 2 ^ {k + 1} \ end {bmatrix}}. \ End {array}}}

Этот подход можно обобщить на матрицу экспоненциальной и другие матричные функции, которые могут быть определены как степенные ряды. Например, определение exp ⁡ (A) = I + A + 1 2! А 2 + 1 3! A 3 + ⋯ {\ displaystyle \ exp (A) = I + A + {\ tfrac {1} {2!}} A ^ {2} + {\ tfrac {1} {3!}} A ^ {3} + \ cdots}{\ displaystyle \ exp (A) = I + A + {\ tfrac {1} {2!}} A ^ {2} + {\ tfrac {1} {3!}} A ^ {3} + \ cdots} , имеем:

exp ⁡ (A) = P exp ⁡ (D) P - 1 = [1 0 1 1 2 0 0 1 - 1] [e 1 0 0 0 e 1 0 0 0 e 2] [1 0 1 1 2 0 0 1 - 1] - 1 = [2 e - e 2 - e + e 2 2 e - 2 e 2 0 e 0 - e + e 2 e - е 2 - е + 2 е 2]. {\ displaystyle {\ begin {array} {rcl} \ exp (A) = P \, \ exp (D) \, P ^ {- 1} = \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] {\ begin {bmatrix} e ^ {1} 0 0 \\ 0 e ^ {1} 0 \\ 0 0 e ^ {2} \ end {bmatrix}} \ left [{\ begin {array} {rrr} 1 \, 0 1 \\ 1 2 0 \\ 0 1 \! \! \! \! - 1 \ end {array}} \ right] ^ {- 1} \\ [1em] = {\ begin {bmatrix} 2e-e ^ {2} - e + e ^ {2} 2e-2e ^ {2} \\ 0 e 0 \\ - e + e ^ {2} e-e ^ {2} - e + 2e ^ {2} \ end {bmatrix}}. \ end {array}}}{\displaystyle {\begin{array}{rcl}\exp(A)=P\,\exp(D)\,P^{-1}=\left[{\begin{array}{rrr}1\,01\\120\\01\!\!\!\!-1\end{array}}\right]{\begin{bmatrix}e^{1}00\\0e^{1}0\\00e^{2}\end{bmatrix}}\left[{\begin{array}{rrr}1\,01\\120\\01\!\!\!\!-1\end{array}}\right]^{-1}\\[1em]={\begin{bmatrix}2e-e^{2}-e+e^{2}2e-2e^{2}\\0e0\\-e+e^{2}e-e^{2}-e+2e^{2}\end{bmatrix}}.\end{array}}}

Это особенно полезно при поиске выражений закрытой формы для члены линейных рекурсивных последовательностей, таких как числа Фибоначчи.

Конкретное приложение

Например, рассмотрим следующую матрицу:

M = [ab - a 0 b ]. {\ displaystyle M = {\ begin {bmatrix} a b-a \\ 0 b \ end {bmatrix}}.}{\ displaystyle M = {\ begin {bmatrix} a b-a \\ 0 b \ end {bmatrix}}.}

Вычисление различных степеней M {\ displaystyle M}Mдает удивительный паттерн:

M 2 = [a 2 b 2 - a 2 0 b 2], M 3 = [a 3 b 3 - a 3 0 b 3], M 4 = [a 4 b 4 - a 4 0 b 4],… {\ displaystyle M ^ {2} = {\ begin {bmatrix} a ^ {2} b ^ {2} -a ^ {2} \\ 0 b ^ {2} \ end {bmatrix}}, \ quad M ^ {3} = {\ begin {bmatrix} a ^ {3} b ^ {3} -a ^ {3} \\ 0 b ^ {3} \ end {bmatrix}}, \ quad M ^ {4 } = {\ begin {bmatrix} a ^ {4} b ^ {4} -a ^ {4} \\ 0 b ^ {4} \ end {bmatrix}}, \ quad \ ldots}{\ displaystyle M ^ {2} = {\ begin {bmatrix} a ^ {2} b ^ {2} -a ^ {2} \\ 0 b ^ {2} \ end {bmatrix}}, \ quad M ^ {3} = {\ begin {bmatrix} a ^ {3} b ^ {3} -a ^ {3} \\ 0 b ^ {3} \ end {bmatrix}}, \ quad M ^ {4} = {\ begin {bmatrix} a ^ {4} b ^ {4} -a ^ {4} \\ 0 b ^ {4} \ end {bmatrix}}, \ quad \ ldots}

Вышеупомянутое явление может можно объяснить диагонализацией M {\ displaystyle M}M. Для этого нам понадобится базис R 2 {\ displaystyle \ mathbb {R} ^ {2}}\mathbb {R} ^{2}, состоящий из собственных векторов M {\ displaystyle M}M. Один из таких базисов собственных векторов задается выражением

u = [1 0] = e 1, v = [1 1] = e 1 + e 2, {\ displaystyle \ mathbf {u} = {\ begin {bmatrix} 1 \ \ 0 \ end {bmatrix}} = \ mathbf {e} _ {1}, \ quad \ mathbf {v} = {\ begin {bmatrix} 1 \\ 1 \ end {bmatrix}} = \ mathbf {e} _ {1} + \ mathbf {e} _ {2},}{\displaystyle \mathbf {u} ={\begin{bmatrix}1\\0\end{bmatrix}}=\mathbf {e} _{1},\quad \mathbf {v} ={\begin{bmatrix}1\\1\end{bmatrix}}=\mathbf {e} _{1}+\mathbf {e} _{2},}

, где eiобозначает стандартную основу R . Обратное изменение базиса дается формулой

e 1 = u, e 2 = v - u. {\ displaystyle \ mathbf {e} _ {1} = \ mathbf {u}, \ qquad \ mathbf {e} _ {2} = \ mathbf {v} - \ mathbf {u}.}{\displaystyle \mathbf {e} _{1}=\mathbf {u},\qquad \mathbf {e} _{2}=\mathbf {v} -\mathbf {u}.}

Простые вычисления показывают что

M u = au, M v = bv. {\ displaystyle M \ mathbf {u} = a \ mathbf {u}, \ qquad M \ mathbf {v} = b \ mathbf {v}.}{\ displaystyle M \ mathbf {u} = a \ mathbf {u}, \ qquad M \ mathbf {v} = b \ mathbf {v}.}

Таким образом, a и b - собственные значения, соответствующие u и v соответственно. В силу линейности умножения матриц, мы имеем, что

M n u = a n u, M n v = b n v. {\ Displaystyle M ^ {n} \ mathbf {u} = a ^ {n} \, \ mathbf {u}, \ qquad M ^ {n} \ mathbf {v} = b ^ {n} \, \ mathbf { v}.}{\displaystyle M^{n}\mathbf {u} =a^{n}\,\mathbf {u},\qquad M^{n}\mathbf {v} =b^{n}\,\mathbf {v}.}

Возвращаясь к стандартному базису, мы имеем

M ne 1 = M nu = ane 1, M ne 2 = M n (v - u) = bnv - anu = (bn - an) е 1 + бнэ 2. {\ displaystyle {\ begin {align} M ^ {n} \ mathbf {e} _ {1} = M ^ {n} \ mathbf {u} = a ^ {n} \ mathbf {e} _ {1}, \\ M ^ {n} \ mathbf {e} _ {2} = M ^ {n} \ left (\ mathbf {v} - \ mathbf {u} \ right) = b ^ {n} \ mathbf { v} -a ^ {n} \ mathbf {u} = \ left (b ^ {n} -a ^ {n} \ right) \ mathbf {e} _ {1} + b ^ {n} \ mathbf {e } _ {2}. \ End {align}}}{\ displaystyle {\ begin {align} M ^ {n} \ mathbf {e} _ {1} = M ^ {n} \ mathbf {u} = a ^ {n} \ mathbf {e} _ {1}, \\ M ^ {n} \ mathbf {e} _ {2} = M ^ {n} \ слева (\ mathbf {v} - \ mathbf {u} \ right) = b ^ {n} \ mathbf {v} -a ^ {n} \ mathbf {u} = \ left (b ^ {n} -a ^ {n} \ right) \ mathbf {e} _ {1} + b ^ {n} \ mathbf {е} _ {2}. \ конец {выровнено}}}

Предыдущие отношения, выраженные в матричной форме, следующие:

M n = [anbn - an 0 bn], {\ displaystyle M ^ {n} = { \ begin {bmatrix} a ^ {n} b ^ {n} -a ^ {n} \\ 0 b ^ {n} \ end {bmatrix}},}{\displaystyle M^{n}={\begin{bmatrix}a^{n}b^{n}-a^{n}\\0b^{n}\end{bmatrix}},}

, тем самым объясняя вышеупомянутый феномен.

Применение квантовой механики

В квантово-механических и квантово-химических вычислениях диагонализация матрицы является одним из наиболее часто применяемых численных процессов. Основная причина в том, что не зависящее от времени уравнение Шредингера является уравнением на собственные значения, хотя и в большинстве физических ситуаций в бесконечномерном пространстве (гильбертово пространство ).

Очень распространенное приближение - усечение гильбертова пространства до конечной размерности, после чего уравнение Шредингера может быть сформулировано как проблема собственных значений действительной симметричной или комплексной эрмитовой матрицы. Формально это приближение основано на вариационном принципе, справедливом для гамильтонианов, ограниченных снизу.

Теория возмущений первого порядка также приводит к матричной проблеме собственных значений для вырожденных состояний.

См. Также
Примечания
Ссылки
Внешние ссылки
Последняя правка сделана 2021-05-17 04:23:53
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте