Обратимая матрица

редактировать
матрица, которая имеет мультипликативную обратную

В линейной алгебре, n-by- n квадратная матрица Aназывается обратимой (также невырожденной или невырожденной ), если существует квадратная матрица размером n на n B такой, что

AB = BA = I n {\ displaystyle \ mathbf {AB} = \ mathbf {BA} = \ mathbf {I} _ {n} \}\ mathbf {AB} = \ mathbf {BA} = \ mathbf {I} _ {n} \

где Inобозначает единичная матрица n × n , и используемое умножение представляет собой обычное умножение матриц. Если это так, то матрица B однозначно определяется A и называется (мультипликативной) инверсией A, обозначается A.Инверсия матрицы - это процесс поиска матрицы B, которая удовлетворяет предыдущему уравнению для данной обратимой матрицы A.

Квадратная матрица, которая не является обратимой, называется единственное число или вырожденное . Квадратная матрица является сингулярной тогда и только тогда, когда ее определитель равен нулю. Сингулярные матрицы редки в том смысле, что если элементы квадратной матрицы выбираются случайным образом из любой конечной области числовой прямой или комплексной плоскости, вероятность того, что матрица является сингулярной, равна 0, то есть «почти никогда» быть в единственном числе. Неквадратные матрицы (матрицы размером m на n, для которых m ≠ n) не имеют обратного. Однако в некоторых случаях такая матрица может иметь левую инверсию или правую инверсию. Если A - это m-by-n и ранг для A равен n (n ≤ m), то A имеет левая обратная матрица B размером n на m такая, что BA= In. Если A имеет ранг m (m ≤ n), то у него есть правая обратная матрица B размером n на m, такая что AB= Im.

Хотя наиболее распространенным случаем является то, что матриц по действительным или комплексным числам, все эти определения могут быть даны для матриц по любому кольцу. Однако в случае, когда кольцо коммутативно, условием обратимости квадратной матрицы является то, что ее определитель обратим в кольце, что в общем случае является более строгим требованием, чем ненулевое значение. Для некоммутативного кольца обычный определитель не определен. Условия существования левообратных или правообратных более сложны, так как над кольцами не существует понятия ранга.

Набор обратимых матриц размера n × n вместе с операцией умножения матриц (и элементами из кольца R) образуют группу, общую линейную группу степени n, обозначенное GL n (R) {\ displaystyle GL_ {n} (R)}GL_ {n} (R) .

Содержание

  • 1 Свойства
    • 1.1 Теорема об обратимой матрице
    • 1.2 Другие свойства
    • 1.3 In отношение к его адъюгату
    • 1.4 По отношению к единичной матрице
    • 1.5 Плотность
  • 2 Примеры
  • 3 Методы обращения матрицы
    • 3.1 Исключение Гаусса
    • 3.2 Метод Ньютона
    • 3.3 Кэли– Метод Гамильтона
    • 3.4 Собственное разложение
    • 3.5 Разложение Холецкого
    • 3.6 Аналитическое решение
      • 3.6.1 Обращение матриц 2 × 2
      • 3.6.2 Обращение матриц 3 × 3
      • 3.6.3 Инверсия матриц 4 × 4
    • 3.7 Блочная инверсия
    • 3.8 По ряду Неймана
    • 3.9 p-адическая аппроксимация
    • 3.10 Метод обратных базисных векторов
  • 4 Производная матрицы, обратной
  • 5 Обобщенная обратная
  • 6 приложений
    • 6.1 Регрессия / минимум квадраты
    • 6.2 Инверсия матрицы при моделировании в реальном времени
    • 6.3 Инверсия матрицы при беспроводной связи MIMO
  • 7 См. также
  • 8 Ссылки
  • 9 Дополнительная литература
  • 10 Внешние ссылки

Свойства

Теорема об обратимой матрице

Пусть A будет квадратной матрицей n на n над полем K (например, поле R действительных чисел). Следующие утверждения эквивалентны (т. Е. Либо все они истинны, либо полностью ложны для любой заданной матрицы):

Aобратимо, то есть A имеет обратное, невырожденное или невырожденное.
Aэквивалентно строке единичной матрице n на n In.
Aравно столбцу единичной матрице n x n In.
Aимеет n положений поворота.
det A≠ 0. В общем, квадратная матрица над коммутативным кольцом обратима тогда и только тогда, когда ее определитель равен подразделение в этом кольце.
Aимеет полный ранг; то есть rank A= n.
Уравнение Ax= 0имеет только тривиальное решение x= 0.
ядро ​​ для A является тривиальным, то есть он содержит только нулевой вектор в качестве элемента ker (A ) = {0}.
Уравнение Ax= bимеет ровно одно решение для каждого b в K.
Столбцы A являются линейно независимыми.
Столбцы Aspan K.
Col ​​ A= K.
Столбцы из A образуют базис из K.
Отображение линейного преобразования x в Ax является bijection от K до K.
Существует матрица n × n B такая, что AB= In= BA.
transpose Aявляется обратимой матрицей (следовательно строки A являются линейно независимыми, охватывают K и образуют базис K).
Число 0 не является собственное значение из A.
Матрица A может быть выражена как конечное произведение элементарных матриц.
Матрица A имеет левую обратную (то есть, существует B такой, что BA= I) или правый инверсный (то есть существует C такой, что AC= I), и в этом случае существуют как левый, так и правый инверсии и B= C= A.

Другие свойства

Кроме того, следующие свойства выполняются для обратимой матрицы A:

  • (A) = A;
  • (kA) = k A для ненулевого скаляра k;
  • (Ax) = xAif A имеет ортонормированные столбцы, где обозначает обратное преобразование Мура – ​​Пенроуза, а x - вектор;
  • (A) = (A);
  • Для любого обратимого n-by- n матриц A и B, (AB ) = BA. В более общем смысле, если A1,..., Ak- обратимые матрицы размера n на n, то (A1A2⋅⋅⋅ Ak − 1 Ak) = A. kA. k − 1 ⋯A. 2A. 1;
  • det A = (det A).

Строки обратной матрицы V матрицы U ортонормированы столбцам из U (и наоборот, перестановка строк для столбцов). Чтобы увидеть это, предположим, что UV = VU = I, где строки V обозначены как vi T {\ displaystyle v_ {i} ^ {T}}{\ displaystyle v_ {i} ^ {T}} и столбцы U как uj {\ displaystyle u_ {j}}u_ {j} для 1 ≤ i, j ≤ n {\ displaystyle 1 \ leq i, j \ leq n}1 \ leq i, j \ leq n . Тогда очевидно, евклидово внутреннее произведение любых двух vi T uj = δ i, j {\ displaystyle v_ {i} ^ {T} u_ {j} = \ delta _ {i, j}}{\ displaystyle v_ {i} ^ {T} u_ {j} = \ delta _ {i, j} } . Это свойство также может быть полезно при построении обратная квадратная матрица в некоторых случаях, когда известен набор ортогональных векторов (но не обязательно ортонормированных векторов) столбцам U . В этом случае можно применить итеративная Обработка Грама-Шмидта к этому начальному набору для определения строк обратной V.

матрицы, которая является собственной обратной (т. Е. Матрица A такая, что A= Aи A= I), называется инволютивной матрицей.

по отношению к ее адъюгату

адъюгат матрицы A {\ displaystyle A}A можно использовать для поиска обратного значения A {\ displaystyle A}A следующим образом:

Если A {\ displaystyle A}A равно an n × n {\ displaystyle n \ times n}n \ times n обратимая матрица, затем

A - 1 = 1 det (A) adj ⁡ (A). {\ displaystyle A ^ {- 1} = {\ frac {1} {\ det (A)}} \ operatorname {adj} (A).}{\ displaystyle A ^ {- 1} = {\ frac {1} {\ det (A)}} \ OperatorName {adj} (A).}

По отношению к единичной матрице

It Из ассоциативности умножения матриц следует, что если

AB = I {\ displaystyle \ mathbf {AB} = \ mathbf {I} \}\ mathbf {AB} = \ mathbf {I} \

для конечных квадратных матриц A и B, затем также

BA = I {\ displaystyle \ mathbf {BA} = \ mathbf {I} \}\ mathbf {BA} = \ mathbf {I} \

Density

Над полем действительных чисел множество сингулярных n Матрицы -by-n, рассматриваемые как подмножество R, являются нулевым набором, то есть имеют Лебег нулевую меру. Это верно, потому что особые матрицы являются корнями функции детерминанта . Это непрерывная функция, потому что она является полиномом от элементов матрицы. Таким образом, на языке теории меры, почти все матрицы размера n на n обратимы.

Кроме того, обратимые матрицы n × n представляют собой плотный открытый набор в топологическом пространстве всех n × n матрицы. Эквивалентно, набор сингулярных матриц является закрытым и нигде не плотным в пространстве матриц размера n на n.

Однако на практике можно встретить необратимые матрицы. И в численных вычислениях, матрицы, которые являются обратимыми, но близкими к необратимым, все еще могут быть проблематичными; такие матрицы называются плохо обусловленными.

Примеры

Рассмотрим следующую матрицу 2 на 2:

A = (- 1 3 2 1 - 1). {\ displaystyle \ mathbf {A} = {\ begin {pmatrix} -1 {\ tfrac {3} {2}} \\ 1 -1 \ end {pmatrix}}.}{\ displaystyle \ mathbf {A} = {\ begin {pmatrix} -1 {\ tfrac {3} {2}} \\ 1 -1 \ end {pmatrix}}.}

Матрица A { \ displaystyle \ mathbf {A}}\ mathbf {A} обратимый. Чтобы проверить это, можно вычислить, что det A = - 1/2 {\ displaystyle \ det \ mathbf {A} = -1 / 2}{\ displaystyle \ det \ mathbf {A} = -1 / 2} , что не равно нулю.

В качестве примера необратимой или сингулярной матрицы рассмотрим матрицу

B = (- 1 3 2 2 3 - 1). {\ displaystyle \ mathbf {B} = {\ begin {pmatrix} -1 {\ tfrac {3} {2}} \\ {\ tfrac {2} {3}} - 1 \ end {pmatrix}}.}{\ displaystyle \ mathbf {B} = {\ begin {pmatrix} -1 {\ tfrac {3} {2}} \\ {\ tfrac {2} {3}} - 1 \ end {pmatrix}}.}

Определитель B {\ displaystyle \ mathbf {B}}\ mathbf {B} равен 0, что является необходимым и достаточным условием для необратимости матрицы.

Методы обращения матриц

Исключение Гаусса

Исключение Гаусса – Джордана - это алгоритм, который можно использовать для определения, является ли данная матрица обратимой и найти обратное. Альтернативой является разложение LU, которое генерирует верхнюю и нижнюю треугольные матрицы, которые легче инвертировать.

Метод Ньютона

Обобщение метода Ньютона, используемого для мультипликативного обратного алгоритма, может быть удобным, если удобно найти подходящий начальное семя:

X k + 1 = 2 X k - X k AX k. {\ displaystyle X_ {k + 1} = 2X_ {k} -X_ {k} AX_ {k}.}X_ {k + 1} = 2X_ {k} -X_ {k} AX_ {k}.

Виктор Пэн и Джон Рейф выполнили работу, которая включает способы создания Byte magazine резюмировал один из их подходов.

Метод Ньютона особенно полезен при работе с семейством связанных матриц, которые ведут себя достаточно похоже на последовательность, созданную для гомотопии выше: иногда хорошей отправной точкой для уточнения приближения для новой обратной матрицы может быть уже полученная обратная матрица предыдущей, которая почти совпадает с текущей матрицей, например пара последовательностей обратных матриц, использованных Денманом для получения квадратных корней матрицы Beavers iteration ; для этого может потребоваться более одного прохода итерации в каждой новой матрице, если они не достаточно близко друг к другу, чтобы хватило только одного. Метод Ньютона также полезен для «доработки» поправок к алгоритму Гаусса – Джордана, который был загрязнен небольшими ошибками из-за несовершенной компьютерной арифметики.

метода Кэли-Гамильтона

Кэли –Теорема Гамильтона позволяет выражать обратное к A {\ displaystyle A}A через det (A {\ displaystyle A}A ), следы и степени A {\ displaystyle A}A :

A - 1 = 1 det (A) ∑ s = 0 n - 1 A s ∑ k 1, k 2,…, kn - 1 ∏ l = 1 п - 1 (- 1) kl + 1 lklkl! тр ⁡ (A l) kl, {\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ sum _ {s = 0} ^ { n-1} \ mathbf {A} ^ {s} \ sum _ {k_ {1}, k_ {2}, \ ldots, k_ {n-1}} \ prod _ {l = 1} ^ {n-1 } {\ frac {(-1) ^ {k_ {l} +1}} {l ^ {k_ {l}} k_ {l}!}} \ operatorname {tr} (\ mathbf {A} ^ {l}) ^ {k_ {l}},}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})} } \ sum _ {s = 0} ^ {n-1} \ mathbf {A} ^ {s} \ sum _ {k_ {1}, k_ {2}, \ ldots, k_ {n-1}} \ prod _ {l = 1} ^ {n-1} {\ frac {(-1) ^ {k_ {l} +1}} {l ^ {k_ {l}} k_ {l} !}} \ operatorname {tr} (\ mathbf {A} ^ {l}) ^ {k_ {l}},}

где n {\ displaystyle n}n- размер A {\ displaystyle A}A , и tr ⁡ (A) {\ displaystyle \ operatorname {tr} (A)}{\ displaystyle \ operatorname {tr} (A)} - это след матрицы A {\ displaystyle A}A дано по сумме главной диагонали. Сумма берется по s {\ displaystyle s}s и наборам всех kl ≥ 0 {\ displaystyle k_ {l} \ geq 0}{\ displaystyle k_ {l} \ geq 0} , удовлетворяющих линейное Диофантово уравнение

s + ∑ l = 1 n - 1 lkl = n - 1. {\ displaystyle s + \ sum _ {l = 1} ^ {n-1} lk_ {l} = n-1.}{\ displaystyle s + \ sum _ { l = 1} ^ {n-1} lk_ {l} = n-1.}

Формулу можно переписать в терминах полных полиномов Белла аргументов tl = - (l - 1)! тр ⁡ (A l) {\ displaystyle t_ {l} = - (l-1)! \ operatorname {tr} (A ^ {l})}{\ displaystyle t_ {l} = - (l-1)! \ Operatorname {tr} (A ^ {l})} as

A - 1 = 1 det (A) ∑ s знак равно 1 n A s - 1 (- 1) n - 1 (n - s)! B n - s (t 1, t 2,…, t n - s). {\ Displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ sum _ {s = 1} ^ {n} \ mathbf {A} ^ {s-1} {\ frac {(-1) ^ {n-1}} {(ns)!}} B_ {ns} (t_ {1}, t_ {2}, \ ldots, t_ {ns}).}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ sum _ {s = 1} ^ {n} \ mathbf {A} ^ {s-1} {\ frac {(-1) ^ {n- 1}} {(ns)!}} B_ {ns} (t_ {1}, t_ {2}, \ ldots, t_ {ns}).}

Собственное разложение

Если матрица A может быть разложена по собственным значениям, и если ни одно из ее собственных значений не равно нулю, то A обратимо, и его обратное значение имеет вид

A - 1 = Q Λ - 1 Q - 1, {\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda} ^ {- 1} \ mathbf {Q} ^ {- 1},}{\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {Q} \ mathbf {\ Lambda} ^ {- 1} \ mathbf {Q} ^ {- 1},}

где Q {\ displaystyle \ mathbf {Q}}\ mathbf { Q} - квадратная (N × N) матрица, i-й столбец которой является собственным вектором qi {\ displaystyle q_ {i}}q_ {i } из A {\ displaystyle \ mathbf {A}}\ mathbf {A} и Λ {\ displaystyle \ mathbf {\ Lambda} }{\ displaystyle \ mathbf {\ Lambda}} - это диагональная матрица, диагональные элементы которой являются соответствующими собственными значениями, то есть Λ ii = λ i {\ displaystyle \ Lambda _ {ii} = \ lambda _ { i}}{\ displaystyle \ Lambda _ {ii} = \ lambda _ {i}} . Если A {\ displaystyle \ mathbf {A}}\ mathbf {A} симметрично, Q {\ displaystyle \ mathbf {Q}}\ mathbf { Q} гарантированно будет ортогональная матрица, следовательно, Q - 1 = QT {\ displaystyle \ mathbf {Q} ^ {- 1} = \ mathbf {Q} ^ {\ mathrm {T}}}{\ displaystyle \ mathbf {Q} ^ {- 1} = \ mathbf {Q} ^ {\ mathrm {T}}} . Кроме того, поскольку Λ {\ displaystyle \ mathbf {\ Lambda}}{\ displaystyle \ mathbf {\ Lambda}} является диагональной матрицей, ее обратную матрицу легко вычислить:

[Λ - 1] i i = 1 λ i. {\ displaystyle \ left [\ Lambda ^ {- 1} \ right] _ {ii} = {\ frac {1} {\ lambda _ {i}}}.}{\ displaystyle \ left [\ Lambda ^ {- 1} \ right] _ {ii} = {\ frac {1} {\ lambda _ {i}}}.}

Разложение Холецкого

Если матрица A является положительно определенной, тогда ее обратное значение может быть получено как

A - 1 = (L ∗) - 1 L - 1, {\ displaystyle \ mathbf {A} ^ {- 1} = (\ mathbf {L} ^ {*}) ^ {- 1} \ mathbf {L} ^ {- 1},}\ mathbf {A} ^ {- 1} = (\ mathbf {L} ^ {*}) ^ {- 1} \ mathbf {L} ^ {- 1},

где L - нижний треугольник Разложение Холецкого из A, а L * обозначает сопряженное транспонирование L.

Аналитического решения

Запись транспонирования матрицы сомножителей, известная как сопряженная матрица, также может быть эффективным способом вычисления обратного значения малых матриц, но этот рекурсивный метод неэффективен для больших матриц. Чтобы определить обратное, мы вычисляем матрицу сомножителей:

A - 1 = 1 | А | C T = 1 | А | (C 11 C 21 ⋯ C n 1 C 12 C 22 ⋯ C N 2 ⋮ ⋮ ⋱ ⋮ C 1 n C 2 n ⋯ C nn) {\ displaystyle \ mathbf {A} ^ {- 1} = {1 \ over { \ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ mathbf {C} ^ {\ mathrm {T}} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix }}} {\ begin {pmatrix} \ mathbf {C} _ {11} \ mathbf {C} _ {21} \ cdots \ mathbf {C} _ {n1} \\\ mathbf {C} _ { 12} \ mathbf {C} _ {22} \ cdots \ mathbf {C} _ {n2} \\\ vdots \ vdots \ ddots \ vdots \\\ mathbf {C} _ {1n} \ mathbf {C} _ {2n} \ cdots \ mathbf {C} _ {nn} \\\ end {pmatrix}}}\ mathbf {A} ^ {- 1} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ mathbf {C } ^ {\ mathrm {T}} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} {\ begin {pmatrix} \ mathbf {C} _ {11} \ mathbf {C} _ {21} \ cdots \ mathbf {C} _ {n1} \\\ mathbf {C} _ {12} \ mathbf {C} _ {22} \ cdots \ mathbf {C} _ {n2} \\\ vdots \ vdots \ ddots \ vdots \\\ mathbf {C} _ {1n} \ mathbf {C} _ {2n} \ cdots \ mathbf {C} _ {nn } \\\ end {pmatrix}}

так что

(A - 1) ij = 1 | А | (C T) i j = 1 | А | (С ji) {\ displaystyle \ left (\ mathbf {A} ^ {- 1} \ right) _ {ij} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ left (\ mathbf {C} ^ {\ mathrm {T}} \ right) _ {ij} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ left (\ mathbf {C} _ {ji} \ right)}\ left (\ mathbf {A} ^ {- 1} \ right) _ {ij} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ left (\ mathbf { C} ^ {\ mathrm {T}} \ right) _ {ij} = {1 \ over {\ begin {vmatrix} \ mathbf {A} \ end {vmatrix}}} \ left (\ mathbf {C} _ { ji} \ right)

где | A | - детерминант для A, C- это матрица кофакторов, а C представляет матрицу транспонирование.

Инверсия матриц 2 × 2

Перечисленное выше уравнение кофактора дает следующий результат для матриц 2 × 2. Инверсия этих матриц может быть произведена следующим образом:

A - 1 = [a b c d] - 1 = 1 det A [d - b - c a] = 1 a d - b c [d - b - c a]. {\ displaystyle \ mathbf {A} ^ {- 1} = {\ begin {bmatrix} a b \\ c d \\\ end {bmatrix}} ^ {- 1} = {\ frac {1} {\ det \ mathbf { A}}} {\ begin {bmatrix} \, \, \, d \! \! - b \\ - c \, a \\\ end {bmatrix}} = {\ frac {1} {ad-bc} } {\ begin {bmatrix} \, \, \, d \! \! - b \\ - c \, a \\\ end {bmatrix}}.}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ begin {bmatrix} a b \\ c d \\\ end {bmatrix}} ^ {- 1} = {\ frac {1} {\ det \ mathbf {A}}} {\ begin {bmatrix} \, \, \, d \! \! - b \\ - c \, a \\\ end {bmatrix}} = { \ frac {1} {ad-bc}} {\ begin {bmatrix} \, \, \, d \! \! - b \\ - c \, a \\\ end {bmatrix}}.}

Это возможно, потому что 1 / (ad - bc) является обратной величиной детерминанта рассматриваемой матрицы, и та же стратегия может быть использована для других размеров матрицы.

Метод Кэли – Гамильтона дает

A - 1 = 1 det A [(tr ⁡ A) I - A]. {\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det \ mathbf {A}}} \ left [\ left (\ operatorname {tr} \ mathbf {A} \ right) \ mathbf {I} - \ mathbf {A} \ right].}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det \ mathbf {A}}} \ left [\ left (\ operatorname {tr} \ mathbf {A} \ right) \ mathbf { I} - \ mathbf {A} \ right].}

Инверсия матриц 3 × 3

Вычислительно эффективная инверсия матриц 3 × 3 определяется как

A - 1 = [abcdefghi ] - 1 = 1 det (A) [ABCDEFGHI] T = 1 det (A) [ADGBEHCFI] {\ displaystyle \ mathbf {A} ^ {- 1} = {\ begin {bmatrix} a b c \\ d e f \\ g h i \ \\ end {bmatrix}} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} {\ begin {bmatrix} \, A \, B \, C \\\, D \, E \, F \\\, G \, H \, I \\\ end {bmatrix}} ^ {\ mathrm {T}} = {\ frac {1} {\ det (\ mathbf {A})}} {\ begin {bmatrix} \, A \, D \, G \\\, B \, E \, H \\\, C \, F \, I \\\ end {bmatrix}}}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ begin {bmatrix} a b c \\ d e f \\ g h i \\\ end {bmatrix}} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} {\ begin {bmatrix} \, A \, B \, C \\ \, D \, E \, F \\\, G \, H \, I \\\ end {bmatrix}} ^ {\ mathrm {T}} = {\ frac {1} {\ det (\ mathbf { A})}} {\ begin {bmatrix} \, A \, D \, G \\\, B \, E \, H \\\, C \, F \, I \\\ end {bmatrix}} }

(где скаляр A не следует путать с матрицей A ). Если определитель не равен нулю, матрица обратима, а элементы промежуточной матрицы в правой части выше заданы как

A = (ei - fh), D = - (bi - ch), G = ( bf - ce), B = - (di - fg), E = (ai - cg), H = - (af - cd), C = (dh - eg), F = - (ah - bg), I = (ае - бд). {\ displaystyle {\ begin {alignat} {6} A = {} (ei-fh), \ quad D = {} - (bi-ch), \ quad G = {} (bf-ce), \\ B = {} - (di-fg), \ quad E = {} (ai-cg), \ quad H = {} - (af-cd), \\ C = { } (dh-eg), \ quad F = {} - (ah-bg), \ quad I = {} (ae-bd). \\\ end {alignat}}}{\ displaystyle {\ begin {alignat} {6} A = {} (ei-fh), \ quad D = {} - (bi-ch), \ quad G = {} (bf-ce), \\ B = {} - (di-fg), \ quad E = {} (ai-cg), \ quad H = {} - (af-cd), \\ C = {} (dh-eg), \ quad F = {} - (ah-bg), \ quad I = {} (ae-bd). \\\ end {alignat}}}

Определитель A можно вычислить, применив правило Сарруса следующим образом:

det (A) = a A + b B + c C. {\ displaystyle \ det (\ mathbf {A}) = aA + bB + cC.}\ det (\ mathbf {A}) = aA + bB + cC.

Разложение Кэли – Гамильтона дает

A - 1 = 1 det (A) [1 2 ((tr ⁡ A) 2 - tr ⁡ A 2) I - A tr ⁡ A + A 2]. {\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ left [{\ frac {1} {2}} \ left ((\ имя оператора {tr} \ mathbf {A}) ^ {2} - \ operatorname {tr} \ mathbf {A} ^ {2} \ right) \ mathbf {I} - \ mathbf {A} \ имя оператора {tr} \ mathbf {A} + \ mathbf {A} ^ {2} \ right].}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A}) }} \ left [{\ frac {1} {2}} \ left ((\ operatorname {tr} \ mathbf {A}) ^ {2} - \ operatorname {tr} \ mathbf {A} ^ {2} \ справа) \ mathbf {I} - \ mathbf {A} \ operatorname {tr} \ mathbf {A} + \ mathbf {A} ^ {2} \ right].}

Общее обратное 3 × 3 можно кратко выразить в терминах перекрестного произведения и тройного произведения. Если матрица A = [x 0, x 1, x 2] {\ displaystyle \ mathbf {A} = \ left [\ mathbf {x} _ {0}, \; \ mathbf {x} _ {1 }, \; \ mathbf {x} _ {2} \ right]}{\ displaystyle \ mathbf {A} = \ left [\ mathbf {x} _ {0}, \; \ mathbf {x} _ {1}, \; \ mathbf {x} _ {2} \ right]} (состоящий из трех векторов-столбцов, x 0 {\ displaystyle \ mathbf {x} _ {0}}\ mathbf {x} _ {0} , Икс 1 {\ Displaystyle \ mathbf {x} _ {1}}\ mathbf {x} _ {1} и x 2 {\ displaystyle \ mathbf {x} _ {2}}\ mathbf {x} _ {2} ) обратимый, обратный ему задается как

A - 1 = 1 det (A) [(x 1 × x 2) T (x 2 × x 0) T (x 0 × x 1) T]. {\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} {\ begin {bmatrix} {(\ mathbf {x_ {1}} \ times \ mathbf {x_ {2}})} ^ {\ mathrm {T}} \\ {(\ mathbf {x_ {2}} \ times \ mathbf {x_ {0}})} ^ {\ mathrm {T}} \\ {(\ mathbf {x_ {0}} \ times \ mathbf {x_ {1}})} ^ {\ mathrm {T}} \ end {bmatrix}}.}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} {\ begin {bmatrix} {(\ mathbf {x_ {1}} \ times \ mathbf {x_ {2}})} ^ {\ mathrm {T}} \\ {(\ mathbf {x_ {2}} \ times \ mathbf {x_ {0}})} ^ {\ mathrm {T}} \\ {(\ mathbf {x_ {0}} \ times \ mathbf { x_ {1}})} ^ {\ mathrm {T}} \ end {bmatrix}}.}

Определитель A, det (A) {\ displaystyle \ det (\ mathbf {A})}{\ displaystyle \ det (\ mathbf {A})} , равно тройному произведению x 0 {\ displaystyle \ mathbf {x_ {0}}}\ mathbf {x_ {0}} , x 1 {\ displaystyle \ mathbf {x_ {1}}}\ mathbf {x_ {1}} и x 2 {\ displaystyle \ mathbf {x_ {2}}}\ mathbf {x_ {2}} - объем параллелепипеда , образованного строками или столбцами:

det (A) = x 0 ⋅ (x 1 × x 2). {\ displaystyle \ det (\ mathbf {A}) = \ mathbf {x} _ {0} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2}).}{\ displaystyle \ det (\ mathbf {A}) = \ mathbf {x} _ {0} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2}). }

Правильность формулы можно проверить, используя свойства перекрестного и тройного произведения, а также отметив, что для групп всегда совпадают левые и правые инверсии. Интуитивно, из-за перекрестных произведений каждая строка A - 1 {\ displaystyle \ mathbf {A} ^ {- 1}}\ mathbf {A} ^ {- 1} ортогональна двум несоответствующим столбцам A {\ displaystyle \ mathbf {A}}\ mathbf {A} (вызывая недиагональные члены I = A - 1 A {\ displaystyle \ mathbf {I} = \ mathbf {A} ^ {- 1} \ mathbf {A}}\ mathbf {I} = \ mathbf {A} ^ {- 1 } \ mathbf {A} быть нулем). Деление на

det (A) = x 0 ⋅ (x 1 × x 2) {\ displaystyle \ det (\ mathbf {A}) = \ mathbf {x} _ {0} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2})}{\ displaystyle \ det (\ mathbf {A}) = \ mathbf {x} _ {0} \ cdot (\ mathbf {x} _ {1 } \ times \ mathbf {x} _ {2})}

вызывает диагональные элементы I = A - 1 A {\ displaystyle \ mathbf {I} = \ mathbf {A} ^ { -1} \ mathbf {A}}\ mathbf {I} = \ mathbf {A} ^ {- 1 } \ mathbf {A} , чтобы быть единицей. Например, первая диагональ:

1 = 1 x 0 ⋅ (x 1 × x 2) x 0 ⋅ (x 1 × x 2). {\ displaystyle 1 = {\ frac {1} {\ mathbf {x_ {0}} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2})}} \ mathbf {x_ {0}} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2}).}{\ displaystyle 1 = {\ frac {1} {\ mathbf {x_ {0}} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x}) _ {2})}} \ mathbf {x_ {0}} \ cdot (\ mathbf {x} _ {1} \ times \ mathbf {x} _ {2}).}

Инверсия матриц 4 × 4

С увеличением размерности выражения для обратного A усложняется. Для n = 4 метод Кэли – Гамильтона приводит к выражению, которое все еще можно обработать:

A - 1 = 1 det (A) [1 6 ((tr ⁡ A) 3 - 3 tr ⁡ A tr ⁡ A 2 + 2 tr ⁡ A 3) I - 1 2 A ((tr ⁡ A) 2 - tr ⁡ A 2) + A 2 tr ⁡ A - A 3]. {\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ left [{\ frac {1} {6}} \ left ((\ OperatorName {tr} \ mathbf {A}) ^ {3} -3 \ operatorname {tr} \ mathbf {A} \ operatorname {tr} \ mathbf {A} ^ {2} +2 \ operatorname {tr} \ mathbf { A} ^ {3} \ right) \ mathbf {I} - {\ frac {1} {2}} \ mathbf {A} \ left ((\ operatorname {tr} \ mathbf {A}) ^ {2} - \ operatorname {tr} \ mathbf {A} ^ {2} \ right) + \ mathbf {A} ^ {2} \ operatorname {tr} \ mathbf {A} - \ mathbf {A} ^ {3} \ right].}{\ displaystyle \ mathbf {A} ^ {- 1} = {\ frac {1} {\ det (\ mathbf {A})}} \ left [{\ frac {1} {6}} \ left (( \ operatorname {tr} \ mathbf {A}) ^ {3} -3 \ operatorname {tr} \ mathbf {A} \ operatorname {tr} \ mathbf {A} ^ {2} +2 \ operatorname {tr} \ mathbf {A} ^ {3} \ right) \ mathbf {I} - {\ frac {1} {2}} \ mathbf {A} \ left ((\ operatorname {tr} \ mathbf {A}) ^ {2} - \ operatorname {tr} \ mathbf {A} ^ {2} \ right) + \ mathbf {A} ^ {2} \ operatorname {tr} \ mathbf {A} - \ mathbf {A} ^ {3} \ right].}

Поблочная инверсия

Матрицы также можно поблочно инвертировать, используя следующую формулу аналитического обращения:

[ABCD] - 1 = [A - 1 + A - 1 B (D - CA - 1 B) - 1 CA - 1 - A - 1 B (D - CA - 1 B) - 1 - (D - CA - 1 B) - 1 CA - 1 (D - CA - 1 B) - 1], { \ Displaystyle {\ begin {bmatrix} \ mathbf {A} \ mathbf {B} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = {\ begin {bmatrix} \ mathbf {A} ^ {- 1} + \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {-1} \ mathbf {CA} ^ {- 1} - \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \\ - (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ end {bmatrix} },}{\ begin {bmatrix} \ mathbf {A} \ mathbf {B} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = { \ begin {bmatrix} \ mathbf {A} ^ {- 1} + \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} - \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ { -1} \ mathbf {B}) ^ {- 1} \\ - (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ end {bmatrix}},

(1)

где A, B, Cи D - подблоки матрицы произвольного размера. (A должен быть квадратным, чтобы его можно было инвертировать. Кроме того, A и D− CABдолжны быть невырожденными.) Эта стратегия особенно выгодна, если A диагональна, а D− CAB(дополнение Шура к A ) представляет собой небольшую матрицу, поскольку это единственные матрицы, требующие инверсии.

Этот метод был изобретен несколько раз заново, и он появился благодаря (1923), который использовал его для инверсии геодезических матриц, и Тадеушу Банахевичу (1937), который обобщил его и доказал его правильность.

Теорема о недействительности говорит, что недействительность A равна аннулированию подблока в правом нижнем углу обратной матрицы, и что недействительность B равно нулю субблока в верхнем правом углу обратной матрицы.

Процедура инверсии, которая привела к уравнению (1), выполняла операции матричного блока, которые сначала работали с C и D . Вместо этого, если A и B обрабатываются первыми и при условии, что D и A− BDCнеособые, результат будет

[ABCD] - 1 = [(A - BD - 1 C) - 1 - (A - BD - 1 C) - 1 BD - 1 - D - 1 C (A - BD - 1 C) - 1 D - 1 + D - 1 C ( А - БД - 1 В) - 1 БД - 1]. {\ displaystyle {\ begin {bmatrix} \ mathbf {A} \ mathbf {B} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = {\ begin {bmatrix } (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} - (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} \\ - \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {-1} \ mathbf {C}) ^ {- 1} \ quad \ mathbf {D} ^ {- 1} + \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} \ end {bmatrix}}.}{\ begin {bmatrix} \ mathbf {A} \ mathbf {B} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = {\ begin {bmatrix} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} - (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} \\ - \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ quad \ mathbf {D} ^ {- 1} + \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} \ end {bmatrix}}.

(2)

Приравнивание Уравнения (1) и (2) приводят к

(A - BD - 1 C) - 1 = A - 1 + A - 1 B (D - CA - 1 B) - 1 CA - 1 { \ Displaystyle (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} = \ mathbf {A} ^ {- 1} + \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} \,}(\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} = \ mathbf {A} ^ {- 1} + \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1 } \,

(3)

(A - BD - 1 C) - 1 BD - 1 = A - 1 B (D - CA - 1 B) - 1 {\ displaystyle (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} = \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1 } \ mathbf {B}) ^ {- 1} \,}(\ mathbf { A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} = \ mathbf {A} ^ {- 1} \ mathbf {B} (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \,
D - 1 C (A - BD - 1 C) - 1 = (D - CA - 1 B) - 1 CA - 1 {\ displaystyle \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} = (\ mathbf {D} - \ mathbf {CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} \,}\ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} = (\ mathbf {D} - \ mathbf {CA } ^ {- 1} \ mathbf {B}) ^ {- 1} \ mathbf {CA} ^ {- 1} \,
D - 1 + D - 1 C (A - BD - 1 C) - 1 BD - 1 = (D - CA - 1 B) - 1 {\ displaystyle \ mathbf {D} ^ {- 1} + \ mathbf {D} ^ {- 1} \ mathbf {C} (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} = (\ mathbf {D} - \ mathbf {CA} ^ {-1} \ mathbf {B}) ^ {- 1} \,}\ mathbf {D} ^ {- 1} + \ mathbf {D} ^ {- 1} \ mathbf {C } (\ mathbf {A} - \ mathbf {BD} ^ {- 1} \ mathbf {C}) ^ {- 1} \ mathbf {BD} ^ {- 1} = (\ mathbf {D} - \ mathbf { CA} ^ {- 1} \ mathbf {B}) ^ {- 1} \,

где Equation (3) - это тождество матрицы Вудбери, что эквивалентно биномиальному обратному Теорема.

Поскольку для поблочного обращения матрицы n× nтребуется инверсия двух матриц половинного размера и 6 умножений между двумя матрицами половинного размера, можно показать, что алгоритм разделяй и властвуй, который использует поблочная инверсия для инвертирования матрицы выполняется с той же временной сложностью, что и алгоритм умножения матриц, который используется внутри страны. ли. Существуют алгоритмы умножения матриц со сложностью O (n) операций, в то время как наилучшая доказанная нижняя граница - Ω (nlog n).

. Эта формула значительно упрощается, когда верхняя правая блочная матрица B { \ displaystyle B}B - нулевая матрица. Эта формулировка полезна, когда матрицы A {\ displaystyle A}A и D {\ displaystyle D}D имеют относительно простые обратные формулы (или псевдообратные в случае, когда не все блоки имеют квадратную форму. В этом частном случае формула обращения блочной матрицы, приведенная выше в общих чертах, становится

[A 0 CD] - 1 = [A - 1 0 - D - 1 CA - 1 D - 1]. {\ Displaystyle {\ begin {bmatrix} \ mathbf {A} \ mathbf {0} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = {\ begin {bmatrix} \ mathbf {A} ^ {- 1} \ mathbf {0} \\ - \ mathbf {D} ^ {- 1} \ mathbf {CA} ^ {- 1} \ mathbf {D} ^ {- 1} \ end {bmatrix}}.}{\ displaystyle {\ begin {bmatrix} \ mathbf {A} \ mathbf {0} \\\ mathbf {C} \ mathbf {D} \ end {bmatrix}} ^ {- 1} = {\ начало {bmatrix} \ mathbf {A} ^ {- 1} \ mathbf {0} \\ - \ mathbf {D} ^ {- 1} \ mathbf {CA} ^ {- 1} \ mathbf {D} ^ {- 1} \ end {bmatrix}}.}

По ряду Неймана

Если матрица A обладает тем свойством, что

lim n → ∞ (I - A) n = 0 {\ displaystyle \ lim _ {n \ to \ infty} (\ mathbf {I} - \ mathbf {A}) ^ {n} = 0}\ lim _ {п \ к \ infty} (\ mathbf {I} - \ mathbf {A}) ^ {n} = 0

, затем A неособое, и его обратное может быть выражено с помощью ряда Неймана :

A - 1 = ∑ n = 0 ∞ (I - A) n. {\ Displaystyle \ mathbf {A} ^ {- 1} = \ sum _ {n = 0} ^ {\ infty} (\ mathbf {I} - \ mathbf {A}) ^ {n}.}\ mathbf {A} ^ {- 1} = \ sum _ {n = 0} ^ {\ infty} (\ mathbf {I} - \ mathbf {A}) ^ {n }.

Усечение суммы приводит к "приблизительному" обратному результату, который может быть полезен в качестве предобуславливателя. Обратите внимание, что усеченный ряд можно ускорить экспоненциально, если отметить, что ряд Неймана представляет собой геометрическую сумму. Таким образом, он удовлетворяет условию

∑ n = 0 2 L - 1 (I - A) n = ∏ l = 0 L - 1 (I + (I - A) 2 l) {\ displaystyle \ sum _ {n = 0} ^ {2 ^ {L} -1} (\ mathbf {I} - \ mathbf {A}) ^ {n} = \ prod _ {l = 0} ^ {L-1} (\ mathbf {I} + (\ mathbf {I} - \ mathbf {A}) ^ {2 ^ {l}})}\ sum _ { n = 0} ^ {2 ^ {L} -1} (\ mathbf {I} - \ mathbf {A}) ^ {n} = \ prod _ {l = 0} ^ {L-1} (\ mathbf { I} + (\ mathbf {I} - \ mathbf {A}) ^ {2 ^ {l}}) .

Следовательно, только 2 L - 2 {\ displaystyle 2L-2}2L-2 умножения матриц необходимы для вычисления 2 L {\ displaystyle 2 ^ {L}}2 ^ {L} членов суммы.

В более общем смысле, если A находится «около» обратимой матрицы X в том смысле, что

lim n → ∞ (I - X - 1 A) n = 0 или lim n → ∞ (I - AX - 1) n = 0 {\ displaystyle \ lim _ {n \ to \ infty} (\ mathbf {I} - \ mathbf {X} ^ {- 1} \ mathbf {A}) ^ {n} = 0 \ mathrm {~~ или ~~} \ lim _ {n \ to \ infty} (\ mathbf {I} - \ mathbf {A} \ mathbf {X} ^ {- 1 }) ^ {n} = 0}\ lim _ {n \ to \ infty} (\ mathbf {I} - \ mathbf {X} ^ {- 1} \ mathbf {A}) ^ {n} = 0 \ mathrm {~~ или ~~} \ lim _ {n \ to \ infty} (\ mathbf {I} - \ mathbf {A} \ mathbf {X} ^ {- 1}) ^ {n} = 0

, тогда A неособо, а его обратное равен

A - 1 = ∑ n = 0 ∞ (X - 1 (X - A)) n X - 1. {\ displaystyle \ mathbf {A} ^ {- 1} = \ sum _ {n = 0} ^ {\ infty} \ left (\ mathbf {X} ^ {- 1} (\ mathbf {X} - \ mathbf { A}) \ right) ^ {n} \ mathbf {X} ^ {- 1} ~.}\ mathbf {A} ^ {- 1} = \ sum _ {n = 0} ^ {\ infty} \ left (\ mathbf {X} ^ {- 1} (\ mathbf {X} - \ mathbf {A}) \ right) ^ {n} \ mathbf {X} ^ {- 1} ~.

Если также так, что A− Xимеет ранг 1, то это упрощается до

A - 1 = X - 1 - X - 1 (A - X) X - 1 1 + tr ⁡ (X - 1 (A - X)). {\ displaystyle \ mathbf {A} ^ {- 1} = \ mathbf {X} ^ {- 1} - {\ frac {\ mathbf {X} ^ {- 1} (\ mathbf {A} - \ mathbf {X }) \ mathbf {X} ^ {- 1}} {1+ \ operatorname {tr} (\ mathbf {X} ^ {- 1} (\ mathbf {A} - \ mathbf {X}))}} ~. }\ mathbf {A} ^ {- 1} = \ mathbf {X} ^ {- 1} - {\ frac {\ mathbf {X} ^ {- 1} (\ mathbf {A} - \ mathbf {X}) \ mathbf {X} ^ {- 1}} { 1+ \ operatorname {tr} (\ mathbf {X} ^ {- 1} (\ mathbf {A} - \ mathbf {X}))}} ~.

p-адическое приближение

Если A - матрица с целыми или рациональными коэффициентами, и мы ищем решение в рациональных числах произвольной точности, то p-adic метод аппроксимации сходится к точному решению в O (n 4 log 2 ⁡ n) {\ displaystyle O (n ^ {4} \ log ^ {2} n)}O (n ^ {4} \ log ^ {2} n) , принимая стандарт O (n 3) {\ displaystyle O (n ^ {3})}O (n ^ {3}) используется матричное умножение. Метод основан на решении n линейных систем с помощью метода p-адической аппроксимации Диксона (каждая в O (n 3 log 2 ⁡ n) {\ displaystyle O (n ^ {3} \ log ^ {2} n)}O (n ^ {3} \ log ^ {2} n) ) и доступен как таковой в программном обеспечении, специализирующемся на матричных операциях произвольной точности, например в IML.

Метод взаимных базисных векторов

Учитывая n × N {\ displaystyle n \ times n}n \ times n квадратная матрица X = [xij] {\ displaystyle \ mathbf {X} = [x ^ {ij}]}{\ displaystyle \ mathbf {X} = [x ^ {ij}]} , 1 ≤ i, j ≤ n {\ displaystyle 1 \ leq i, j \ leq n}{\ displaystyle 1 \ leq i, j \ leq n} , с n {\ displaystyle n}nстроками, интерпретируемыми как n {\ displaystyle n }nвекторы xi = xijej {\ displaystyle \ mathbf {x} _ {i} = x ^ {ij} \ mathbf {e} _ {j}}{\ displaystyle \ mathbf {x} _ {i} = x ^ {ij} \ mathbf {e} _ {j}} (Суммирование Эйнштейна предполагается), где ej {\ displaystyle \ mathbf {e} _ {j}}{\ displaystyle \ mathbf {e} _ {j}} - это стандартный ортонормированный базис из евклидова пространства R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} (ei = ei, ei ⋅ ej = δ ij {\ displaystyle \ mathbf {e} _ {i} = \ mathbf {e} ^ {i}, \ м athbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = \ delta _ {i} ^ {j}}{\ displaystyle \ mathbf {e} _ {i} = \ mathbf {e} ^ {i}, \ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = \ delta _ {i} ^ {j}} ), затем с помощью алгебры Клиффорда ( или геометрическая алгебра ) мы вычисляем обратные (иногда называемые двойные ) векторы столбцов xi = xjiej = (- 1) i - 1 (x 1 ∧ ⋯ ∧ () i ∧ ⋯ ∧ xn) ⋅ (x 1 ∧ x 2 ∧ ⋯ ∧ xn) - 1 {\ displaystyle \ mathbf {x} ^ {i} = x_ {ji} \ mathbf {e} ^ {j} = (- 1) ^ {i-1} (\ mathbf {x} _ {1} \ wedge \ cdots \ wedge () _ {i} \ wedge \ cdots \ wedge \ mathbf {x} _ {n}) \ cdot (\ mathbf { x} _ {1} \ wedge \ \ mathbf {x} _ {2} \ wedge \ cdots \ wedge \ mathbf {x} _ {n}) ^ {- 1}}{\ displaystyle \ mathbf {x} ^ {i} = x_ {ji} \ mathbf {e} ^ {j} = (- 1) ^ {i-1} (\ mathbf {x} _ {1} \ wedge \ cdots \ wedge () _ {i} \ wedge \ cdots \ wedge \ mathbf {x} _ {n}) \ cdot (\ mathbf {x} _ {1} \ wedge \ \ mathbf {x } _ {2} \ клин \ cdots \ клин \ mathbf {x} _ {n}) ^ {- 1}} в качестве столбцов обратная матрица X - 1 = [xji] {\ displaystyle \ mathbf {X} ^ {- 1} = [x_ {ji}]}{\ displaystyle \ mathbf {X} ^ {- 1} = [x_ {ji}]} . Обратите внимание, что место «() i {\ displaystyle () _ {i}}{\ displaystyle () _ {i}} » указывает, что «xi {\ displaystyle \ mathbf {x} _ {i}}{\ displaystyle \ mathbf {x} _ {i}} "удаляется из этого места в приведенном выше выражении для xi {\ displaystyle \ mathbf {x} ^ {i}}{\ displaystyle \ mathbf {x} ^ {i}} . Тогда у нас есть XX - 1 = [xi ⋅ xj] = [δ ij] = I n {\ displaystyle \ mathbf {X} \ mathbf {X} ^ {- 1} = [\ mathbf {x} _ { i} \ cdot \ mathbf {x} ^ {j}] = [\ delta _ {i} ^ {j}] = \ mathbf {I} _ {n}}{\ displaystyle \ mathbf {X} \ mathbf {X} ^ {- 1} = [\ mathbf {x} _ {i} \ cdot \ mathbf {x} ^ {j}] = [\ delta _ {i} ^ {j}] = \ mathbf {I} _ {n }} , где δ ij {\ displaystyle \ delta _ {i} ^ {j}}{\ displaystyle \ delta _ {i} ^ {j}} - это дельта Кронекера. У нас также есть X - 1 X = [(ei ⋅ xk) (ej ⋅ xk)] = [ei ⋅ ej] = [δ ij] = I n {\ displaystyle \ mathbf {X} ^ {- 1} \ mathbf {X} = [(\ mathbf {e} _ {i} \ cdot \ mathbf {x} ^ {k}) (\ mathbf {e} ^ {j} \ cdot \ mathbf {x} _ {k})]=[\mathbf {e} _{i}\cdot \mathbf {e} ^{j}]=[\delta _{i}^{j}]=\mathbf {I} _{n}}{\ displaystyle \ mathbf {X} ^ {- 1} \ mathbf {X} = [(\ mathbf {e} _ {i} \ cdot \ mathbf {x} ^ {k}) (\ mathbf {e} ^ {j} \ cdot \ mathbf {x} _ {k})] = [\ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j}] = [\ delta _ {i} ^ {j}] = \ mathbf {I} _ {n}} , as required. If the vectors x i {\displaystyle \mathbf {x} _{i}}{\ displaystyle \ mathbf {x} _ {i}} are not linearly independent, then ( x 1 ∧ x 2 ∧ ⋯ ∧ x n) = 0 {\displaystyle (\mathbf {x} _{1}\wedge \mathbf {x} _{2}\wedge \cdots \wedge \mathbf {x} _{n})=0}{\ displaystyle (\ mathbf {x} _ {1} \ wedge \ mathbf {x} _ {2} \ wedge \ cdots \ wedge \ mathbf {x} _ {n}) = 0} and the matrix X {\displaystyle \mathbf {X} }\ mathbf {X} is not invertible (has no inverse).

Derivative of the matrix inverse

Suppose that the invertible matrix Adepends on a parameter t. Then the derivative of the inverse of Awith respect to t is given by

d A − 1 d t = − A − 1 d A d t A − 1. {\displaystyle {\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}=-\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-1}.}{\ frac {\ mathrm {d} \ mathbf {A} ^ {- 1}} {\ mathrm {d} t}} = - \ mathbf {A} ^ {- 1} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} \ mathbf {A} ^ {- 1}.

To derive the above expression for the derivative of the inverse of A, one can differentiate the definition of the matrix inverse A − 1 A = I {\displaystyle \mathbf {A} ^{-1}\mathbf {A} =\mathbf {I} }\ mathbf {A} ^ {- 1} \ mathbf {A} = \ mathbf {I} and then solve for the inverse of A:

d A − 1 A d t = d A − 1 d t A + A − 1 d A d t = d I d t = 0. {\displaystyle {\frac {\mathrm {d} \mathbf {A} ^{-1}\mathbf {A} }{\mathrm {d} t}}={\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}\mathbf {A} +\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}={\frac {\mathrm {d} \mathbf {I} }{\mathrm {d} t}}=\mathbf {0}.}{\ frac {\ mathrm {d} \ mathbf {A} ^ {- 1} \ mathbf {A}} {\ mathrm {d} t}} = { \ frac {\ mathrm {d} \ mathbf {A} ^ {- 1}} {\ mathrm {d} t}} \ mathbf {A} + \ mathbf {A} ^ {- 1} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} = {\ frac {\ mathrm {d} \ mathbf {I}} {\ mathrm {d} t}} = \ mathbf {0}.

Subtracting A − 1 d A d t {\displaystyle \mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}}\ mathbf {A} ^ {- 1} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t} } from both sides of the above and multiplying on the right by A − 1 {\displaystyle \mathbf {A} ^{-1}}\ mathbf {A} ^ {- 1} gives the correct expression for the derivative of the inverse:

d A − 1 d t = − A − 1 d A d t A − 1. {\displaystyle {\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}=-\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-1}.}{\ frac {\ mathrm {d} \ mathbf {A} ^ {- 1}} {\ mathrm {d} t}} = - \ mathbf {A} ^ {- 1} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} \ mathbf {A} ^ {- 1}.

Similarly, if ε {\displaystyle \varepsilon }\ varepsilon is a small number then

( A + ε X) − 1 = A − 1 − ε A − 1 X A − 1 + O ( ε 2). {\displaystyle \left(\mathbf {A} +\varepsilon \mathbf {X} \right)^{-1}=\mathbf {A} ^{-1}-\varepsilon \mathbf {A} ^{-1}\mathbf {X} \mathbf {A} ^{-1}+{\mathcal {O}}(\varepsilon ^{2})\,.}{\ displaystyle \ left (\ mathbf {A} + \ varepsilon \ mathbf {X} \ right) ^ {- 1} = \ mathbf {A} ^ {- 1} - \ varepsilon \ mathbf {A} ^ {- 1} \ mathbf {X} \ mathbf {A} ^ {- 1} + {\ mathcal {O}} (\ varepsilon ^ {2}) \,.}

More generally, if

d f ( A) d t = ∑ i g i ( A) d A d t h i ( A), {\displaystyle {\frac {\mathrm {d} f(\mathbf {A})}{\mathrm {d} t}}=\sum _{i}g_{i}(\mathbf {A}){\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}h_{i}(\mathbf {A}),}{\ displaystyle {\ frac {\ mathrm {d} f (\ mathbf {A})} {\ mathrm {d} t}} = \ sum _ {i} g_ {i} (\ mathbf {A}) {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} h_ {i} (\ mathbf {A}),}

then,

f ( A + ε X) = f ( A) + ε ∑ i g i ( A) X h i ( A) + O ( ε 2). {\displaystyle f(\mathbf {A} +\varepsilon \mathbf {X})=f(\mathbf {A})+\varepsilon \sum _{i}g_{i}(\mathbf {A})\mathbf {X} h_{i}(\mathbf {A})+{\mathcal {O}}(\varepsilon ^{2}).}{\ displaystyle f (\ mathbf {A} + \ varep силон \ mathbf {X}) = f (\ mathbf {A}) + \ varepsilon \ sum _ {i} g_ {i} (\ mathbf {A}) \ mathbf {X} h_ {i} (\ mathbf {A }) + {\ mathcal {O}} (\ varepsilon ^ {2}).}

Given a positive integer n {\displaystyle n}n,

d A n d t = ∑ i = 1 n A i − 1 d A d t A n − i, d A − n d t = − ∑ i = 1 n A − i d A d t A − ( n + 1 − i). {\displaystyle {\begin{aligned}{\frac {\mathrm {d} \mathbf {A} ^{n}}{\mathrm {d} t}}=\sum _{i=1}^{n}\mathbf {A} ^{i-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{n-i},\\{\frac {\mathrm {d} \mathbf {A} ^{-n}}{\mathrm {d} t}}=-\sum _{i=1}^{n}\mathbf {A} ^{-i}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-(n+1-i)}.\end{aligned}}}{\ displaystyle {\ begin {align} {\ frac {\ mathrm {d} \ mathbf {A} ^ {n}} {\ mathrm {d} t}} = \ sum _ {i = 1} ^ {n} \ mathbf {A} ^ {i-1} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} \ mathbf {A} ^ {ni}, \\ {\ frac {\ mathrm {d} \ mathbf {A} ^ {- n}} {\ mathrm {d} t}} = - \ sum _ {i = 1} ^ {n} \ mathbf { A} ^ {- i} {\ frac {\ mathrm {d} \ mathbf {A}} {\ mathrm {d} t}} \ mathbf {A} ^ {- (n + 1-i)}. \ End {выровнено}}}

Therefore,

( A + ε X) n = A n + ε ∑ i = 1 n A i − 1 X A n − i + O ( ε 2), ( A + ε X) − n = A − n − ε ∑ i = 1 n A − i X A − ( n + 1 − i) + O ( ε 2). {\displaystyle {\begin{aligned}(\mathbf {A} +\varepsilon \mathbf {X})^{n}=\mathbf {A} ^{n}+\varepsilon \sum _{i=1}^{n}\mathbf {A} ^{i-1}\mathbf {X} \mathbf {A} ^{n-i}+{\mathcal {O}}(\varepsilon ^{2}),\\(\mathbf {A} +\varepsilon \mathbf {X})^{-n}=\mathbf {A} ^ {- n} - \ varepsilon \ sum _ {i = 1} ^ {n} \ mathbf {A} ^ {- i} \ mathbf {X} \ mathbf {A} ^ {- (n + 1-i) } + {\ mathcal {O}} (\ varepsilon ^ {2}). \ end {align}}}{\ displaystyle {\ begin {align} (\ mathbf {A} + \ varepsilon \ mathbf {X}) ^ {n} = \ mathbf {A} ^ {n} + \ varepsilon \ sum _ {i = 1} ^ {n} \ mathbf {A} ^ {i-1} \ mathbf {X} \ mathbf {A} ^ {ni} + {\ mathcal {O}} (\ varepsilon ^ {2}), \ \ (\ mathbf {A} + \ varepsilon \ mathbf {X}) ^ {- n} = \ mathbf {A} ^ {- n} - \ varepsilon \ sum _ {i = 1} ^ {n} \ mathbf {A} ^ {- i} \ mathbf {X} \ mathbf {A} ^ {- (n + 1-i)} + {\ mathcal {O}} (\ varepsilon ^ {2}). \ End {выровнено }}}

Обобщенный обратный

Некоторые свойства обратных матриц общие для обобщенного инверсия (например, инверсия Мура – ​​Пенроуза ), которая может быть определена для любой матрицы размера m на n.

Приложения

Для большинства практических приложений нет необходимости инвертировать матрицу для решения системы линейных уравнений ; однако для уникального решения необходимо, чтобы рассматриваемая матрица была обратимой.

Такие методы разложения, как LU-разложение, намного быстрее, чем инверсия, также были разработаны различные быстрые алгоритмы для специальных классов линейных систем.

Регрессия / наименьшие квадраты

Хотя явная обратная величина не требуется для оценки вектора неизвестных, это самый простой способ оценить их точность, находящуюся на диагонали обратной матрицы ( матрица апостериорной ковариации вектора неизвестных). Однако во многих случаях известны более быстрые алгоритмы вычисления только диагональных элементов обратной матрицы.

Инверсия матриц при моделировании в реальном времени

Инверсия матрицы играет важную роль в компьютере графика, в частности, в рендеринге трехмерной графики и трехмерном моделировании. Примеры включают преобразование лучей из экрана в мир, преобразования объектов из мира в подпространство в мир и физические симуляции.

Инверсия матрицы в беспроводной связи MIMO

Инверсия матрицы также играет важную роль в технологии MIMO (Multiple-Input, Multiple-Output) в беспроводной связи. Система MIMO состоит из N передающих и M приемных антенн. Уникальные сигналы, занимающие одну и ту же полосу частот, отправляются через N передающих антенн и принимаются через M приемных антенн. Сигнал, поступающий на каждую приемную антенну, будет линейной комбинацией N переданных сигналов, образующих матрицу передачи N × M H . Крайне важно, чтобы матрица H была обратимой, чтобы приемник мог вычислить передаваемую информацию.

См. Также

Ссылки

Дополнительная литература

Внешние ссылки

Последняя правка сделана 2021-05-24 05:42:31
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте