Норма матрицы

редактировать
Для общей концепции см. Норма (математика).

В математике, А матрица норма является нормой вектора в векторном пространстве, элементы которого (векторы) являются матрицы (заданных размеров).

СОДЕРЖАНИЕ

  • 1 Предварительные мероприятия
  • 2 Матричные нормы, индуцированные векторными нормами
    • 2.1 Совместимые и последовательные нормы
    • 2.2 Особые случаи
  • 3 «Входные» матричные нормы
    • 3.1 L 2,1 и L p, q нормы
    • 3.2 Норма Фробениуса
    • 3.3 Максимальная норма
  • 4 нормы Шаттена
  • 5 Монотонные нормы
  • 6 Нормы нарезки
  • 7 Эквивалентность норм
    • 7.1 Примеры эквивалентности норм
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки
  • 11 Библиография

Предварительные мероприятия

Учитывая поле либо реальных или комплексных чисел, пусть будет K - векторное пространство матриц с строк и столбцов и записей в поле. Матричная норма - это норма на K {\ displaystyle K} K м × п {\ Displaystyle К ^ {м \ раз п}} м {\ displaystyle m} п {\ displaystyle n} K {\ displaystyle K} K м × п {\ Displaystyle К ^ {м \ раз п}}

В этой статье такие нормы всегда будут писать двойными вертикальными чертами (например:). Таким образом, матричная норма - это функция, которая должна удовлетворять следующим свойствам: А {\ Displaystyle \ | А \ |} : K м × п р {\ Displaystyle \ | \ cdot \ |: K ^ {m \ times n} \ to \ mathbb {R}}

Для всех скаляров и матриц, α K {\ displaystyle \ alpha \ in K} А , B K м × п {\ Displaystyle А, В \ в К ^ {т \ раз п}}
  • А 0 {\ Displaystyle \ | А \ | \ geq 0}(с положительной оценкой)
  • А знак равно 0 А знак равно 0 м , п {\ Displaystyle \ | A \ | = 0 \ если и только если A = 0_ {m, n}}( определенно)
  • α А знак равно | α | А {\ Displaystyle \ | \ альфа А \ | = | \ альфа | \ | А \ |}( абсолютно однородный)
  • А + B А + B {\ Displaystyle \ | А + В \ | \ Leq \ | А \ | + \ | В \ |}( субаддитивный или удовлетворяющий неравенству треугольника)

Единственная особенность, отличающая матрицы от переставленных векторов, - это умножение. Матричные нормы особенно полезны, если они также субумножительны:

  • А B А B {\ Displaystyle \ | AB \ | \ Leq \ | A \ | \ | B \ |}

Каждую норму на K n × n можно масштабировать так, чтобы она стала субумножительной; в некоторых книгах норма терминологической матрицы зарезервирована для субмультипликативных норм.

Матричные нормы, индуцированные векторными нормами

Основная статья: Норма оператора

Предположим, что задана векторная норма на. Любая матрица A индуцирует линейный оператор от до относительно стандартного базиса, и каждый определяет соответствующую индуцированную норму или операторную норму на пространстве всех матриц следующим образом: {\ displaystyle \ | \ cdot \ |} K м {\ displaystyle K ^ {m}} м × п {\ Displaystyle м \ раз п} K п {\ displaystyle K ^ {n}} K м {\ displaystyle K ^ {m}} K м × п {\ Displaystyle К ^ {м \ раз п}} м × п {\ Displaystyle м \ раз п}

А знак равно Как дела { А Икс : Икс K п  с участием  Икс знак равно 1 } знак равно Как дела { А Икс Икс : Икс K п  с участием  Икс 0 } . {\ displaystyle {\ begin {align} \ | A \ | amp; = \ sup \ {\ | Ax \ |: x \ in K ^ {n} {\ text {with}} \ | x \ | = 1 \} \\ amp; = \ sup \ left \ {{\ frac {\ | Ax \ |} {\ | x \ |}}: x \ in K ^ {n} {\ text {with}} x \ neq 0 \ right \}. \ end {выровнено}}}

В частности, если p -норма для векторов ( 1 ≤ p ≤ ∞) используется для обоих пространств и, то соответствующая индуцированная операторная норма равна: K п {\ displaystyle K ^ {n}} K м {\ displaystyle K ^ {m}}

А п знак равно Как дела Икс 0 А Икс п Икс п . {\ displaystyle \ | A \ | _ {p} = \ sup _ {x \ neq 0} {\ frac {\ | Ax \ | _ {p}} {\ | x \ | _ {p}}}.}

Эти индуцированные нормы отличаются от «входа-накрест» р -норма и Шаттен р -норма для матриц, обработанный ниже, которые также обычно обозначаются А п . {\ displaystyle \ | A \ | _ {p}.}

Примечание. Приведенное выше описание относится к индуцированной норме оператора, когда одна и та же векторная норма использовалась в «пространстве вылета» и «пространстве прибытия» оператора. Это необязательное ограничение. В более общем смысле, учитывая норму на и норму на, можно определить матричную норму на, индуцированную этими нормами: K п {\ displaystyle K ^ {n}} K м {\ displaystyle K ^ {m}} А K м × п {\ Displaystyle А \ в К ^ {м \ раз п}} α {\ displaystyle \ | \ cdot \ | _ {\ alpha}} K п {\ displaystyle K ^ {n}} β {\ displaystyle \ | \ cdot \ | _ {\ beta}} K м {\ displaystyle K ^ {m}} K м × п {\ Displaystyle К ^ {м \ раз п}}
А α , β знак равно Максимум Икс 0 А Икс β Икс α . {\ displaystyle \ | A \ | _ {\ alpha, \ beta} = \ max _ {x \ neq 0} {\ frac {\ | Ax \ | _ {\ beta}} {\ | x \ | _ {\ альфа}}}.}
Матричную норму иногда называют подчиненной нормой. Подчиненные нормы согласуются с нормами, которые их побуждают, давая А α , β {\ Displaystyle \ | А \ | _ {\ альфа, \ бета}}
А Икс β А α , β Икс α . {\ displaystyle \ | Ax \ | _ {\ beta} \ leq \ | A \ | _ {\ alpha, \ beta} \ | x \ | _ {\ alpha}.}

Любая индуцированная операторная норма является субмультипликативной матричной нормой: это следует из А B А B ; {\ Displaystyle \ | AB \ | \ Leq \ | A \ | \ | B \ |;}

А B Икс А B Икс А B Икс {\ Displaystyle \ | ABx \ | \ Leq \ | A \ | \ | Bx \ | \ Leq \ | A \ | \ | B \ | \ | x \ |}

а также

Максимум Икс знак равно 1 А B Икс знак равно А B . {\ Displaystyle \ макс _ {\ | х \ | = 1} \ | ABx \ | = \ | AB \ |.}

Более того, любая индуцированная норма удовлетворяет неравенству

А р 1 / р ρ ( А ) {\ Displaystyle \ | A ^ {r} \ | ^ {1 / r} \ geq \ rho (A) \ quad} ( 1)

для всех положительных целых чисел г, где ρ () является спектральным радиусом из A. Для симметричного или эрмитовых А, мы имеем равенство в ( 1) для 2-нормы, так как в этом случае 2-норма является именно спектральным радиусом А. Для произвольной матрицы у нас может не быть равенства ни по одной норме; контрпример был бы

А знак равно [ 0 1 0 0 ] , {\ displaystyle A = {\ begin {bmatrix} 0 amp; 1 \\ 0 amp; 0 \ end {bmatrix}},}

имеющий нулевой спектральный радиус. В любом случае для квадратных матриц мы имеем формулу спектрального радиуса :

Lim р А р 1 / р знак равно ρ ( А ) . {\ displaystyle \ lim _ {r \ to \ infty} \ | A ^ {r} \ | ^ {1 / r} = \ rho (A).}

Совместимые и последовательные нормы

Норма матрицы на называется согласованной с векторной нормой на и векторной нормой на, если: {\ displaystyle \ | \ cdot \ |} K м × п {\ Displaystyle К ^ {м \ раз п}} а {\ Displaystyle \ | \ cdot \ | _ {а}} K п {\ displaystyle K ^ {n}} б {\ displaystyle \ | \ cdot \ | _ {b}} K м {\ displaystyle K ^ {m}}

А Икс б А Икс а {\ displaystyle \ | Ax \ | _ {b} \ leq \ | A \ | \ | x \ | _ {a}}

для всех. В частном случае т = п и = Ь, также можно было бы назвать совместимы с. Все индуцированные нормы непротиворечивы по определению. Кроме того, любая субмультипликативная матричная норма на (рассматриваемом как) индуцирует совместимую векторную норму на, определяя. А K м × п , Икс K п {\ Displaystyle А \ в К ^ {м \ раз п}, х \ в К ^ {п}} {\ displaystyle \ | \ cdot \ |} а {\ Displaystyle \ | \ cdot \ | _ {а}} K п × п {\ Displaystyle К ^ {п \ раз п}} ( K п ) п {\ Displaystyle (К ^ {п}) ^ {п}} K п {\ displaystyle K ^ {n}} v знак равно ( v , v , . . . v ) {\ Displaystyle \ | v \ |: = \ | \ влево (v, v,... v \ right) \ |}

Особые случаи

В частных случаях индуцированные матричные нормы могут быть вычислены или оценены с помощью п знак равно 1 , 2 , , {\ displaystyle p = 1,2, \ infty,}

А 1 знак равно Максимум 1 j п я знак равно 1 м | а я j | , {\ Displaystyle \ | A \ | _ {1} = \ max _ {1 \ leq j \ leq n} \ sum _ {i = 1} ^ {m} | a_ {ij} |,}

это просто максимальная абсолютная сумма столбцов матрицы;

А знак равно Максимум 1 я м j знак равно 1 п | а я j | , {\ displaystyle \ | A \ | _ {\ infty} = \ max _ {1 \ leq i \ leq m} \ sum _ {j = 1} ^ {n} | a_ {ij} |,}

что является просто максимальной абсолютной суммой строк матрицы.

В частном случае ( евклидова норма или -норма для векторов) индуцированная матричная норма является спектральной нормой. Спектральная норма матрицы является самым большим сингулярным значением из (то есть, на квадратный корень из наибольшего собственного значения матрицы, где обозначает сопряженное транспонирование о): п знак равно 2 {\ displaystyle p = 2} 2 {\ displaystyle \ ell _ {2}} А {\ displaystyle A} А {\ displaystyle A} А * А {\ displaystyle A ^ {*} A} А * {\ displaystyle A ^ {*}} А {\ displaystyle A}

А 2 знак равно λ Максимум ( А * А ) знак равно σ Максимум ( А ) . {\ displaystyle \ | A \ | _ {2} = {\ sqrt {\ lambda _ {\ max} \ left (A ^ {*} A \ right)}} = \ sigma _ {\ max} (A). }

где представляет собой наибольшее сингулярное значение матрицы. Также, σ Максимум ( А ) {\ Displaystyle \ sigma _ {\ max} (А)} А {\ displaystyle A}

А * А 2 знак равно А А * 2 знак равно А 2 2 {\ Displaystyle \ | A ^ {*} A \ | _ {2} = \ | AA ^ {*} \ | _ {2} = \ | A \ | _ {2} ^ {2}}

так как и аналогично с помощью разложения по сингулярным числам (SVD). Есть еще одно важное неравенство: А * А 2 знак равно σ Максимум ( А * А ) знак равно σ Максимум ( А ) 2 знак равно А 2 2 {\ Displaystyle \ | A ^ {*} A \ | _ {2} = \ sigma _ {\ max} (A ^ {*} A) = \ sigma _ {\ max} (A) ^ {2} = \ | A \ | _ {2} ^ {2}} А А * 2 знак равно А 2 2 {\ Displaystyle \ | AA ^ {*} \ | _ {2} = \ | A \ | _ {2} ^ {2}}

А 2 знак равно σ Максимум ( А ) А F знак равно ( я знак равно 1 м j знак равно 1 п | а я j | 2 ) 1 2 знак равно ( k знак равно 1 мин ( м , п ) σ k 2 ) 1 2 , {\ Displaystyle \ | A \ | _ {2} = \ sigma _ {\ max} (A) \ leq \ | A \ | _ {\ rm {F}} = \ left (\ sum _ {i = 1} ^ {m} \ sum _ {j = 1} ^ {n} | a_ {ij} | ^ {2} \ right) ^ {\ frac {1} {2}} = \ left (\ sum _ {k = 1} ^ {\ min (m, n)} \ sigma _ {k} ^ {2} \ right) ^ {\ frac {1} {2}},}

где - норма Фробениуса. Равенство имеет место тогда и только тогда, когда матрица является матрицей ранга один или нулевой матрицей. Это неравенство можно вывести из того факта, что след матрицы равен сумме ее собственных значений. А F {\ Displaystyle \ | А \ | _ {\ rm {F}}} А {\ displaystyle A}

Когда у нас есть эквивалентное определение as. Его эквивалентность приведенным выше определениям можно показать с помощью неравенства Коши – Шварца. п знак равно 2 {\ displaystyle p = 2} А 2 {\ displaystyle \ | A \ | _ {2}} Как дела { Икс Т А у : Икс , у K п  с участием  Икс 2 знак равно у 2 знак равно 1 } {\ displaystyle \ sup \ {x ^ {T} Ay: x, y \ in K ^ {n} {\ text {with}} \ | x \ | _ {2} = \ | y \ | _ {2} = 1 \}}

Например, для

А знак равно [ - 3 5 7 2 6 4 0 2 8 ] , {\ displaystyle A = {\ begin {bmatrix} -3 amp; 5 amp; 7 \\ 2 amp; 6 amp; 4 \\ 0 amp; 2 amp; 8 \\\ end {bmatrix}},}

у нас есть это

А 1 знак равно Максимум ( | - 3 | + 2 + 0 ; 5 + 6 + 2 ; 7 + 4 + 8 ) знак равно Максимум ( 5 , 13 , 19 ) знак равно 19 , {\ Displaystyle \ | A \ | _ {1} = \ max (| {-3} | + 2 + 0; 5 + 6 + 2; 7 + 4 + 8) = \ max (5,13,19) = 19,}
А знак равно Максимум ( | - 3 | + 5 + 7 ; 2 + 6 + 4 ; 0 + 2 + 8 ) знак равно Максимум ( 15 , 12 , 10 ) знак равно 15. {\ Displaystyle \ | A \ | _ {\ infty} = \ max (| {-3} | + 5 + 7; 2 + 6 + 4; 0 + 2 + 8) = \ max (15,12,10) = 15.}

Матричные нормы «входа»

Эти нормы рассматривают матрицу как вектор размера и используют одну из знакомых векторных норм. Например, используя p -норму для векторов, p ≥ 1, получаем: м × п {\ Displaystyle м \ раз п} м п {\ Displaystyle м \ cdot п}

А п , п знак равно v е c ( А ) п знак равно ( я знак равно 1 м j знак равно 1 п | а я j | п ) 1 / п {\ Displaystyle \ | A \ | _ {p, p} = \ | \ mathrm {vec} (A) \ | _ {p} = \ left (\ sum _ {i = 1} ^ {m} \ sum _ {j = 1} ^ {n} | a_ {ij} | ^ {p} \ right) ^ {1 / p}}

Эта норма отличается от индуцированной p -нормы (см. Выше) и p -нормы Шаттена (см. Ниже), но обозначения те же.

Частный случай p = 2 - это норма Фробениуса, а p = ∞ дает максимальную норму.

L 2,1 и L p, q нормы

Позвольте быть столбцы матрицы. Норма сумма евклидовых норм столбцов матрицы: ( а 1 , , а п ) {\ Displaystyle (а_ {1}, \ ldots, а_ {п})} А {\ displaystyle A} L 2 , 1 {\ displaystyle L_ {2,1}}

А 2 , 1 знак равно j знак равно 1 п а j 2 знак равно j знак равно 1 п ( я знак равно 1 м | а я j | 2 ) 1 2 {\ Displaystyle \ | A \ | _ {2,1} = \ sum _ {j = 1} ^ {n} \ | a_ {j} \ | _ {2} = \ sum _ {j = 1} ^ { n} \ left (\ sum _ {i = 1} ^ {m} | a_ {ij} | ^ {2} \ right) ^ {\ frac {1} {2}}}

Норма в качестве функции ошибки является более надежной, так как ошибка для каждой точки данных (столбец) не квадрат. Он используется для надежного анализа данных и разреженного кодирования. L 2 , 1 {\ displaystyle L_ {2,1}}

Для р, д ≥ 1, то норма может быть обобщена на норму следующим образом: L 2 , 1 {\ displaystyle L_ {2,1}} L п , q {\ displaystyle L_ {p, q}}

А п , q знак равно ( j знак равно 1 п ( я знак равно 1 м | а я j | п ) q п ) 1 q . {\ Displaystyle \ | A \ | _ {p, q} = \ left (\ sum _ {j = 1} ^ {n} \ left (\ sum _ {i = 1} ^ {m} | a_ {ij}) | ^ {p} \ right) ^ {\ frac {q} {p}} \ right) ^ {\ frac {1} {q}}.}

Норма Фробениуса

Основная статья: оператор Гильберта – Шмидта Смотрите также: внутренний продукт Фробениуса

Когда для нормы p = q = 2, это называется нормой Фробениуса или нормой Гильберта – Шмидта, хотя последний термин чаще используется в контексте операторов в (возможно, бесконечномерном) гильбертовом пространстве. Эту норму можно определить по-разному: L п , q {\ displaystyle L_ {p, q}}

А F знак равно я знак равно 1 м j знак равно 1 п | а я j | 2 знак равно след ( А * А ) знак равно я знак равно 1 мин { м , п } σ я 2 ( А ) , {\ displaystyle \ | A \ | _ {\ text {F}} = {\ sqrt {\ sum _ {i = 1} ^ {m} \ sum _ {j = 1} ^ {n} | a_ {ij} | ^ {2}}} = {\ sqrt {\ operatorname {trace} \ left (A ^ {*} A \ right)}} = {\ sqrt {\ sum _ {i = 1} ^ {\ min \ { m, n \}} \ sigma _ {i} ^ {2} (A)}},}

где являются особыми значениями из. Напомним, что функция трассировки возвращает сумму диагональных элементов квадратной матрицы. σ я ( А ) {\ Displaystyle \ sigma _ {я} (А)} А {\ displaystyle A}

Норма Фробениуса является расширением евклидовой нормы и происходит от внутреннего произведения Фробениуса на пространстве всех матриц. K п × п {\ Displaystyle К ^ {п \ раз п}}

Норма Фробениуса субмультипликативна и очень полезна для числовой линейной алгебры. Субмультипликативность нормы Фробениуса может быть доказана с помощью неравенства Коши – Шварца.

Норму Фробениуса часто легче вычислить, чем индуцированную норму, и она обладает полезным свойством инвариантности относительно вращенийунитарных операций в целом). То есть для любой унитарной матрицы. Это свойство следует из циклического характера trace (): А F знак равно А U F знак равно U А F {\ displaystyle \ | A \ | _ {\ text {F}} = \ | AU \ | _ {\ text {F}} = \ | UA \ | _ {\ text {F}}} U {\ displaystyle U} след ( Икс Y Z ) знак равно след ( Z Икс Y ) {\ Displaystyle \ OperatorName {след} (XYZ) = \ OperatorName {след} (ZXY)}

А U F 2 знак равно след ( ( А U ) * А U ) знак равно след ( U * А * А U ) знак равно след ( U U * А * А ) знак равно след ( А * А ) знак равно А F 2 , {\ displaystyle \ | AU \ | _ {\ text {F}} ^ {2} = \ operatorname {trace} \ left ((AU) ^ {*} AU \ right) = \ operatorname {trace} \ left (U ^ {*} A ^ {*} AU \ right) = \ operatorname {trace} \ left (UU ^ {*} A ^ {*} A \ right) = \ operatorname {trace} \ left (A ^ {*} A \ right) = \ | A \ | _ {\ text {F}} ^ {2},}

и аналогично:

U А F 2 знак равно след ( ( U А ) * U А ) знак равно след ( А * U * U А ) знак равно след ( А * А ) знак равно А F 2 , {\ displaystyle \ | UA \ | _ {\ text {F}} ^ {2} = \ operatorname {trace} \ left ((UA) ^ {*} UA \ right) = \ operatorname {trace} \ left (A ^ {*} U ^ {*} UA \ right) = \ operatorname {trace} \ left (A ^ {*} A \ right) = \ | A \ | _ {\ text {F}} ^ {2}, }

где мы использовали унитарный характер (то есть). U {\ displaystyle U} U * U знак равно U U * знак равно я {\ Displaystyle U ^ {*} U = UU ^ {*} = \ mathbf {I}}

Это также удовлетворяет

А * А F знак равно А А * F А F 2 {\ displaystyle \ | A ^ {*} A \ | _ {\ text {F}} = \ | AA ^ {*} \ | _ {\ text {F}} \ leq \ | A \ | _ {\ text {F}} ^ {2}}

а также

А + B F 2 знак равно А F 2 + B F 2 + 2 А , B F , {\ Displaystyle \ | A + B \ | _ {\ text {F}} ^ {2} = \ | A \ | _ {\ text {F}} ^ {2} + \ | B \ | _ {\ text {F}} ^ {2} +2 \ langle A, B \ rangle _ {\ text {F}},}

где это фробениусов скалярное произведение. А , B F {\ displaystyle \ langle A, B \ rangle _ {\ text {F}}}

Макс норма

Максимальная норма является нормой поэлементно с р = д = ∞:

А Максимум знак равно Максимум я j | а я j | . {\ Displaystyle \ | A \ | _ {\ max} = \ max _ {ij} | a_ {ij} |.}

Эта норма не является субмультипликативной.

Обратите внимание, что в некоторой литературе (например, « Коммуникационная сложность» ) альтернативное определение max-norm, также называемое -norm, относится к норме факторизации: γ 2 {\ displaystyle \ gamma _ {2}}

γ 2 ( А ) знак равно мин U , V : А знак равно U V Т U 2 , V 2 , знак равно мин U , V : А знак равно U V Т Максимум я , j U я , : 2 V j , : 2 {\ Displaystyle \ гамма _ {2} (A) = \ min _ {U, V: A = UV ^ {T}} \ | U \ | _ {2, \ infty} \ | V \ | _ {2, \ infty} = \ min _ {U, V: A = UV ^ {T}} \ max _ {i, j} \ | U_ {i,:} \ | _ {2} \ | V_ {j,:} \ | _ {2}}

Нормы Шаттена

Дополнительная информация: норма Шаттена

Шаттена р -норм возникает при применении р -норма к вектору сингулярных значений матрицы. Если сингулярные значения матрицы обозначить σ i, то p -норма Шаттена определяется как м × п {\ Displaystyle м \ раз п} А {\ displaystyle A}

А п знак равно ( я знак равно 1 мин { м , п } σ я п ( А ) ) 1 п . {\ Displaystyle \ | A \ | _ {p} = \ left (\ sum _ {i = 1} ^ {\ min \ {m, n \}} \ sigma _ {i} ^ {p} (A) \ справа) ^ {\ frac {1} {p}}.}

Эти нормы снова имеют общие обозначения с индуцированными и входными p -нормами, но они разные.

Все нормы Шаттена субмультипликативны. Они также унитарно инвариантны, что означает, что для всех матриц и всех унитарных матриц и. А знак равно U А V {\ Displaystyle \ | A \ | = \ | БПЛА \ |} А {\ displaystyle A} U {\ displaystyle U} V {\ displaystyle V}

Наиболее известные случаи: p = 1, 2, ∞. Случай p = 2 дает норму Фробениуса, введенную ранее. Случай p = ∞ дает спектральную норму, которая является операторной нормой, индуцированной векторной 2-нормой (см. Выше). Наконец, p = 1 дает ядерную норму (также известную как норма следа или n-норма Ky Fan ), определяемую как

А * знак равно след ( А * А ) знак равно я знак равно 1 мин { м , п } σ я ( А ) , {\ displaystyle \ | A \ | _ {*} = \ operatorname {trace} \ left ({\ sqrt {A ^ {*} A}} \ right) = \ sum _ {i = 1} ^ {\ min \ {m, n \}} \ sigma _ {i} (A),}

где обозначает положительно полуопределенную матрицу такую, что. Точнее, поскольку матрица является положительно полуопределенной, ее квадратный корень определен правильно. Ядерная норма - это выпуклая оболочка функции ранга, поэтому она часто используется в математической оптимизации для поиска матриц низкого ранга. А * А {\ displaystyle {\ sqrt {A ^ {*} A}}} B {\ displaystyle B} B B знак равно А * А {\ displaystyle BB = A ^ {*} A} А * А {\ displaystyle A ^ {*} A} А * {\ displaystyle \ | A \ | _ {*}} классифицировать ( А ) {\ Displaystyle {\ текст {ранг}} (А)}

Монотонные нормы

Матричная норма называется монотонной, если она монотонна относительно порядка Лёвнера. Таким образом, норма матрицы возрастает, если {\ displaystyle \ | \ cdot \ |}

А B А B . {\ Displaystyle A \ preccurlyeq B \ Rightarrow \ | A \ | \ Leq \ | B \ |.}

Норма Фробениуса и спектральная норма являются примерами монотонных норм.

Нормы сокращения

Другой источник вдохновения для матричных норм возникает из рассмотрения матрицы в качестве матрицы смежности в виде взвешенного, ориентированного графа. Так называемая «норма сечения» измеряет, насколько близок связанный граф к двудольности :

А знак равно Максимум S [ п ] , Т [ м ] | s S , т Т А т , s | {\ Displaystyle \ | A \ | _ {\ Box} = \ max _ {S \ substeq [n], T \ substeq [m]} {\ left | \ sum _ {s \ in S, t \ in T} {A_ {t, s}} \ right |}}

где A ∈ K m × n. Эквивалентные определения (с точностью до постоянного множителя) накладывают условия 2 | S |gt; n amp; 2 | T |gt; m, S = T или S ∩ T = ∅.

Cut-норма эквивалентна индуцированной операторной норме ‖ ‖ ∞ → 1, которая сама эквивалентна другой норме, называемой нормой Гротендика.

Чтобы определить норму Гротендика, сначала отметьте, что линейный оператор K 1 → K 1 является просто скаляром и, таким образом, продолжается до линейного оператора на любом K k → K k. Более того, при любом выборе базиса для K n и K m любой линейный оператор K n → K m продолжается до линейного оператора ( K k) n → ( K k) m, позволяя каждому матричному элементу на элементах K k через скалярное умножение. Норма Гротендика - это норма этого расширенного оператора; в символах:

А грамм , k знак равно Как дела каждый  ты j , v j K k ; ты j знак равно v j знак равно 1 j [ п ] , л [ м ] ( ты j v j ) А л , j {\ Displaystyle \ | A \ | _ {G, k} = \ sup _ {{\ text {each}} u_ {j}, v_ {j} \ in K ^ {k}; \ | u_ {j} \ | = \ | v_ {j} \ | = 1} {\ sum _ {j \ in [n], l \ in [m]} {(u_ {j} \ cdot v_ {j}) A_ {l, j }}}}

Норма Гротендика зависит от выбора базиса (обычно принимаемого за стандартный базис ) и k.

Эквивалентность норм

Смотрите также: Эквивалентные нормы

Для любых двух матричных норм и имеем: α {\ displaystyle \ | \ cdot \ | _ {\ alpha}} β {\ displaystyle \ | \ cdot \ | _ {\ beta}}

р А α А β s А α {\ Displaystyle г \ | A \ | _ {\ alpha} \ leq \ | A \ | _ {\ beta} \ leq s \ | A \ | _ {\ alpha}}

для некоторых положительных чисел r и s для всех матриц. Другими словами, все нормы на являются эквивалентными ; они индуцируют ту же топологию на. Это верно, потому что векторное пространство имеет конечную размерность. А K м × п {\ Displaystyle А \ в К ^ {м \ раз п}} K м × п {\ Displaystyle К ^ {м \ раз п}} K м × п {\ Displaystyle К ^ {м \ раз п}} K м × п {\ Displaystyle К ^ {м \ раз п}} м × п {\ Displaystyle м \ раз п}

Более того, для каждой векторной нормы на существует уникальное положительное действительное число такое, которое является субмультипликативной матричной нормой для каждого. {\ displaystyle \ | \ cdot \ |} р п × п {\ Displaystyle \ mathbb {R} ^ {п \ раз п}} k {\ displaystyle k} л {\ Displaystyle л \ | \ cdot \ |} л k {\ displaystyle l \ geq k}

Субмультипликативная матричная норма называется минимальной, если не существует другой субмультипликативной матричной нормы, удовлетворяющей. α {\ displaystyle \ | \ cdot \ | _ {\ alpha}} β {\ displaystyle \ | \ cdot \ | _ {\ beta}} β lt; α {\ displaystyle \ | \ cdot \ | _ {\ beta} lt;\ | \ cdot \ | _ {\ alpha}}

Примеры эквивалентности норм

Давайте еще раз обратимся к норме, индуцированной векторной p -нормой (как указано выше в разделе «Индуцированная норма»). А п {\ displaystyle \ | A \ | _ {p}}

Для матрицы из ранга следующие неравенства: А р м × п {\ Displaystyle А \ в \ mathbb {R} ^ {м \ раз п}} р {\ displaystyle r}

  • А 2 А F р А 2 {\ Displaystyle \ | A \ | _ {2} \ leq \ | A \ | _ {F} \ leq {\ sqrt {r}} \ | A \ | _ {2}}
  • А F А * р А F {\ Displaystyle \ | A \ | _ {F} \ leq \ | A \ | _ {*} \ leq {\ sqrt {r}} \ | A \ | _ {F}}
  • А Максимум А 2 м п А Максимум {\ Displaystyle \ | A \ | _ {\ max} \ leq \ | A \ | _ {2} \ leq {\ sqrt {mn}} \ | A \ | _ {\ max}}
  • 1 п А А 2 м А {\ displaystyle {\ frac {1} {\ sqrt {n}}} \ | A \ | _ {\ infty} \ leq \ | A \ | _ {2} \ leq {\ sqrt {m}} \ | A \ | _ {\ infty}}
  • 1 м А 1 А 2 п А 1 . {\ displaystyle {\ frac {1} {\ sqrt {m}}} \ | A \ | _ {1} \ leq \ | A \ | _ {2} \ leq {\ sqrt {n}} \ | A \ | _ {1}.}

Еще одно полезное неравенство между матричными нормами:

А 2 А 1 А , {\ Displaystyle \ | A \ | _ {2} \ leq {\ sqrt {\ | A \ | _ {1} \ | A \ | _ {\ infty}}},}

что является частным случаем неравенства Гёльдера.

Смотрите также

Примечания

использованная литература

Библиография

  • Джеймс В. Деммель, Прикладная числовая линейная алгебра, раздел 1.7, опубликовано SIAM, 1997.
  • Карл Д. Мейер, Матричный анализ и прикладная линейная алгебра, опубликовано SIAM, 2000. [1]
  • Джон Уотроус, Теория квантовой информации, 2.3 Нормы операторов, конспект лекций, Университет Ватерлоо, 2011.
  • Кендалл Аткинсон, Введение в численный анализ, опубликованное John Wiley amp; Sons, Inc., 1989 г.
Последняя правка сделана 2024-01-01 11:51:56
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте