stringtranslate.com

Матричная норма

В области математики нормы определяются для элементов в векторном пространстве . В частности, когда векторное пространство содержит матрицы, такие нормы называются матричными нормами . Матричные нормы отличаются от векторных норм тем, что они также должны взаимодействовать с умножением матриц.

Предварительные

Дано поле действительных или комплексных чисел , пусть будет K - векторным пространством матриц со строками и столбцами и элементами в поле . Матричная норма - это норма на .

Нормы часто выражаются двойными вертикальными чертами (например: ). Таким образом, матричная норма — это функция , которая должна удовлетворять следующим свойствам: [1] [2]

Для всех скаляров и матриц ,

Единственная особенность, отличающая матрицы от переставленных векторов, — это умножение . Матричные нормы особенно полезны, если они также являются субмультипликативными : [1] [2] [3]

Каждая норма на K n × n может быть перемасштабирована так, чтобы стать субмультипликативной; в некоторых книгах термин матричная норма зарезервирован для субмультипликативных норм. [4]

Матричные нормы, индуцированные векторными нормами

Предположим, что заданы векторная норма на и векторная норма на . Любая матрица A индуцирует линейный оператор из в относительно стандартного базиса, и определяется соответствующая индуцированная норма или операторная норма или подчиненная норма на пространстве всех матриц следующим образом: где обозначает супремум . Эта норма измеряет, насколько отображение, индуцированное , может растянуть векторы. В зависимости от используемых векторных норм , для операторной нормы могут использоваться обозначения, отличные от .

Нормы матрицы, индуцированные векторомп-нормы

Если p -норма для векторов ( ) используется для обоих пространств , то соответствующая операторная норма равна: [2] Эти индуцированные нормы отличаются от p -норм «по входу» и p -норм Шаттена для матриц, рассматриваемых ниже, которые также обычно обозначаются как

Геометрически говоря, можно представить себе единичный шар p -нормы в , затем применить к шару линейное отображение . В итоге он станет искаженной выпуклой формой , и будет измерять самый длинный «радиус» искаженной выпуклой формы. Другими словами, мы должны взять единичный шар p -нормы в , затем умножить его по крайней мере на , чтобы он был достаточно большим, чтобы вместить .

п= 1, ∞

Когда , у нас есть простые формулы. которая является просто максимальной абсолютной суммой столбцов матрицы. которая является просто максимальной абсолютной суммой строк матрицы. Например, для мы имеем, что

Спектральная норма (п= 2)

Когда ( евклидова норма или -норма для векторов), индуцированная матричная норма является спектральной нормой . (Эти два значения не совпадают в бесконечных измерениях — см. Спектральный радиус для дальнейшего обсуждения. Спектральный радиус не следует путать со спектральной нормой.) Спектральная норма матрицы является наибольшим сингулярным значением ( т. е. квадратным корнем наибольшего собственного значения матрицы , где обозначает сопряженное транспонирование ) : [5] где представляет наибольшее сингулярное значение матрицы

Есть и другие свойства:

Нормы матрицы, индуцированные векторомα- иβ-нормы

Мы можем обобщить приведенное выше определение. Предположим, что у нас есть векторные нормы и для пространств и соответственно; соответствующая операторная норма есть В частности, определенное ранее является частным случаем .

В частных случаях и индуцированные матричные нормы можно вычислить по формуле, где — i-я строка матрицы .

В частных случаях и индуцированные матричные нормы можно вычислить по формуле, где — j-й столбец матрицы .

Следовательно, и являются максимальной строкой и столбцом 2-нормы матрицы соответственно.

Характеристики

Любая норма оператора согласуется с векторными нормами, которые ее индуцируют, что дает

Предположим, что ; ; и являются нормами операторов, индуцированными соответствующими парами норм векторов ; ; и . Тогда,

это следует из и

Квадратные матрицы

Предположим, что — операторная норма на пространстве квадратных матриц, индуцированная векторными нормами и . Тогда операторная норма — субмультипликативной матричной нормой:

Более того, любая такая норма удовлетворяет неравенству

для всех положительных целых чисел r , где ρ ( A )спектральный радиус A . Для симметричного или эрмитового A мы имеем равенство в ( 1 ) для 2-нормы, поскольку в этом случае 2-норма — это в точности спектральный радиус A . Для произвольной матрицы мы можем не иметь равенства ни для какой нормы; контрпримером будет , которая имеет нулевой спектральный радиус. В любом случае, для любой матричной нормы мы имеем формулу спектрального радиуса :

Последовательные и совместимые нормы

Матричная норма на называется согласованной с векторной нормой на и векторной нормой на , если: для всех и всех . В частном случае m = n и , также называется согласованной с .

Все индуцированные нормы согласованы по определению. Кроме того, любая субмультипликативная матричная норма на индуцирует совместимую векторную норму на , определяя .

Нормы матрицы «по входу»

Эти нормы рассматривают матрицу как вектор размера и используют одну из известных векторных норм. Например, используя p -норму для векторов, p ≥ 1 , мы получаем:

Это норма, отличная от индуцированной p -нормы (см. выше) и p -нормы Шаттена (см. ниже), но обозначения те же.

Частным случаем p = 2 является норма Фробениуса, а p = ∞ дает максимальную норму.

Л 2,1иЛ п,qнормы

Пусть будут столбцами матрицы . Из исходного определения матрица представляет n точек данных в m-мерном пространстве. Норма [6] есть сумма евклидовых норм столбцов матрицы:

Норма как функция ошибок более надежна, поскольку ошибка для каждой точки данных (столбца) не возводится в квадрат. Она используется в надежном анализе данных и разреженном кодировании .

При p , q ≥ 1 норму можно обобщить до нормы следующим образом:

норма Фробениуса

Когда p = q = 2 для нормы, она называется нормой Фробениуса или нормой Гильберта–Шмидта , хотя последний термин чаще используется в контексте операторов на (возможно, бесконечномерном) гильбертовом пространстве . Эта норма может быть определена различными способами:

где след — это сумма диагональных элементов, а — сингулярные значения . Второе равенство доказано явным вычислением . Третье равенство доказано разложением по сингулярным значениям , и тем фактом, что след инвариантен относительно круговых сдвигов.

Норма Фробениуса является расширением евклидовой нормы и происходит от скалярного произведения Фробениуса на пространстве всех матриц.

Норма Фробениуса является субмультипликативной и очень полезна для числовой линейной алгебры . Субмультипликативность нормы Фробениуса может быть доказана с помощью неравенства Коши–Шварца .

Норму Фробениуса часто легче вычислить, чем индуцированные нормы, и она обладает полезным свойством инвариантности относительно вращенийунитарных операций в целом). То есть для любой унитарной матрицы . Это свойство следует из циклической природы следа ( ):

и аналогично:

где мы использовали унитарную природу (то есть ).

Это также удовлетворяет

и

где — скалярное произведение Фробениуса , а Re — действительная часть комплексного числа (не имеет значения для действительных матриц)

Макс норма

Максимальная норма — это поэлементная норма в пределе, когда p = q стремится к бесконечности:

Эта норма не является субмультипликативной, но изменение правой части делает ее таковой.

Обратите внимание, что в некоторой литературе (например, « Сложность связи ») альтернативное определение максимальной нормы, также называемой -нормой , относится к норме факторизации:

нормы Шаттена

P -нормы Шаттена возникают при применении p -нормы к вектору сингулярных значений матрицы. [2] Если сингулярные значения матрицы обозначаются как σ i , то p -норма Шаттена определяется как

Эти нормы снова имеют ту же нотацию, что и индуцированные и входные p -нормы, но они различны.

Все нормы Шаттена являются субмультипликативными. Они также унитарно инвариантны, что означает, что для всех матриц и всех унитарных матриц и .

Наиболее известные случаи — это p = 1, 2, ∞. Случай p = 2 дает норму Фробениуса, введенную ранее. Случай p = ∞ дает спектральную норму, которая является операторной нормой, индуцированной векторной 2-нормой (см. выше). Наконец, p = 1 дает ядерную норму (также известную как норма следа или норма Ки Фана 'n' [7] ), определяемую как:

где обозначает положительно полуопределенную матрицу такую, что . Точнее, поскольку — положительно полуопределенная матрица , ее квадратный корень хорошо определен. Ядерная норма — это выпуклая оболочка ранговой функции , поэтому она часто используется в математической оптимизации для поиска матриц низкого ранга.

Объединение неравенства следов фон Неймана с неравенством Гёльдера для евклидова пространства дает версию неравенства Гёльдера для норм Шаттена для :

В частности, это подразумевает неравенство нормы Шаттена

Монотонные нормы

Матричная норма называется монотонной , если она монотонна относительно порядка Левнера . Таким образом, матричная норма возрастает, если

Примерами монотонных норм являются норма Фробениуса и спектральная норма. [8]

Сокращение норм

Другой источник вдохновения для матричных норм возникает при рассмотрении матрицы как матрицы смежности взвешенного ориентированного графа . [9] Так называемая «норма разреза» измеряет, насколько близок связанный граф к двудольному : где A K m × n . [ 9] [10] [11] Эквивалентные определения (с точностью до постоянного множителя) налагают условия 2| S | > n & 2| T | > ​​m ; S = T ; или ST = ∅ . [10]

Норма разреза эквивалентна индуцированной операторной норме ‖·‖ ∞→1 , которая сама по себе эквивалентна другой норме, называемой нормой Гротендика . [11]

Чтобы определить норму Гротендика, сначала отметим, что линейный оператор K 1K 1 является просто скаляром и, таким образом, расширяется до линейного оператора на любом K kK k . Более того, при любом выборе базиса для K n и K m любой линейный оператор K nK m расширяется до линейного оператора ( K k ) n → ( K k ) m , позволяя каждому элементу матрицы на элементах K k посредством скалярного умножения. Норма Гротендика является нормой этого расширенного оператора; в символах: [11]

Норма Гротендика зависит от выбора базиса (обычно в качестве стандартного базиса ) и k .

Эквивалентность норм

Для любых двух матричных норм и имеем:

для некоторых положительных чисел r и s , для всех матриц . Другими словами, все нормы на эквивалентны ; они индуцируют одну и ту же топологию на . Это верно, поскольку векторное пространство имеет конечную размерность .

Более того, для каждой матричной нормы на существует единственное положительное действительное число, такое что является субмультипликативной матричной нормой для каждого ; а именно,

Норма субмультипликативной матрицы называется минимальной , если не существует другой нормы субмультипликативной матрицы, удовлетворяющей .

Примеры эквивалентности норм

Давайте еще раз обратимся к норме, индуцированной векторной p -нормой (как выше в разделе «Индуцированная норма»).

Для матрицы ранга справедливы следующие неравенства: [12] [ 13]

Смотрите также

Примечания

  1. ^ Условие применяется только тогда, когда произведение определено, например, в случае квадратных матриц ( m = n ).

Ссылки

  1. ^ ab Weisstein, Eric W. "Matrix Norm". mathworld.wolfram.com . Получено 24.08.2020 .
  2. ^ abcd "Матричные нормы". fourier.eng.hmc.edu . Получено 2020-08-24 .
  3. ^ Малек-Шахмирзади, Массуд (1983). «Характеристика некоторых классов матричных норм». Линейная и полилинейная алгебра . 13 (2): 97–99. doi :10.1080/03081088308817508. ISSN  0308-1087.
  4. ^ Хорн, Роджер А. (2012). Матричный анализ . Джонсон, Чарльз Р. (2-е изд.). Кембридж: Cambridge University Press. стр. 340–341. ISBN 978-1-139-77600-4. OCLC  817236655.
  5. Карл Д. Мейер, Матричный анализ и прикладная линейная алгебра, §5.2, стр.281, Общество промышленной и прикладной математики, июнь 2000 г.
  6. ^ Дин, Крис; Чжоу, Дин; Хэ, Сяофэн; Чжа, Хунъюань (июнь 2006 г.). "R1-PCA: Rotational Invariant L1-norm Principal Component Analysis for Robust Subspace Factorization". Труды 23-й Международной конференции по машинному обучению . ICML '06. Питтсбург, Пенсильвания, США: ACM. стр. 281–288. doi :10.1145/1143844.1143880. ISBN 1-59593-383-2.
  7. ^ Фань, Кентукки (1951). «Максимальные свойства и неравенства для собственных значений вполне непрерывных операторов». Труды Национальной академии наук Соединенных Штатов Америки . 37 (11): 760–766. Bibcode :1951PNAS...37..760F. doi : 10.1073/pnas.37.11.760 . PMC 1063464 . PMID  16578416. 
  8. ^ Ciarlet, Philippe G. (1989). Введение в численную линейную алгебру и оптимизацию . Кембридж, Англия: Cambridge University Press. стр. 57. ISBN 0521327881.
  9. ^ ab Frieze, Alan; Kannan, Ravi (1999-02-01). «Быстрое приближение матриц и его применение». Combinatorica . 19 (2): 175–220. doi :10.1007/s004930050052. ISSN  1439-6912. S2CID  15231198.
  10. ^ ab Lovász László (2012). "Расстояние разреза". Большие сети и пределы графов . Публикации AMS Colloquium. Том 60. Провиденс, Род-Айленд: Американское математическое общество. С. 127–131. ISBN 978-0-8218-9085-1. Обратите внимание, что Ловас масштабирует A так, чтобы он лежал в [0, 1] .
  11. ^ abc Алон, Нога ; Наор, Ассаф (2004-06-13). «Аппроксимация нормы сечения с помощью неравенства Гротендика». Труды тридцать шестого ежегодного симпозиума ACM по теории вычислений . STOC '04. Чикаго, Иллинойс, США: Ассоциация вычислительной техники. стр. 72–80. doi :10.1145/1007352.1007371. ISBN 978-1-58113-852-8. S2CID  1667427.
  12. ^ Голуб, Джин ; Чарльз Ф. Ван Лоан (1996). Матричные вычисления – Третье издание. Балтимор: Издательство Университета Джонса Хопкинса, 56–57. ISBN 0-8018-5413-X . 
  13. ^ Роджер Хорн и Чарльз Джонсон. Анализ матриц, Глава 5, Cambridge University Press, 1985. ISBN 0-521-38632-2

Библиография