Норма в векторном пространстве матриц
В области математики нормы определяются для элементов векторного пространства . В частности, когда векторное пространство содержит матрицы, такие нормы называются матричными нормами . Матричные нормы отличаются от векторных тем, что они также должны взаимодействовать с матричным умножением.
Предварительные сведения
Пусть задано поле действительных или комплексных чисел , пусть - K - векторное пространство матриц со строками, столбцами и элементами в поле . Матричная норма является нормой на .![{\displaystyle K}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle м}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Нормы часто обозначаются двойной вертикальной чертой (например: ). Таким образом, матричная норма – это функция , которая должна удовлетворять следующим свойствам: [1] [2]
![{\displaystyle \|\cdot \|:K^{m\times n} \to \mathbb {R} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для всех скаляров и матриц![{\displaystyle \alpha \in K}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A,B\in K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
( положительное значение )
( определенный )
( абсолютно однородный )
( субаддитивный или удовлетворяющий неравенству треугольника )
Единственная особенность, отличающая матрицы от переставленных векторов, — это умножение . Матричные нормы особенно полезны, если они также являются субмультипликативными : [1] [2] [3]
[Примечание 1]
Любую норму на K n × n можно масштабировать до субмультипликативной; в некоторых книгах норма терминологической матрицы зарезервирована для субмультипликативных норм. [4]
Матричные нормы, индуцированные векторными нормами
Предположим, что векторная норма on и векторная норма on заданы. Любая матрица A индуцирует линейный оператор от до относительно стандартного базиса, и соответствующая индуцированная норма , или операторная норма , или подчиненная норма определяется в пространстве всех матриц следующим образом:![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle m\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle m\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}\|A\|_{\alpha,\beta }&=\sup\{\|Ax\|_{\beta }:x\in K^{n}{\text { with }}\|x\|_{\alpha }=1\}\\&=\sup \left\{{\frac {\|Ax\|_{\beta }}{\|x\|_ {\alpha }}}:x\in K^{n}{\text{ with }}x\neq 0\right\}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
верхнюю грань![{\displaystyle \sup}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_ {\альфа,\бета}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Матричные нормы, индуцированные векторными p-нормами
Если p -норма для векторов ( ) используется для обоих пространств и тогда соответствующая операторная норма равна: [2]![{\displaystyle 1\leq p\leq \infty}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p}=\sup _{x\neq 0}{\frac {\|Ax\|_{p}}{\|x\|_{p}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
p-p
-норм Шаттена![{\displaystyle \|A\|_{p}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
С геометрической точки зрения, можно представить единичный шар с p-нормой в , а затем применить к шару линейное отображение . В конечном итоге он станет искаженной выпуклой формой и будет измерять самый длинный «радиус» искаженной выпуклой формы. Другими словами, мы должны взять единичный шар p-нормы в , а затем умножить его как минимум на , чтобы он стал достаточно большим, чтобы содержать .![{\displaystyle V_{p,n}=\{x\in K^{n}:\|x\|_{p}=1\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle AV_{p,n}\subset K^{m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V_{p,m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle AV_{p,n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
р = 1, ∞
Когда , у нас есть простые формулы.![{\ displaystyle p = 1, \ infty }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{1}=\max _{1\leq j\leq n}\sum _{i=1}^{m}|a_{ij}|,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{\infty } =\max _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A={\begin{bmatrix}-3&5&7\\2&6&4\\0&2&8\\\end{bmatrix}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{1}=\max(|{-3}|+2+0;5+6+2;7+4+8)=\max(5,13,19)= 19,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{\infty }=\max(|{-3}|+5+7;2+6+4;0+2+8)=\max(15,12,10) =15.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Спектральная норма (p = 2)
Когда ( евклидова норма или -норма для векторов) норма индуцированной матрицы является спектральной нормой . (Эти два значения не совпадают в бесконечных измерениях — дальнейшее обсуждение см. в разделе «Спектральный радиус» .) Спектральная норма матрицы — это наибольшее сингулярное значение ( т. е. квадратный корень из наибольшего собственного значения матрицы, где обозначает сопряженное транспонирование матрицы ). ): [5]![{\displaystyle p=2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \ell _{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*}A,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{2}={\sqrt {\lambda _{\max }\left(A^{*}A\right)}}=\sigma _{\max }(A). }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _ {\max }(A)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Есть еще свойства:
Доказывается неравенством Коши–Шварца .
. Доказано методом сингулярного разложения (SVD) на .![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
, где норма Фробениуса. Равенство выполняется тогда и только тогда, когда матрица является матрицей первого ранга или нулевой матрицей.![{\displaystyle \|A\|_{\textrm {F}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
.
Матричные нормы, индуцированные векторными α- и β-нормами
Мы можем обобщить приведенное выше определение. Предположим, у нас есть векторные нормы и для пространств и соответственно; соответствующая операторная норма равна![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{\alpha ,\beta }=\sup _{x\neq 0}{\frac {\|Ax\|_{\beta }}{\|x\|_{\ альфа }}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p,p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В особых случаях и индуцированные матричные нормы можно вычислить по формуле![{\displaystyle \alpha =2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \beta =\infty }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{2,\infty } =\max _{1\leq i\leq m} \|A_{i:}\|_{2},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{i:}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В особых случаях и индуцированные матричные нормы можно вычислить по формуле![{\displaystyle \alpha =1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \beta =2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{1,2} =\max _{1\leq j\leq n}\|A_{:j}\|_{2},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{:j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Следовательно, и – максимальная 2-норма строки и столбца матрицы соответственно.![{\displaystyle \|A\|_{2,\infty }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{1,2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Характеристики
Любая операторная норма согласуется с индуцирующими ее векторными нормами, что дает
![{\displaystyle \|Ax\|_{\beta }\leq \|A\|_{\alpha,\beta }\|x\|_{\alpha }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Предполагать ; ; и – операторные нормы, индуцированные соответствующими парами векторных норм ; ; и . Затем,![{\displaystyle \|\cdot \|_ {\альфа,\бета}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_ {\бета,\гамма}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_ {\альфа,\гамма}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle (\|\cdot \|_{\alpha },\|\cdot \|_{\beta })}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle (\|\cdot \|_ {\beta }, \|\cdot \|_ {\gamma })}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle (\|\cdot \|_{\alpha },\|\cdot \|_{\gamma })}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|AB\|_{\alpha,\gamma}\leq \|A\|_{\beta,\gamma }\|B\|_{\alpha,\beta};}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
это следует из
![{\displaystyle \|ABx\|_{\gamma }\leq \|A\|_{\beta,\gamma }\|Bx\|_{\beta }\leq \|A\|_{\beta, \gamma }\|B\|_{\alpha ,\beta }\|x\|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sup _ {\|x\|_{\alpha } = 1} \|ABx\|_{\gamma } = \|AB\|_{\alpha,\gamma }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадратные матрицы
Пусть – операторная норма в пространстве квадратных матриц,
индуцированная векторными нормами и . Тогда норма оператора является субмультипликативной матричной нормой: ![{\displaystyle \|\cdot \|_ {\альфа,\альфа }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|AB\|_{\alpha,\alpha}\leq \|A\|_{\alpha,\alpha }\|B\|_{\alpha,\alpha }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Более того, любая такая норма удовлетворяет неравенству
для всех положительных целых чисел r , где ρ ( A ) — спектральный радиус A. Для симметричного или эрмитового A мы имеем равенство в ( 1 ) для 2-нормы, так как в этом случае 2-норма является в точности спектральным радиусом A. Для произвольной матрицы мы не можем иметь равенства ни по какой норме; контрпримером будет
![{\displaystyle A={\begin{bmatrix}0&1\\0&0\end{bmatrix}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
формулу спектрального радиуса![{\displaystyle \lim _ {r\to \infty } \|A^{r}\|^{1/r}=\rho (A).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Последовательные и совместимые нормы
Матричная норма на называется согласованной с векторной нормой на и векторной нормой на , если:![{\displaystyle \|\cdot \|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left\|Ax\right\|_{\beta }\leq \left\|A\right\|\left\|x\right\|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
m = nсовместимым![{\displaystyle A\in K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \альфа =\бета}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Все индуцированные нормы непротиворечивы по определению. Кроме того, любая субмультипликативная матричная норма на индуцирует совместимую векторную норму путем определения .![{\displaystyle K^{n\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left\|v\right\|:=\left\|\left(v,v,\dots,v\right)\right\|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
«Входные» матричные нормы
Эти нормы рассматривают матрицу как вектор размера и используют одну из знакомых векторных норм. Например, используя p -норму для векторов p ≥ 1 , мы получаем:![{\displaystyle m\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle м\cdot n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p,p}=\|\mathrm {vec} (A)\|_{p}=\left(\sum _{i=1}^{m}\sum _ {j=1}^{n}|a_{ij}|^{p}\right)^{1/p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Это норма, отличная от индуцированной p -нормы (см. выше) и p -нормы Шаттена (см. ниже), но обозначения те же.
Частный случай p = 2 — это норма Фробениуса, а p = ∞ дает максимальную норму.
Нормы L 2,1 и L p,q
Позвольте быть столбцами матрицы . Согласно исходному определению, матрица представляет n точек данных в m-мерном пространстве. Норма [6] представляет собой сумму евклидовых норм столбцов матрицы:![{\displaystyle (a_{1},\ldots,a_{n})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle L_{2,1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{2,1}=\sum _{j=1}^{n}\|a_{j}\|_{2}=\sum _{j=1}^{ n}\left(\sum _{i=1}^{m}|a_{ij}|^{2}\right)^{\frac {1}{2}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма как функция ошибок более надежна, поскольку ошибка для каждой точки данных (столбца) не возводится в квадрат. Он используется для надежного анализа данных и разреженного кодирования .![{\displaystyle L_{2,1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
При p , q ≥ 1 норму можно обобщить до нормы следующим образом:![{\displaystyle L_{2,1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle L_ {p,q}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p,q} =\left(\sum _{j=1}^{n}\left(\sum _{i=1}^{m}|a_{ij} |^{p}\right)^{\frac {q}{p}}\right)^{\frac {1}{q}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма Фробениуса
Когда p = q = 2 для нормы, это называется нормой Фробениуса или нормой Гильберта – Шмидта , хотя последний термин чаще используется в контексте операторов в (возможно, бесконечномерном) гильбертовом пространстве . Эту норму можно определить по-разному:![{\displaystyle L_ {p,q}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{\text{F}}={\sqrt {\sum _{i}^{m}\sum _{j}^{n}|a_{ij}|^{2 }}}={\sqrt {\operatorname {trace} \left(A^{*}A\right)}}={\sqrt {\sum _{i=1}^{\min\{m,n\ }}\sigma _{i}^{2}(A)}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где след представляет собой сумму диагональных элементов и являются сингулярными значениями . Второе равенство доказывается явным вычислением . Третье равенство доказывается разложением по сингулярным значениям и тем фактом, что след инвариантен относительно круговых сдвигов.![{\displaystyle \sigma _{i}(A)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {trace} (A^{*}A)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма Фробениуса является расширением евклидовой нормы и вытекает из внутреннего произведения Фробениуса в пространстве всех матриц.![{\displaystyle K^{n\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма Фробениуса субмультипликативна и очень полезна для числовой линейной алгебры . Субмультипликативность нормы Фробениуса можно доказать с помощью неравенства Коши – Шварца .
Норму Фробениуса часто легче вычислить, чем индуцированные нормы, и она обладает полезным свойством инвариантности относительно вращений (и унитарных операций в целом). То есть для любой унитарной матрицы . Это свойство следует из цикличности трассы ( ):![{\displaystyle \|A\|_{\text{F}}=\|AU\|_{\text{F}} = \|UA\|_{\text{F}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {trace} (XYZ) = \operatorname {trace} (ZXY)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|AU\|_{\text{F}}^{2}=\operatorname {trace} \left((AU)^{*}AU\right)=\operatorname {trace} \left(U ^{*}A^{*}AU\right)=\operatorname {trace} \left(UU^{*}A^{*}A\right)=\operatorname {trace} \left(A^{*} A\right)=\|A\|_{\text{F}}^{2},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
и аналогично:
![{\displaystyle \|UA\|_{\text{F}}^{2}=\operatorname {trace} \left((UA)^{*}UA\right)=\operatorname {trace} \left(A ^{*}U^{*}UA\right)=\operatorname {trace} \left(A^{*}A\right)=\|A\|_{\text{F}}^{2}, }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где мы использовали унитарный характер (т.е. ).![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U^{*}U=UU^{*}=\mathbf {I} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Это также удовлетворяет
![{\displaystyle \|A^{*}A\|_{\text{F}}=\|AA^{*}\|_{\text{F}}\leq \|A\|_{\text {F}}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
и
![{\displaystyle \|A+B\|_{\text{F}}^{2}=\|A\|_{\text{F}}^{2}+\|B\|_{\text {F}}^{2}+2Re\left(\langle A,B\rangle _{\text{F}}\right),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где — внутренний продукт Фробениуса , а Re — действительная часть комплексного числа (не имеет значения для вещественных матриц)![{\displaystyle \langle A,B\rangle _ {\text{F}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Макс норма
Максимальная норма — это поэлементная норма в пределе, когда p = q стремится к бесконечности:
![{\displaystyle \|A\|_{\max }=\max _{ij}|a_{ij}|.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Эта норма не является субмультипликативной.
Обратите внимание, что в некоторой литературе (например, « Коммуникационная сложность ») альтернативное определение максимальной нормы, также называемое -нормой , относится к норме факторизации:![{\displaystyle \gamma _{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \gamma _{2}(A)=\min _{U,V:A=UV^{T}} \|U\|_{2,\infty }\|V\|_{2, \infty }=\min _{U,V:A=UV^{T}}\max _{i,j}\|U_{i,:}\|_{2}\|V_{j,:} \|_{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Нормы Шаттена
p -нормы Шаттена возникают при применении p -нормы к вектору сингулярных значений матрицы. [2] Если сингулярные значения матрицы обозначаются σ i , то p -норма Шаттена определяется формулой![{\displaystyle m\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{p}=\left(\sum _{i=1}^{\min\{m,n\}}\sigma _{i}^{p}(A)\ вправо)^{1/p}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Эти нормы снова имеют те же обозначения, что и индуцированные и входные p- нормы, но они различны.
Все нормы Шаттена субмультипликативны. Они также унитарно инвариантны, что означает, что для всех матриц и всех унитарных матриц и .![{\displaystyle \|A\|=\|БПЛА\|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Наиболее знакомые случаи — p = 1, 2, ∞. Случай p = 2 дает введенную ранее норму Фробениуса. Случай p = ∞ дает спектральную норму, которая представляет собой операторную норму, индуцированную векторной 2-нормой (см. выше). Наконец, p = 1 дает ядерную норму (также известную как норма следа или 'n'-норма Кай Фана [7] ), определяемую как:
![{\displaystyle \|A\|_{*}=\operatorname {trace} \left({\sqrt {A^{*}A}}\right)=\sum _{i=1}^{\min\ {m,n\}}\sigma _{i}(A),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где обозначает положительную полуопределенную матрицу такую, что . Точнее, поскольку – положительно полуопределенная матрица , ее квадратный корень корректно определен. Ядерная норма представляет собой выпуклую оболочку ранговой функции , поэтому ее часто используют в математической оптимизации для поиска матриц низкого ранга.![{\displaystyle {\sqrt {A^{*}A}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle BB=A^{*}A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*}A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_ {*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\text{ранг}}(A)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Объединение неравенства следа фон Неймана с неравенством Гельдера для евклидова пространства дает версию неравенства Гельдера для норм Шаттена для :![{\displaystyle 1/p+1/q=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left|\operatorname {trace} (A'B)\right|\leq \|A\|_{p}\|B\|_{q},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В частности, отсюда следует нормовое неравенство Шаттена
![{\displaystyle \|A\|_{F}^{2}\leq \|A\|_{p}\|A\|_{q}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Монотонные нормы
Матричная норма называется монотонной, если она монотонна относительно порядка Лёвнера . Таким образом, норма матрицы возрастает, если![{\displaystyle \|\cdot \|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A\preccurlyeq B\Rightarrow \|A\|\leq \|B\|.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма Фробениуса и спектральная норма являются примерами монотонных норм. [8]
Вырезать нормы
Другим источником вдохновения для матричных норм является рассмотрение матрицы как матрицы смежности взвешенного ориентированного графа . [9] Так называемая «норма сокращения» измеряет, насколько близок связанный граф к двудольному :
![{\displaystyle \|A\|_{\Box } =\max _{S\subseteq [n],T\subseteq [m]}{\left|\sum _{s\in S,t\in T} {A_{t,s}}\right|}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
А ∈ К м × п[9] [10] [11]2| С | > п и 2 | Т | > мС = ТS ∩ Т знак равно ∅[10]Разрезанная норма эквивалентна индуцированной операторной норме ‖·‖ ∞→1 , которая сама по себе эквивалентна другой норме, называемой нормой Гротендика . [11]
Чтобы определить норму Гротендика, сначала заметим, что линейный оператор K 1 → K 1 является просто скаляром и, следовательно, продолжается до линейного оператора на любом K k → K k . Более того, при любом выборе базиса для K n и K m любой линейный оператор K n → K m расширяется до линейного оператора ( K k ) n → ( K k ) m , позволяя каждому матричному элементу на элементах K k через скалярное умножение. Норма Гротендика является нормой этого расширенного оператора; в обозначениях: [11]
![{\displaystyle \|A\|_{G,k}=\sup _{{\text{each }}u_{j},v_{j}\in K^{k};\|u_{j}\ |=\|v_{j}\|=1}{\sum _{j\in [n],\ell \in [m]}{(u_{j}\cdot v_{j})A_{\ell ,дж}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Норма Гротендика зависит от выбора базиса (обычно принимаемого за стандартный ) и k .
Эквивалентность норм
Для любых двух матричных норм и мы имеем следующее:![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle r\|A\|_{\alpha }\leq \|A\|_{\beta }\leq s\|A\|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
для некоторых положительных чисел r и s для всех матриц . Другими словами, все нормы на эквивалентны ; они индуцируют ту же самую топологию на . Это верно, поскольку векторное пространство имеет конечную размерность .![{\displaystyle A\in K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle K^{m\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle m\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Более того, для каждой векторной нормы на существует уникальное положительное действительное число такое, что является субмультипликативной матричной нормой для каждого .![{\displaystyle \|\cdot \|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {R} ^{n\times n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \ell \|\cdot \|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \ell \geq k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Субмультипликативная матричная норма называется минимальной , если не существует другой субмультипликативной матричной нормы, удовлетворяющей .![{\displaystyle \|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|\cdot \|_{\beta }<\|\cdot \|_{\alpha }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Примеры эквивалентности норм
Давайте еще раз обратимся к норме, индуцированной вектором p -нормой (как указано выше в разделе «Индуцированная норма»).![{\displaystyle \|A\|_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для матрицы ранга имеют место следующие неравенства: [12] [13]
![{\displaystyle г}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{2}\leq \|A\|_{F} \leq {\sqrt {r}}\|A\|_{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{F}\leq \|A\|_{*} \leq {\sqrt {r}} \|A\|_{F}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \|A\|_{\max }\leq \|A\|_{2} \leq {\sqrt {mn}}\|A\|_{\max }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {1}{\sqrt {n}}}\|A\|_{\infty }\leq \|A\|_{2}\leq {\sqrt {m}}\|A \|_{\infty }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {1}{\sqrt {m}}}\|A\|_{1}\leq \|A\|_{2}\leq {\sqrt {n}}\|A\ |_{1}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Смотрите также
Примечания
- ^ Условие применяется только в том случае, если продукт определен, например, в случае квадратных матриц ( m = n ).
Рекомендации
- ^ аб Вайсштейн, Эрик В. «Матричная норма». mathworld.wolfram.com . Проверено 24 августа 2020 г.
- ^ abcd «Матрица норм». fourier.eng.hmc.edu . Проверено 24 августа 2020 г.
- ^ Малек-Шахмирзади, Масуд (1983). «Характеристика некоторых классов матричных норм». Линейная и полилинейная алгебра . 13 (2): 97–99. дои : 10.1080/03081088308817508. ISSN 0308-1087.
- ^ Хорн, Роджер А. (2012). Матричный анализ . Джонсон, Чарльз Р. (2-е изд.). Кембридж: Издательство Кембриджского университета. стр. 340–341. ISBN 978-1-139-77600-4. ОСЛК 817236655.
- ^ Карл Д. Мейер, Матричный анализ и прикладная линейная алгебра, §5.2, стр.281, Общество промышленной и прикладной математики, июнь 2000 г.
- ^ Дин, Крис; Чжоу, Дин; Он, Сяофэн; Чжа, Хунъюань (июнь 2006 г.). «R1-PCA: Анализ главных компонентов вращательной инвариантной нормы L1 для устойчивой факторизации подпространства». Материалы 23-й Международной конференции по машинному обучению . ICML '06. Питтсбург, Пенсильвания, США: ACM. стр. 281–288. дои : 10.1145/1143844.1143880. ISBN 1-59593-383-2.
- ^ Фан, Кентукки (1951). «Максимальные свойства и неравенства для собственных значений вполне непрерывных операторов». Труды Национальной академии наук Соединенных Штатов Америки . 37 (11): 760–766. Бибкод : 1951PNAS...37..760F. дои : 10.1073/pnas.37.11.760 . ПМЦ 1063464 . ПМИД 16578416.
- ^ Сиарле, Филипп Г. (1989). Введение в численную линейную алгебру и оптимизацию . Кембридж, Англия: Издательство Кембриджского университета. п. 57. ИСБН 0521327881.
- ^ аб Фриз, Алан; Каннан, Рави (1 февраля 1999 г.). «Быстрое приближение к матрицам и приложениям». Комбинаторика . 19 (2): 175–220. дои : 10.1007/s004930050052. ISSN 1439-6912. S2CID 15231198.
- ^ аб Ловаш Ласло (2012). «Дистанция разреза». Большие сети и ограничения графов . Публикации коллоквиума AMS. Том. 60. Провиденс, Род-Айленд: Американское математическое общество. стр. 127–131. ISBN 978-0-8218-9085-1. Обратите внимание, что Ловас масштабирует ‖ A ‖ □ так, чтобы он лежал в [0, 1] .
- ^ abc Алон, Нога ; Наор, Ассаф (13 июня 2004 г.). «Аппроксимация нормы сокращения с помощью неравенства Гротендика». Материалы тридцать шестого ежегодного симпозиума ACM по теории вычислений . СТОК '04. Чикаго, Иллинойс, США: Ассоциация вычислительной техники. стр. 72–80. дои : 10.1145/1007352.1007371. ISBN 978-1-58113-852-8. S2CID 1667427.
- ^ Голуб, Джин ; Чарльз Ф. Ван Лоан (1996). Матричные вычисления – третье издание. Балтимор: Издательство Университета Джона Хопкинса, 56–57. ISBN 0-8018-5413-X .
- ^ Роджер Хорн и Чарльз Джонсон. Матричный анализ, глава 5, издательство Кембриджского университета, 1985. ISBN 0-521-38632-2 .
Библиография
- Джеймс В. Деммел , «Прикладная численная линейная алгебра», раздел 1.7, опубликовано SIAM, 1997.
- Карл Д. Мейер, Матричный анализ и прикладная линейная алгебра, опубликовано SIAM, 2000. [1]
- Джон Уотрус , Теория квантовой информации, 2.3 Нормы операторов, конспекты лекций, Университет Ватерлоо, 2011.
- Кендалл Аткинсон, Введение в численный анализ, опубликовано John Wiley & Sons, Inc, 1989 г.