В частности, сингулярное разложение комплексной матрицы является факторизацией вида , где является комплексной унитарной матрицей , является прямоугольной диагональной матрицей с неотрицательными действительными числами на диагонали, является комплексной унитарной матрицей и является сопряженной транспонированной матрицей . Такое разложение всегда существует для любой комплексной матрицы. Если является действительной, то и можно гарантировать, что они будут действительными ортогональными матрицами; в таких контекстах SVD часто обозначается
Диагональные элементы однозначно определяются и называются сингулярными значениями . Количество ненулевых сингулярных значений равно рангу . Столбцы и столбцы называются лево-сингулярными векторами и право-сингулярными векторами , соответственно. Они образуют два набора ортонормированных базисов и , и если они отсортированы так, что сингулярные значения со значением ноль находятся в столбцах (или строках) с наибольшими номерами, разложение сингулярных значений можно записать как
где ранг
SVD не является уникальным, однако всегда можно выбрать разложение таким образом, чтобы сингулярные значения располагались в порядке убывания. В этом случае (но не и ) однозначно определяется
Термин иногда относится к компактному SVD , похожему разложению , в котором является квадратной диагональю размера , где — это ранг и имеет только ненулевые сингулярные значения. В этом варианте является полуунитарной матрицей и является полуунитарной матрицей , такой что
В особом случае, когда является действительной квадратной матрицей , матрицы и также могут быть выбраны действительными матрицами. В этом случае «унитарный» — то же самое, что и « ортогональный ». Затем, интерпретируя как унитарные матрицы, так и диагональную матрицу, суммированную здесь как как линейное преобразование пространства матрицы и представляют повороты или отражение пространства, в то время как представляет масштабирование каждой координаты на коэффициент Таким образом, разложение SVD разбивает любое линейное преобразование на композицию трех геометрических преобразований : поворот или отражение ( ), за которым следует масштабирование по координатам ( ), за которым следует еще один поворот или отражение ( ).
В частности, если имеет положительный определитель, то и могут быть выбраны как оба вращения с отражениями или как оба вращения без отражений. [ необходима цитата ] Если определитель отрицательный, ровно один из них будет иметь отражение. Если определитель равен нулю, каждый из них может быть независимо выбран как относящийся к любому типу.
Если матрица действительная, но не квадратная, а именно с ее можно интерпретировать как линейное преобразование из в Тогда и могут быть выбраны в качестве вращений/отражений и соответственно; и помимо масштабирования первых координат, также расширяет вектор нулями, т.е. удаляет конечные координаты, чтобы превратить в
Сингулярные значения как полуоси эллипса или эллипсоида
Как показано на рисунке, сингулярные значения можно интерпретировать как величину полуосей эллипса в 2D. Эту концепцию можно обобщить на -мерное евклидово пространство , при этом сингулярные значения любой квадратной матрицы можно рассматривать как величину полуоси -мерного эллипсоида . Аналогично, сингулярные значения любой матрицы можно рассматривать как величину полуоси -мерного эллипсоида в -мерном пространстве, например, как эллипс в (наклонной) 2D-плоскости в 3D-пространстве. сингулярные значения кодируют величину полуоси, в то время как сингулярные векторы кодируют направление. Более подробную информацию см. ниже.
КолонныУиВявляются ортонормированными базисами
Поскольку и являются унитарными, столбцы каждого из них образуют набор ортонормированных векторов , которые можно рассматривать как базисные векторы . Матрица отображает базисный вектор в растянутый единичный вектор По определению унитарной матрицы то же самое верно для их сопряженных транспонированных и , за исключением того, что геометрическая интерпретация сингулярных значений как растяжек теряется. Короче говоря, столбцы и являются ортонормированными базисами . Когда является положительно-полуопределенной эрмитовой матрицей , и обе равны унитарной матрице, используемой для диагонализации . Однако, когда не является положительно-полуопределенной и эрмитовой, но все еще диагонализируемой , ее собственное разложение и разложение по сингулярным значениям различны.
Отношение к четырем фундаментальным подпространствам
Первые столбцы являются базисом столбчатого пространства .
Первые столбцы являются базисом пространства столбцов ( пространства строк в действительном случае).
Последние столбцы являются базисом нулевого пространства .
Геометрическое значение
Поскольку и являются унитарными, мы знаем, что столбцы из дают ортонормированный базис , а столбцы из дают ортонормированный базис (относительно стандартных скалярных произведений в этих пространствах).
имеет особенно простое описание относительно этих ортонормированных базисов: мы имеем
где — - й диагональный элемент и для
Геометрическое содержание теоремы SVD можно, таким образом, резюмировать следующим образом: для каждого линейного отображения можно найти ортонормированные базисы и такие, что отображает -й базисный вектор в неотрицательное кратное -го базисного вектора и отправляет оставшиеся базисные векторы в ноль. Относительно этих базисов отображение , таким образом, представлено диагональной матрицей с неотрицательными действительными диагональными элементами.
Чтобы получить более наглядное представление о сингулярных значениях и факторизации SVD — по крайней мере, при работе с реальными векторными пространствами — рассмотрим сферу радиуса один в Линейное отображение отображает эту сферу на эллипсоид в Ненулевые сингулярные значения — это просто длины полуосей этого эллипсоида. Особенно когда и все сингулярные значения различны и не равны нулю, SVD линейного отображения можно легко проанализировать как последовательность трех последовательных ходов: рассмотрим эллипсоид и, в частности, его оси; затем рассмотрим направления в , посланные на эти оси. Эти направления оказываются взаимно ортогональными. Сначала примените изометрию , отправив эти направления осям координат На втором ходу примените эндоморфизм , диагонализованный вдоль осей координат и растягивающийся или сжимающийся в каждом направлении, используя длины полуосей в качестве коэффициентов растяжения. Затем композиция отправляет единичную сферу на эллипсоид, изометричный Чтобы определить третий и последний ход, примените изометрию к этому эллипсоиду, чтобы получить Как можно легко проверить, композиция совпадает с
Пример
Рассмотрим матрицу
Сингулярное разложение этой матрицы задается формулой
Матрица масштабирования равна нулю вне диагонали (серый курсив), а один диагональный элемент равен нулю (красный полужирный, светло-синий полужирный в темном режиме). Кроме того, поскольку матрицы и являются унитарными , умножение на их соответствующие сопряженные транспонированные матрицы дает единичные матрицы , как показано ниже. В этом случае, поскольку и являются действительными, каждая из них является ортогональной матрицей .
Это частное разложение сингулярного значения не является уникальным. Выбор таким образом, что
также является допустимым разложением по сингулярным значениям.
SVD и спектральное разложение
Сингулярные значения, сингулярные векторы и их связь с SVD
Неотрицательное действительное число является сингулярным значением для тогда и только тогда, когда существуют векторы единичной длины в и в такие, что
Векторы и называются левосингулярными и правосингулярными векторами для соответственно.
В любом сингулярном разложении
диагональные элементы равны сингулярным значениям Первые столбцы и являются , соответственно, лево- и право-сингулярными векторами для соответствующих сингулярных значений. Следовательно, из вышеприведенной теоремы следует, что:
Матрица имеет не более различных сингулярных значений .
Всегда можно найти унитарный базис для с подмножеством базисных векторов, охватывающих левые сингулярные векторы каждого сингулярного значения
Всегда можно найти унитарный базис для с подмножеством базисных векторов, охватывающих правосингулярные векторы каждого сингулярного значения
Сингулярное значение, для которого мы можем найти два левых (или правых) сингулярных вектора, которые линейно независимы, называется вырожденным . Если и — два левых сингулярных вектора, которые оба соответствуют сингулярному значению σ, то любая нормализованная линейная комбинация двух векторов также является левосингулярным вектором, соответствующим сингулярному значению σ. Аналогичное утверждение верно для правосингулярных векторов. Количество независимых левых и правосингулярных векторов совпадает, и эти сингулярные векторы появляются в тех же столбцах и , соответствующих диагональным элементам , все с тем же значением
В качестве исключения левые и правые сингулярные векторы сингулярного значения 0 включают все единичные векторы в коядре и ядре , соответственно, , которые по теореме о ранге–нуле не могут быть одинаковой размерности, если Даже если все сингулярные значения не равны нулю, если то коядро нетривиально, и в этом случае дополняется ортогональными векторами из коядра. И наоборот, если то дополняется ортогональными векторами из ядра. Однако, если сингулярное значение существует, дополнительные столбцы или уже появляются как левые или правые сингулярные векторы.
Невырожденные сингулярные значения всегда имеют уникальные лево- и право-сингулярные векторы, с точностью до умножения на единично-фазовый множитель (для действительного случая с точностью до знака). Следовательно, если все сингулярные значения квадратной матрицы невырождены и не равны нулю, то ее сингулярное разложение уникально с точностью до умножения столбца на единично-фазовый множитель и одновременного умножения соответствующего столбца на тот же единично-фазовый множитель. В общем случае SVD уникально с точностью до произвольных унитарных преобразований, применяемых равномерно к векторам-столбцам как , так и , охватывающим подпространства каждого сингулярного значения, и с точностью до произвольных унитарных преобразований над векторами и , охватывающими ядро и коядро соответственно
Связь с разложением собственных значений
Разложение по сингулярным значениям является очень общим в том смысле, что его можно применить к любой матрице , тогда как разложение по собственным значениям можно применить только к квадратным диагонализируемым матрицам . Тем не менее, эти два разложения связаны.
Если имеет SVD , то выполняются следующие два соотношения:
Правые части этих соотношений описывают разложения собственных значений левых частей. Следовательно:
Столбцы ( называемые правыми сингулярными векторами) являются собственными векторами
Ненулевые элементы (ненулевые сингулярные значения) являются квадратными корнями ненулевых собственных значений или
В частном случае будучи нормальной матрицей , и, следовательно, также квадратной, спектральная теорема гарантирует, что она может быть унитарно диагонализирована с использованием базиса собственных векторов , и, таким образом, разложена как для некоторой унитарной матрицы и диагональной матрицы с комплексными элементами вдоль диагонали. Когда является положительно полуопределенной , будут неотрицательными действительными числами, так что разложение также является разложением по сингулярным значениям. В противном случае его можно переформулировать как SVD, переместив фазу каждого либо в соответствующую , либо Естественная связь SVD с ненормальными матрицами осуществляется через теорему о полярном разложении : где является положительно полуопределенной и нормальной, а является унитарным.
Таким образом, за исключением положительно полуопределенных матриц, разложение по собственным значениям и SVD матрицы хотя и связаны, различаются: разложение по собственным значениям где не обязательно унитарно и не обязательно положительно полуопределено, в то время как SVD где является диагональным и положительно полуопределенным, а и являются унитарными матрицами, которые не обязательно связаны, за исключением матрицы В то время как только недефектные квадратные матрицы имеют разложение по собственным значениям, любая матрица имеет SVD.
Применение СВД
Псевдообратный
Сингулярное разложение может быть использовано для вычисления псевдообратной матрицы. Псевдообратная матрица матрицы с сингулярным разложением имеет вид
где — псевдообратная матрица , которая формируется путем замены каждого ненулевого диагонального элемента на его обратную величину и транспонирования полученной матрицы. Псевдообратная матрица — один из способов решения линейных задач наименьших квадратов .
Решение однородных линейных уравнений
Набор однородных линейных уравнений можно записать как для матрицы и вектора Типичная ситуация заключается в том, что известно и необходимо определить ненулевое , которое удовлетворяет уравнению. Такое принадлежит нулевому пространству и иногда называется (правым) нулевым вектором Вектор можно охарактеризовать как право-сингулярный вектор, соответствующий сингулярному значению , которое равно нулю. Это наблюдение означает, что если является квадратной матрицей и не имеет исчезающего сингулярного значения, уравнение не имеет ненулевого в качестве решения. Это также означает, что если имеется несколько исчезающих сингулярных значений, любая линейная комбинация соответствующих право-сингулярных векторов является допустимым решением. Аналогично определению (правого) нулевого вектора, ненулевой удовлетворяющий с обозначающий сопряженное транспонирование , называется левым нулевым вектором
Минимизация методом наименьших квадратов
Задача наименьших квадратов ищет вектор , который минимизирует 2-норму вектора при ограничении Решением оказывается право-сингулярный вектор , соответствующий наименьшему сингулярному значению.
Диапазон, пустое пространство и ранг
Другое применение SVD заключается в том, что оно обеспечивает явное представление диапазона и нулевого пространства матрицы Правые сингулярные векторы, соответствующие исчезающим сингулярным значениям , охватывают нулевое пространство , а левые сингулярные векторы, соответствующие ненулевым сингулярным значениям , охватывают диапазон Например, в приведенном выше примере нулевое пространство охватывается последней строкой , а диапазон охватывается первыми тремя столбцами
Как следствие, ранг равен числу ненулевых сингулярных значений, что равно числу ненулевых диагональных элементов в . В числовой линейной алгебре сингулярные значения могут использоваться для определения эффективного ранга матрицы, поскольку ошибка округления может привести к небольшим , но ненулевым сингулярным значениям в матрице с дефицитом ранга. Предполагается, что сингулярные значения за пределами значительного промежутка численно эквивалентны нулю.
Низкоранговая аппроксимация матрицы
Некоторые практические приложения требуют решения задачи аппроксимации матрицы другой матрицей , называемой усеченной, которая имеет определенный ранг . В случае, если аппроксимация основана на минимизации нормы Фробениуса разности между и при ограничении, что оказывается, что решение дается SVD а именно
где — та же матрица, что и , за исключением того, что она содержит только наибольшие сингулярные значения (остальные сингулярные значения заменяются нулем). Это известно как теорема Эккарта–Янга , поскольку она была доказана этими двумя авторами в 1936 году (хотя позже выяснилось, что она была известна и более ранним авторам; см. Stewart 1993).
Разборные модели
SVD можно рассматривать как разложение матрицы на взвешенную, упорядоченную сумму разделимых матриц. Под разделимой мы подразумеваем, что матрица может быть записана как внешнее произведение двух векторов или, в координатах, В частности, матрица может быть разложена как,
Здесь и являются -ыми столбцами соответствующих матриц SVD, являются упорядоченными сингулярными значениями, и каждое является разделимым. SVD можно использовать для нахождения разложения фильтра обработки изображений на разделимые горизонтальные и вертикальные фильтры. Обратите внимание, что количество ненулевых в точности равно рангу матрицы. [ необходима цитата ] Разделимые модели часто возникают в биологических системах, и факторизация SVD полезна для анализа таких систем. Например, некоторые рецептивные поля простых клеток зрительной области V1 могут быть хорошо описаны [1] фильтром Габора в пространственной области, умноженным на функцию модуляции во временной области. Таким образом, учитывая линейный фильтр, оцененный, например, через обратную корреляцию , можно перестроить два пространственных измерения в одно измерение, тем самым получив двумерный фильтр (пространство, время), который можно разложить с помощью SVD. Первый столбец в факторизации SVD тогда является Габором, в то время как первый столбец представляет собой модуляцию времени (или наоборот). Затем можно определить индекс разделимости
что является долей мощности в матрице M, которая учитывается первой разделимой матрицей в разложении. [2]
Ближайшая ортогональная матрица
Можно использовать SVD квадратной матрицы для определения ортогональной матрицы , ближайшей к Близость соответствия измеряется нормой Фробениуса Решением является произведение [3] Это интуитивно имеет смысл, поскольку ортогональная матрица имела бы разложение где — единичная матрица, так что если то произведение равнозначно замене сингулярных значений на единицы. Эквивалентно, решением является унитарная матрица полярного разложения в любом порядке растяжения и вращения, как описано выше.
Похожая задача, имеющая интересное применение в анализе формы , — это ортогональная задача Прокруста , которая состоит в нахождении ортогональной матрицы , которая наиболее точно отображает в В частности,
где обозначает норму Фробениуса.
Эта задача эквивалентна нахождению ближайшей ортогональной матрицы к заданной матрице .
Алгоритм Кабша
Алгоритм Кабша (в других областях называемый проблемой Вахбы ) использует SVD для вычисления оптимального поворота (по отношению к минимизации наименьших квадратов), который выровняет набор точек с соответствующим набором точек. Он используется, среди прочего, для сравнения структур молекул.
В общем численном вычислении, включающем линейные или линеаризованные системы, существует универсальная константа, которая характеризует регулярность или сингулярность проблемы, которая является «числом состояния» системы . Она часто контролирует частоту ошибок или скорость сходимости заданной вычислительной схемы в таких системах. [10] [11]
SVD также играет важную роль в области квантовой информации , в форме, часто называемой разложением Шмидта . С его помощью состояния двух квантовых систем естественным образом разлагаются, обеспечивая необходимое и достаточное условие для их запутывания : если ранг матрицы больше единицы.
Одно из применений SVD к довольно большим матрицам — это численное прогнозирование погоды , где методы Ланцоша используются для оценки нескольких наиболее линейно быстро растущих возмущений центрального численного прогноза погоды за заданный начальный период времени вперед; т. е. сингулярных векторов, соответствующих наибольшим сингулярным значениям линеаризованного пропагатора для глобальной погоды за этот временной интервал. Выходные сингулярные векторы в этом случае представляют собой целые погодные системы. Затем эти возмущения пропускаются через полную нелинейную модель для генерации ансамблевого прогноза , что дает возможность справиться с некоторой неопределенностью, которую следует учитывать вокруг текущего центрального прогноза.
SVD также применялся к моделированию пониженного порядка. Целью моделирования пониженного порядка является уменьшение числа степеней свободы в сложной системе, которая должна быть смоделирована. SVD был связан с радиальными базисными функциями для интерполяции решений трехмерных задач нестационарного потока. [12]
Интересно, что SVD использовался для улучшения моделирования формы гравитационных волн с помощью наземного гравитационно-волнового интерферометра aLIGO. [13] SVD может помочь повысить точность и скорость генерации формы волн для поддержки поиска гравитационных волн и обновления двух различных моделей формы волн.
Разложение по сингулярным значениям используется в рекомендательных системах для прогнозирования оценок товаров людьми. [14] Распределенные алгоритмы были разработаны для расчета SVD на кластерах товарных машин. [15]
Низкоранговый SVD применялся для обнаружения очагов в пространственно-временных данных с применением к обнаружению вспышек заболеваний . [16] Сочетание SVD и SVD более высокого порядка также применялось для обнаружения событий в реальном времени в сложных потоках данных (многомерные данные с пространственными и временными измерениями) при наблюдении за заболеваниями . [17]
В астродинамике СВД и его варианты используются в качестве опции для определения подходящих направлений маневра при проектировании траектории перехода [18] и удержании орбитальной станции [19] .
Доказательство существования
Собственное значение матрицы характеризуется алгебраическим соотношением Когда является эрмитовым , вариационная характеристика также доступна. Пусть будет действительной симметричной матрицей . Определим
для некоторого действительного числа Символ набла, , является оператором del (дифференцирование по ). Используя симметрию , получаем
Следовательно so является собственным вектором единичной длины Для каждого собственного вектора единичной длины его собственное значение равно so является наибольшим собственным значением Такое же вычисление, выполненное для ортогонального дополнения , дает следующее наибольшее собственное значение и т. д. Комплексный эрмитов случай аналогичен; существует действительная функция действительных переменных.
Сингулярные значения похожи тем, что их можно описать алгебраически или из вариационных принципов. Хотя, в отличие от случая собственных значений, эрмитовость или симметрия больше не требуется.
В этом разделе приводятся два аргумента в пользу существования сингулярного разложения.
На основе спектральной теоремы
Пусть будет комплексной матрицей. Поскольку является положительно полуопределенной и эрмитовой, по спектральной теореме существует унитарная матрица такая, что
где диагональна и положительно определена, размерности , с числом ненулевых собственных значений (что можно показать для проверки ). Обратите внимание, что здесь по определению является матрицей, -й столбец которой является -м собственным вектором , соответствующим собственному значению . Более того, -й столбец , для , является собственным вектором с собственным значением . Это можно выразить, записав как , где столбцы и , следовательно, содержат собственные векторы , соответствующие ненулевым и нулевым собственным значениям соответственно. Используя эту переписывание , уравнение становится:
Это подразумевает, что
Более того, второе уравнение подразумевает . [20] Наконец, унитарность переводится, в терминах и , в следующие условия:
где нижние индексы в матрицах идентичности используются для обозначения того, что они имеют разные размерности.
Давайте теперь определим
Затем,
поскольку Это также можно рассматривать как непосредственное следствие того факта, что . Это эквивалентно наблюдению, что если — набор собственных векторов , соответствующих неисчезающим собственным значениям , то — набор ортогональных векторов, а — (как правило, не полный) набор ортонормированных векторов. Это соответствует матричному формализму, использованному выше, обозначающему матрицу , столбцы которой , матрицу , столбцы которой являются собственными векторами , с исчезающим собственным значением, и матрицу , столбцы которой являются векторами .
Мы видим, что это почти желаемый результат, за исключением того, что и в общем случае не являются унитарными, поскольку они могут не быть квадратными. Однако мы знаем, что число строк не меньше числа столбцов, поскольку размерность не больше и . Кроме того, поскольку
столбцы в ортонормальны и могут быть расширены до ортонормального базиса. Это означает, что мы можем выбрать такой, который является унитарным.
Для у нас уже есть сделать его унитарным. Теперь, определим
где лишние нулевые строки добавляются или удаляются, чтобы сделать количество нулевых строк равным количеству столбцов и, следовательно, общие размеры равными . Тогда
что является желаемым результатом:
Обратите внимание, что аргумент можно было бы начать с диагонализации , а не (это напрямую показывает, что и имеют одинаковые ненулевые собственные значения).
На основе вариационной характеристики
Сингулярные значения также можно охарактеризовать как максимумы , рассматриваемые как функции и по определенным подпространствам. Сингулярные векторы — это значения и , где достигаются эти максимумы.
Пусть обозначает матрицу с действительными элементами. Пусть будет единичной -сферой в , и определите
Рассмотрим функцию ограниченную Поскольку и и являются компактными множествами, их произведение также компактно. Более того, поскольку непрерывно, оно достигает наибольшего значения по крайней мере для одной пары векторов в и в Это наибольшее значение обозначается , а соответствующие векторы обозначаются и Поскольку является наибольшим значением , оно должно быть неотрицательным. Если бы оно было отрицательным, изменение знака либо , либо сделало бы его положительным и, следовательно, большим.
Утверждение. и — лево- и право-сингулярные векторы с соответствующим сингулярным значением
Доказательство. Подобно случаю собственных значений, по предположению два вектора удовлетворяют уравнению множителей Лагранжа:
После некоторой алгебры это становится
Умножая первое уравнение слева на и второе уравнение слева на и учитывая , получаем
Подставляя это в пару уравнений выше, мы имеем
Это доказывает утверждение.
Больше сингулярных векторов и сингулярных значений можно найти, максимизируя по нормализованным и , которые ортогональны и соответственно.
Переход от действительного числа к комплексному аналогичен случаю собственных значений.
Расчет СВД
Односторонний алгоритм Якоби
Односторонний алгоритм Якоби — это итеративный алгоритм, [21]
где матрица итеративно преобразуется в матрицу с ортогональными столбцами. Элементарная итерация задается как вращение Якоби ,
где угол матрицы поворота Якоби выбирается таким образом, чтобы после поворота столбцы с номерами и стали ортогональными. Индексы циклически просматриваются, , где - число столбцов.
После сходимости алгоритма сингулярное разложение восстанавливается следующим образом: матрица представляет собой накопление матриц вращения Якоби, матрица задается путем нормализации столбцов преобразованной матрицы , а сингулярные значения задаются как нормы столбцов преобразованной матрицы .
Двусторонний алгоритм Якоби
Двусторонний алгоритм Jacobi SVD — обобщение алгоритма Jacobi eigenvalue — это итеративный алгоритм, в котором квадратная матрица итеративно преобразуется в диагональную матрицу. Если матрица не квадратная, сначала выполняется QR-разложение , а затем алгоритм применяется к матрице. Элементарная итерация обнуляет пару недиагональных элементов, сначала применяя вращение Гивенса для симметризации пары элементов, а затем применяя преобразование Jacobi для их обнуления,
где — матрица вращения Гивенса с углом, выбранным таким образом, чтобы заданная пара недиагональных элементов стала равной после вращения, а где — матрица преобразования Якоби, которая обнуляет эти недиагональные элементы. Итерации происходят точно так же, как в алгоритме собственных значений Якоби: циклическими проходами по всем недиагональным элементам.
После сходимости алгоритма результирующая диагональная матрица содержит сингулярные значения. Матрицы и накапливаются следующим образом: , .
Численный подход
Разложение по сингулярным значениям можно вычислить, используя следующие наблюдения:
Правосингулярные векторы представляют собой набор ортонормированных собственных векторов .
Ненулевые сингулярные значения (находящиеся на диагональных элементах ) являются квадратными корнями ненулевых собственных значений как , так и .
SVD матрицы обычно вычисляется с помощью двухэтапной процедуры. На первом этапе матрица сводится к двухдиагональной матрице . Это занимает порядка операций с плавающей точкой (флоп), предполагая, что Вторым этапом является вычисление SVD двухдиагональной матрицы. Этот этап можно выполнить только итеративным методом (как в алгоритмах собственных значений ). Однако на практике достаточно вычислить SVD с определенной точностью, например, машинного эпсилона . Если эта точность считается постоянной, то второй этап занимает итераций, каждая из которых стоит флопов. Таким образом, первый этап более затратный, и общая стоимость составляет флопов (Trefethen & Bau III 1997, Lecture 31).
Первый шаг можно сделать с помощью отражений Хаусхолдера за стоимость флопов, предполагая, что нужны только сингулярные значения, а не сингулярные векторы. Если намного больше , то выгодно сначала свести матрицу к треугольной матрице с помощью QR-разложения , а затем использовать отражения Хаусхолдера для дальнейшего сведения матрицы к двухдиагональной форме; общая стоимость составляет флопов (Trefethen & Bau III 1997, Lecture 31).
Второй шаг может быть выполнен с помощью варианта алгоритма QR для вычисления собственных значений, который был впервые описан Голубом и Каханом (1965). Подпрограмма LAPACK DBDSQR [22] реализует этот итерационный метод с некоторыми модификациями для покрытия случая, когда сингулярные значения очень малы (Demmel & Kahan 1990). Вместе с первым шагом, использующим отражения Хаусхолдера и, при необходимости, разложение QR, это формирует процедуру DGESVD [23] для вычисления разложения сингулярных значений.
Тот же алгоритм реализован в GNU Scientific Library (GSL). GSL также предлагает альтернативный метод, который использует одностороннюю ортогонализацию Якоби на шаге 2 (GSL Team 2007). Этот метод вычисляет SVD двухдиагональной матрицы, решая последовательность задач SVD, аналогично тому, как алгоритм собственных значений Якоби решает последовательность методов собственных значений (Golub & Van Loan 1996, §8.6.3). Еще один метод для шага 2 использует идею алгоритмов собственных значений «разделяй и властвуй» (Trefethen & Bau III 1997, Lecture 31).
Существует альтернативный способ, который явно не использует разложение собственных значений. [24] Обычно проблема сингулярных значений матрицы преобразуется в эквивалентную симметричную проблему собственных значений, такую как или
Подходы, использующие разложения собственных значений, основаны на алгоритме QR , который хорошо разработан, чтобы быть стабильным и быстрым. Обратите внимание, что сингулярные значения являются действительными, а правые и левые сингулярные векторы не требуются для формирования преобразований подобия. Можно итеративно чередовать разложение QR и разложение LQ , чтобы найти действительные диагональные эрмитовы матрицы . Разложение QR дает , а разложение LQ дает Таким образом, на каждой итерации мы имеем обновление и повторение ортогонализаций. В конечном итоге [ необходимо разъяснение ] эта итерация между разложением QR и разложением LQ дает левые и правые унитарные сингулярные матрицы. Этот подход не может быть легко ускорен, как алгоритм QR может со спектральными сдвигами или дефляцией. Это связано с тем, что метод сдвига нелегко определить без использования преобразований подобия. Однако этот итеративный подход очень прост в реализации, поэтому является хорошим выбором, когда скорость не имеет значения. Этот метод также дает представление о том, как чисто ортогональные/унитарные преобразования могут получить SVD.
Аналитический результат 2 × 2 SVD
Сингулярные значения матрицы можно найти аналитически. Пусть матрица будет
где — комплексные числа, параметризующие матрицу, — единичная матрица, а обозначают матрицы Паули . Тогда ее два сингулярных значения задаются как
Сокращенные СВД
В приложениях довольно необычно, чтобы требовалось полное SVD, включая полное унитарное разложение нулевого пространства матрицы. Вместо этого часто достаточно (а также быстрее и экономичнее для хранения) вычислить сокращенную версию SVD. Для матрицы ранга можно выделить следующее :
Тонкая СВД
Тонкий, или экономичный, SVD матрицы определяется по формуле [25]
где матрицы и содержат только первые столбцы и и содержит только первые сингулярные значения из Матрица , таким образом , является диагональной, и является
Тонкий SVD использует значительно меньше пространства и времени вычислений, если Первым этапом его вычислений обычно будет QR-разложение , что может значительно ускорить вычисления в этом случае.
Компактная СВД
Компактное SVD матрицы задается выражением
Вычисляются только векторы-столбцы и векторы-строки , соответствующие ненулевым сингулярным значениям . Остальные векторы и не вычисляются. Это быстрее и экономичнее, чем тонкий SVD, если Матрица , таким образом , является диагональной, и является
Укороченная СВД
Во многих приложениях число ненулевых сингулярных значений велико, что делает даже Compact SVD непрактичным для вычисления. В таких случаях наименьшие сингулярные значения могут потребоваться усечь, чтобы вычислить только ненулевые сингулярные значения. Усеченный SVD больше не является точным разложением исходной матрицы , а скорее обеспечивает оптимальное приближение матрицы низкого ранга любой матрицей фиксированного ранга
где матрица является является диагональной, и является Вычисляются только векторы-столбцы и векторы-строки , соответствующие наибольшим сингулярным значениям . Это может быть намного быстрее и экономичнее, чем компактный SVD, если , но требует совершенно другого набора инструментов численных решателей.
В приложениях, требующих приближения к обратной матрице Мура–Пенроуза , представляют интерес наименьшие сингулярные значения , вычислить которые сложнее, чем наибольшие.
Первая из норм Ky Fan, Ky Fan 1-норма, совпадает с операторной нормой как линейный оператор относительно евклидовых норм и Другими словами, Ky Fan 1-норма является операторной нормой, индуцированной стандартным евклидовым скалярным произведением. По этой причине ее также называют операторной 2-нормой. Можно легко проверить связь между Ky Fan 1-нормой и сингулярными значениями. Это верно в общем случае для ограниченного оператора на (возможно, бесконечномерных) гильбертовых пространствах
Но в случае матрицы является нормальной матрицей , поэтому наибольшее собственное значение т.е. наибольшее сингулярное значение
Последняя из норм Ки Фана, сумма всех сингулярных значений, является следовой нормой (также известной как «ядерная норма»), определяемой как (собственные значения являются квадратами сингулярных значений).
Норма Гильберта–Шмидта
Сингулярные значения связаны с другой нормой на пространстве операторов. Рассмотрим скалярное произведение Гильберта–Шмидта на матрицах , определенное как
Итак, индуцированная норма равна
Поскольку след инвариантен относительно унитарной эквивалентности, это показывает,
где — сингулярные значения Это называется нормой Фробениуса , 2-нормой Шаттена или нормой Гильберта–Шмидта Прямое вычисление показывает, что норма Фробениуса совпадает с:
Кроме того, норма Фробениуса и норма следа (ядерная норма) являются частными случаями нормы Шаттена .
Вариации и обобщения
Масштабно-инвариантный SVD
Сингулярные значения матрицы определяются однозначно и инвариантны относительно левых и/или правых унитарных преобразований Другими словами, сингулярные значения для унитарных матриц и равны сингулярным значениям Это важное свойство для приложений, в которых необходимо сохранять евклидовы расстояния и инвариантность относительно вращений.
Масштабно-инвариантный SVD, или SI-SVD, [28] аналогичен обычному SVD, за исключением того, что его однозначно определенные сингулярные значения инвариантны относительно диагональных преобразований Другими словами, сингулярные значения для обратимых диагональных матриц и равны сингулярным значениям Это важное свойство для приложений, для которых требуется инвариантность к выбору единиц измерения переменных (например, метрические или имперские единицы).
Ограниченные операторы в гильбертовых пространствах
Факторизацию можно расширить до ограниченного оператора в сепарабельном гильбертовом пространстве А именно, для любого ограниченного оператора существуют частичная изометрия унитарное пространство с мерой и неотрицательная измеримая такая, что
Это можно показать, имитируя линейный алгебраический аргумент для матричного случая выше. является единственным положительным квадратным корнем , как дано функциональным исчислением Бореля для самосопряженных операторов . Причина, по которой не обязательно должен быть унитарным, заключается в том, что, в отличие от конечномерного случая, при заданной изометрии с нетривиальным ядром, подходящее может не быть найдено таким образом, что
является унитарным оператором.
Что касается матриц, то факторизация по сингулярным значениям эквивалентна полярному разложению для операторов: мы можем просто записать
и обратите внимание, что по-прежнему является частичной изометрией, в то время как является положительным.
Сингулярные значения и компактные операторы
Понятие сингулярных значений и лево/право-сингулярных векторов может быть расширено до компактного оператора в гильбертовом пространстве , поскольку они имеют дискретный спектр. Если компактно, каждое ненулевое в его спектре является собственным значением. Более того, компактный самосопряженный оператор может быть диагонализирован его собственными векторами. Если компактно, то и . Применяя результат диагонализации, унитарный образ его положительного квадратного корня имеет набор ортонормированных собственных векторов , соответствующих строго положительным собственным значениям . Для любого в
где ряд сходится в топологии нормы на Обратите внимание, как это напоминает выражение из конечномерного случая. называются сингулярными значениями (соответственно ) можно считать левосингулярными (соответственно правосингулярными) векторами
Компактные операторы в гильбертовом пространстве являются замыканием операторов конечного ранга в равномерной операторной топологии. Вышеприведенное выражение серии дает явное такое представление. Непосредственным следствием этого является:
Теорема. компактен тогда и только тогда, когда компактен.
История
Сингулярное разложение было первоначально разработано дифференциальными геометрами , которые хотели определить, можно ли сделать действительную билинейную форму равной другой посредством независимых ортогональных преобразований двух пространств, на которых она действует. Эудженио Бельтрами и Камиль Джордан независимо друг от друга в 1873 и 1874 годах соответственно открыли, что сингулярные значения билинейных форм, представленные в виде матрицы, образуют полный набор инвариантов для билинейных форм при ортогональных подстановках. Джеймс Джозеф Сильвестр также пришел к сингулярному разложению для действительных квадратных матриц в 1889 году, по-видимому, независимо как от Бельтрами, так и от Джордана. Сильвестр назвал сингулярные значения каноническими множителями матрицы Четвертым математиком, независимо открывшим сингулярное разложение, был Отонн в 1915 году, который пришел к нему с помощью полярного разложения . Первое доказательство сингулярного разложения для прямоугольных и комплексных матриц, по-видимому, было получено Карлом Эккартом и Гейлом Дж. Янгом в 1936 году; [29] они рассматривали это как обобщение преобразования главной оси для эрмитовых матриц .
В 1907 году Эрхард Шмидт определил аналог сингулярных значений для интегральных операторов (которые являются компактными при некоторых слабых технических предположениях); по-видимому, он не знал о параллельной работе по сингулярным значениям конечных матриц. Эта теория была далее развита Эмилем Пикаром в 1910 году, который первым назвал числа сингулярными значениями (или по-французски valeurs singulières ).
^ DeAngelis, GC; Ohzawa, I.; Freeman, RD (октябрь 1995 г.). «Динамика рецептивного поля в центральных зрительных путях». Trends Neurosci . 18 (10): 451–8. doi :10.1016/0166-2236(95)94496-R. PMID 8545912. S2CID 12827601.
^ Depireux, DA; Simon, JZ; Klein, DJ; Shamma, SA (март 2001 г.). «Характеристика спектрально-временного поля ответа с динамическими рябями в первичной слуховой коре хорька». J. Neurophysiol . 85 (3): 1220–34. doi :10.1152/jn.2001.85.3.1220. PMID 11247991.
^ Разложение сингулярных значений в симметричной (Lowdin) ортогонализации и сжатии данных
^ Sahidullah, Md.; Kinnunen, Tomi (март 2016). «Локальные спектральные характеристики изменчивости для проверки говорящего». Цифровая обработка сигналов . 50 : 1–11. doi :10.1016/j.dsp.2015.10.011.
^ Mademlis, Ioannis; Tefas, Anastasios; Pitas, Ioannis (2018). «Регуляризированная значимость видеокадра на основе SVD для неконтролируемого суммирования видео активности». Международная конференция IEEE по акустике, речи и обработке сигналов (ICASSP) 2018 года. IEEE. стр. 2691–2695. doi :10.1109/ICASSP.2018.8462274. ISBN978-1-5386-4658-8. S2CID 52286352 . Получено 19 января 2023 г. .
^ O. Alter, PO Brown и D. Botstein (сентябрь 2000 г.). «Разложение сингулярных значений для обработки и моделирования данных экспрессии генома». PNAS . 97 (18): 10101–10106. Bibcode :2000PNAS...9710101A. doi : 10.1073/pnas.97.18.10101 . PMC 27718 . PMID 10963673.
^ O. Alter; GH Golub (ноябрь 2004 г.). «Интегративный анализ данных в масштабе генома с использованием псевдообратной проекции предсказывает новую корреляцию между репликацией ДНК и транскрипцией РНК». PNAS . 101 (47): 16577–16582. Bibcode :2004PNAS..10116577A. doi : 10.1073/pnas.0406767101 . PMC 534520 . PMID 15545604.
^ O. Alter; GH Golub (август 2006 г.). «Разложение сингулярных значений распределения длин мРНК в масштабе генома выявляет асимметрию в расширении полос электрофореза РНК в геле». PNAS . 103 (32): 11828–11833. Bibcode :2006PNAS..10311828A. doi : 10.1073/pnas.0604756103 . PMC 1524674 . PMID 16877539.
^ Bertagnolli, NM; Drake, JA; Tennessen, JM; Alter, O. (ноябрь 2013 г.). "SVD идентифицирует функции распределения длины транскрипта из данных ДНК-микрочипов и выявляет эволюционные силы, глобально влияющие на метаболизм ГБМ". PLOS ONE . 8 (11): e78913. Bibcode :2013PLoSO...878913B. doi : 10.1371/journal.pone.0078913 . PMC 3839928 . PMID 24282503. Выделение.
^ Эдельман, Алан (1992). «О распределении масштабированного числа обусловленности» (PDF) . Math. Comp . 58 (197): 185–190. Bibcode :1992MaCom..58..185E. doi : 10.1090/S0025-5718-1992-1106966-2 .
^ Шен, Цзяньхун (Джеки) (2001). «О сингулярных значениях гауссовых случайных матриц». Linear Alg. Appl . 326 (1–3): 1–14. doi : 10.1016/S0024-3795(00)00322-0 .
^ Уолтон, С.; Хассан, О.; Морган, К. (2013). «Моделирование пониженного порядка для нестационарного потока жидкости с использованием надлежащего ортогонального разложения и радиальных базисных функций». Прикладное математическое моделирование . 37 (20–21): 8930–8945. doi : 10.1016/j.apm.2013.04.025 .
^ Setyawati, Y.; Ohme, F.; Khan, S. (2019). «Улучшение модели гравитационной волны с помощью динамической калибровки». Physical Review D. 99 ( 2): 024010. arXiv : 1810.07060 . Bibcode : 2019PhRvD..99b4010S. doi : 10.1103/PhysRevD.99.024010. S2CID 118935941.
^ Босаг Заде, Реза; Карлссон, Гуннар (2013). «Квадрат матрицы, не зависящей от размерности, с использованием MapReduce» (PDF) . arXiv : 1304.1467 . Bibcode :2013arXiv1304.1467B.{{cite journal}}: Цитировать журнал требует |journal=( помощь )
^ Хади Фанаи Торк; Жуан Гама (сентябрь 2014 г.). «Метод собственного пространства для обнаружения пространственно-временных горячих точек». Expert Systems . 32 (3): 454–464. arXiv : 1406.3506 . Bibcode :2014arXiv1406.3506F. doi :10.1111/exsy.12088. S2CID 15476557.
^ Хади Фанаи Торк; Жуан Гама (май 2015 г.). «EigenEvent: алгоритм обнаружения событий из сложных потоков данных в синдромном наблюдении». Интеллектуальный анализ данных . 19 (3): 597–616. arXiv : 1406.3496 . doi : 10.3233/IDA-150734. S2CID 17966555.
^ Муралидхаран, Вивек; Хауэлл, Кэтлин (2023). «Растяжение направлений в цислунарном пространстве: применение для отправлений и проектирования трансферов». Астродинамика . 7 (2): 153–178. Bibcode :2023AsDyn...7..153M. doi :10.1007/s42064-022-0147-z. S2CID 252637213.
^ Муралидхаран, Вивек; Хауэлл, Кэтлин (2022). «Использование направлений растяжения для поддержания стационарности на гало-орбитах Земля-Луна». Достижения в космических исследованиях . 69 (1): 620–646. Bibcode : 2022AdSpR..69..620M. doi : 10.1016/j.asr.2021.10.028. S2CID 239490016.
^ Чтобы увидеть это, нам просто нужно это заметить и запомнить .
^ Rijk, PPM de (1989). «Односторонний алгоритм Якоби для вычисления разложения сингулярных значений на векторном компьютере». SIAM J. Sci. Stat. Comput . 10 : 359.
^ Деммель, Джеймс (2000). «Разложения». Шаблоны для решения алгебраических задач на собственные значения. Бай, Чжаоцзюнь; Деммель, Джеймс; Донгарра, Джек Дж.; Руэ, Аксель; ван дер Ворст, Хенк А. Общество промышленной и прикладной математики. дои : 10.1137/1.9780898719581. ISBN978-0-89871-471-5.
^ Chicco, D; Masseroli, M (2015). «Программный пакет для прогнозирования аннотаций генов и белков и поиска сходства». Труды IEEE/ACM по вычислительной биологии и биоинформатике . 12 (4): 837–843. doi : 10.1109/TCBB.2014.2382127. hdl : 11311/959408 . PMID 26357324. S2CID 14714823.
^ Фань, Кентукки (1951). «Максимальные свойства и неравенства для собственных значений вполне непрерывных операторов». Труды Национальной академии наук Соединенных Штатов Америки . 37 (11): 760–766. Bibcode :1951PNAS...37..760F. doi : 10.1073/pnas.37.11.760 . PMC 1063464 . PMID 16578416.
^ Ульманн, Джеффри (2018), Обобщенная обратная матрица, согласованная с диагональными преобразованиями (PDF) , SIAM Journal on Matrix Analysis, т. 239, стр. 781–800, архивировано из оригинала (PDF) 17 июня 2019 г.
^ Эккарт, К.; Янг, Г. (1936). «Аппроксимация одной матрицы другой более низкого ранга». Психометрика . 1 (3): 211–8. doi :10.1007/BF02288367. S2CID 10163399.
^ Хестенс, MR (1958). «Обращение матриц с помощью биортогонализации и связанные с этим результаты». Журнал Общества промышленной и прикладной математики . 6 (1): 51–90. doi :10.1137/0106005. JSTOR 2098862. MR 0092215.
^ (Голуб и Кахан 1965)
^ Голуб, Г.Х .; Рейнш, К. (1970). «Разложение по сингулярным значениям и решения методом наименьших квадратов». Нумерическая математика . 14 (5): 403–420. дои : 10.1007/BF02163027. MR 1553974. S2CID 123532178.
Ссылки
Баннерджи, Судипто; Рой, Аниндья (2014), Линейная алгебра и матричный анализ для статистики , Тексты по статистической науке (1-е изд.), Chapman and Hall/CRC, ISBN 978-1420095388
Бисгард, Джеймс (2021). Анализ и линейная алгебра: разложение сингулярных значений и приложения . Студенческая математическая библиотека (1-е изд.). AMS. ISBN 978-1-4704-6332-8.
Chicco, D; Masseroli, M (2015). «Программный пакет для прогнозирования аннотаций генов и белков и поиска сходства». Труды IEEE/ACM по вычислительной биологии и биоинформатике . 12 (4): 837–843. doi : 10.1109/TCBB.2014.2382127. hdl : 11311/959408 . PMID 26357324. S2CID 14714823.
Трефетен, Ллойд Н.; Бау III, Дэвид (1997). Численная линейная алгебра . Филадельфия: Общество промышленной и прикладной математики. ISBN 978-0-89871-361-9.
Деммель, Джеймс ; Кахан, Уильям (1990). «Точные сингулярные значения двухдиагональных матриц». Журнал SIAM по научным и статистическим вычислениям . 11 (5): 873–912. CiteSeerX 10.1.1.48.3740 . doi :10.1137/0911052.
Голуб, Джин Х.; Кахан , Уильям (1965). «Вычисление сингулярных значений и псевдообратной матрицы». Журнал Общества промышленной и прикладной математики, Серия B: Численный анализ . 2 (2): 205–224. Bibcode : 1965SJNA....2..205G. doi : 10.1137/0702016. JSTOR 2949777.
GSL Team (2007). "§14.4 Разложение сингулярных значений". Научная библиотека GNU. Справочное руководство .
Halldor, Bjornsson и Venegas, Silvia A. (1997). "Руководство по EOF и SVD-анализу климатических данных". Университет Макгилла, CCGCR Report No. 97-1, Монреаль, Квебек, 52 стр.
Хансен, ПК (1987). «Усеченный SVD как метод регуляризации». BIT . 27 (4): 534–553. doi :10.1007/BF01937276. S2CID 37591557.
Хорн, Роджер А.; Джонсон, Чарльз Р. (1985). "Раздел 7.3". Матричный анализ . Cambridge University Press. ISBN 978-0-521-38632-6.
Хорн, Роджер А.; Джонсон, Чарльз Р. (1991). "Глава 3" . Темы анализа матриц . Cambridge University Press. ISBN 978-0-521-46713-1.
Самет, Х. (2006). Основы многомерных и метрических структур данных . Морган Кауфманн. ISBN 978-0-12-369446-1.
Стрэнг Г. (1998). "Раздел 6.7". Введение в линейную алгебру (3-е изд.). Wellesley-Cambridge Press. ISBN 978-0-9614088-5-5.
Стюарт, GW (1993). «О ранней истории разложения сингулярных значений». SIAM Review . 35 (4): 551–566. CiteSeerX 10.1.1.23.1831 . doi :10.1137/1035134. hdl :1903/566. JSTOR 2132388.
Wall, Michael E.; Rechtsteiner, Andreas; Rocha, Luis M. (2003). «Разложение сингулярных значений и анализ главных компонент». В DP Berrar; W. Dubitzky; M. Granzow (ред.). Практический подход к анализу данных микрочипов . Norwell, MA: Kluwer. стр. 91–109.
Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007), «Раздел 2.6», Numerical Recipes: The Art of Scientific Computing (3-е изд.), Нью-Йорк: Cambridge University Press, ISBN 978-0-521-88068-8