stringtranslate.com

Низкоранговое приближение

В математике приближение низкого ранга относится к процессу приближения заданной матрицы матрицей более низкого ранга. Точнее, это задача минимизации , в которой функция стоимости измеряет соответствие между заданной матрицей (данными) и приближающей матрицей (переменной оптимизации) при условии ограничения, что приближающая матрица имеет пониженный ранг . Задача используется для математического моделирования и сжатия данных . Ограничение ранга связано с ограничением на сложность модели, которая подходит к данным. В приложениях часто существуют другие ограничения на приближающую матрицу помимо ограничения ранга, например, неотрицательность и структура Ганкеля .

Низкоранговая аппроксимация тесно связана с многочисленными другими методами, включая анализ главных компонент , факторный анализ , метод наименьших квадратов , латентный семантический анализ , ортогональную регрессию и динамическую модовую декомпозицию .

Определение

Данный

Приложения

Основная задача аппроксимации низкого ранга

Неструктурированная задача с соответствием, измеряемым нормой Фробениуса , т.е.

имеет аналитическое решение в терминах сингулярного разложения матрицы данных. Результат называется леммой аппроксимации матриц или теоремой Эккарта–Янга–Мирского . Эта проблема была первоначально решена Эрхардом Шмидтом [1] в бесконечномерном контексте интегральных операторов (хотя его методы легко обобщаются на произвольные компактные операторы в гильбертовых пространствах) и позднее переоткрыта К. Эккартом и Г. Янгом . [2] Л. Мирский обобщил результат на произвольные унитарно инвариантные нормы. [3] Пусть

будет разложением сингулярных значений , где — прямоугольная диагональная матрица с сингулярными значениями . Для заданного , разбиения , , и следующим образом:

где есть , есть и есть . Тогда ранговая матрица, полученная из усеченного сингулярного разложения

таково, что

Минимизатор уникален тогда и только тогда, когда .

Доказательство теоремы Эккарта–Юнга–Мирского (дляспектральная норма)

Пусть будет вещественной (возможно, прямоугольной) матрицей с . Предположим, что

разложение по сингулярным значениям . Напомним, что и — ортогональные матрицы, а — диагональная матрица с элементами, такими что .

Мы утверждаем, что наилучшее ранговое приближение к в спектральной норме, обозначенной как , дается выражением

где и обозначают -й столбец и , соответственно.

Во-первых, обратите внимание, что у нас есть

Поэтому нам нужно показать, что если , где и имеют столбцы, то .

Так как имеет столбцы, то должна быть нетривиальная линейная комбинация первых столбцов , т.е.

такой, что . Без потери общности, мы можем масштабировать так, что или (эквивалентно) . Следовательно,

Результат получается путем извлечения квадратного корня из обеих частей приведенного выше неравенства.

Доказательство теоремы Эккарта–Юнга–Мирского (длянорма Фробениуса)

Пусть будет вещественной (возможно, прямоугольной) матрицей с . Предположим, что

является разложением по сингулярным значениям .

Мы утверждаем, что наилучшее ранговое приближение к в норме Фробениуса, обозначаемое как , определяется выражением

где и обозначают -й столбец и , соответственно.

Во-первых, обратите внимание, что у нас есть

Поэтому нам нужно показать, что если , где и имеют столбцы, то

По неравенству треугольника со спектральной нормой, если то . Предположим и соответственно обозначают ранговое приближение к и методом SVD, описанным выше. Тогда для любого

Так как , когда и заключаем, что для

Поэтому,

по мере необходимости.

Взвешенные задачи аппроксимации низкого ранга

Норма Фробениуса равномерно взвешивает все элементы ошибки аппроксимации . Априорные знания о распределении ошибок могут быть учтены путем рассмотрения задачи взвешенной аппроксимации низкого ранга

где векторизует матрицу по столбцам, а — заданная положительно (полу)определенная весовая матрица.

Общая задача взвешенной аппроксимации низкого ранга не допускает аналитического решения в терминах разложения сингулярных значений и решается методами локальной оптимизации, которые не дают никаких гарантий нахождения глобально оптимального решения.

В случае некоррелированных весов задача взвешенной аппроксимации низкого ранга также может быть сформулирована следующим образом: [4] [5] для неотрицательной матрицы и матрицы мы хотим минимизировать по матрицам, , ранга которых не превышает .

ВходнойЛппроблемы аппроксимации низкого ранга

Пусть . Для , самый быстрый алгоритм работает за время. [6] [7] Одна из важных использованных идей называется Oblivious Subspace Embedding (OSE), она впервые предложена Сарлосом. [8]

Для известно, что эта норма L1 по входу более надежна, чем норма Фробениуса при наличии выбросов и указывается в моделях, где гауссовские предположения о шуме могут не применяться. Естественно стремиться минимизировать . [9] Для и существуют некоторые алгоритмы с доказуемыми гарантиями. [10] [11]

Задача аппроксимации расстояния низкого ранга

Пусть и будут двумя точечными множествами в произвольном метрическом пространстве. Пусть представляют матрицу, где . Такие матрицы расстояний обычно вычисляются в программных пакетах и ​​имеют приложения к изучению многообразий изображений, распознаванию рукописного ввода и многомерной развертке. В попытке уменьшить размер их описания [12] [13] можно изучить низкоранговую аппроксимацию таких матриц.

Распределенная/потоковая задача аппроксимации низкого ранга

Задачи аппроксимации низкого ранга в распределенной и потоковой среде рассматривались в [14] .

Представления изображений и ядер ограничений ранга

Используя эквивалентности

и

задача взвешенной аппроксимации низкого ранга становится эквивалентной задачам оптимизации параметров

и

где — единичная матрица размера .

Алгоритм чередующихся проекций

Представление изображения ограничения ранга предполагает метод оптимизации параметров, в котором функция стоимости минимизируется поочередно по одной из переменных ( или ) при фиксированной другой. Хотя одновременная минимизация по обеим и является сложной двояковыпуклой задачей оптимизации, минимизация по одной из переменных является линейной задачей наименьших квадратов и может быть решена глобально и эффективно.

Полученный алгоритм оптимизации (называемый чередующимися проекциями) глобально сходится с линейной скоростью сходимости к локально оптимальному решению задачи взвешенной аппроксимации низкого ранга. Начальное значение для параметра (или ) должно быть указано. Итерация останавливается, когда выполняется определенное пользователем условие сходимости.

Реализация алгоритма чередующихся проекций для взвешенной аппроксимации низкого ранга в Matlab :

function [dh, f] = wlra_ap ( d, w, p, tol, maxiter ) [ m , n ] = size ( d ); r = size ( p , 2 ); f = inf ; for i = 2 : maxiter % минимизация по L bp = kron ( eye ( n ), p ); vl = ( bp ' * w * bp ) \ bp ' * w * d (:); l = reshape ( vl , r , n ); % минимизация по P bl = kron ( l ' , eye ( m )); vp = ( bl ' * w * bl ) \ bl ' * w * d (:); p = reshape ( vp , m , r ); % проверка условия выхода dh = p * l ; dd = d - dh ; f ( i ) = dd (:) ' * w * dd (:); если abs ( f ( i - 1 ) - f ( i )) < tol , break , end endfor                                                                                        

Алгоритм переменных проекций

Алгоритм чередующихся проекций использует тот факт, что задача аппроксимации низкого ранга, параметризованная в форме изображения, является билинейной по переменным или . Билинейная природа задачи эффективно используется в альтернативном подходе, называемом переменными проекциями. [15]

Рассмотрим снова задачу взвешенной аппроксимации низкого ранга, параметризованную в форме изображения. Минимизация по переменной (линейная задача наименьших квадратов) приводит к замкнутому выражению ошибки аппроксимации как функции

Исходная задача, таким образом, эквивалентна нелинейной задаче наименьших квадратов минимизации относительно . Для этой цели могут быть использованы стандартные методы оптимизации, например, алгоритм Левенберга-Марквардта .

Реализация алгоритма переменных проекций для взвешенной аппроксимации низкого ранга в Matlab :

function [dh, f] = wlra_varpro ( d, w, p, tol, maxiter ) prob = optimset(); prob.solver = ' lsqnonlin ' ; prob.options = optimset ( ' MaxIter ' , maxiter , ' TolFun ' , tol ) ; prob.x0 = p ; prob.objection = @ ( p ) cost_fun ( p , d , w ) ; [ p , f ] = lsqnonlin ( prob ) ; [ f , vl ] = cost_fun ( p , d , w ); dh = p * reshape ( vl , size ( p , 2 ) , size ( d , 2 ) ) ;                                       функция [f, vl] = cost_fun ( p, d, w ) bp = kron ( eye ( size ( d , 2 )), p ); vl = ( bp ' * w * bp ) \ bp ' * w * d (:); f = d (:) ' * w * ( d (:) - bp * vl );                           

Метод проекций переменных может быть применен также к задачам аппроксимации низкого ранга, параметризованным в форме ядра. Метод эффективен, когда число исключенных переменных намного больше числа переменных оптимизации, оставшихся на этапе минимизации нелинейного метода наименьших квадратов. Такие задачи возникают при идентификации систем, параметризованных в форме ядра, где исключенные переменные являются аппроксимирующей траекторией, а оставшиеся переменные являются параметрами модели. В контексте линейных стационарных систем шаг исключения эквивалентен сглаживанию Калмана .

Вариант: выпукло-ограниченная аппроксимация низкого ранга

Обычно мы хотим, чтобы наше новое решение не только имело низкий ранг, но и удовлетворяло другим выпуклым ограничениям из-за требований приложения. Наша интересующая нас проблема будет выглядеть следующим образом:

Эта проблема имеет множество приложений в реальном мире, включая восстановление хорошего решения из неточной (полуопределенного программирования) релаксации. Если дополнительное ограничение линейно, например, мы требуем, чтобы все элементы были неотрицательными, то проблема называется структурированной аппроксимацией низкого ранга. [16] Более общая форма называется выпукло-ограниченной аппроксимацией низкого ранга.

Эта задача полезна при решении многих задач. Однако она сложна из-за сочетания выпуклых и невыпуклых (низкого ранга) ограничений. Были разработаны различные методы на основе различных реализаций . Однако метод переменного направления множителей (ADMM) может быть применен для решения невыпуклой задачи с выпуклой целевой функцией, ограничениями ранга и другими выпуклыми ограничениями [17] и, таким образом, подходит для решения нашей вышеуказанной задачи. Более того, в отличие от общих невыпуклых задач, ADMM гарантирует сходимость допустимого решения, пока его двойственная переменная сходится в итерациях.

Смотрите также

Ссылки

  1. ^ Э. Шмидт, Zur Theorie der Linearen und Nichtlinearen Integralgleichungen, Math. Аннален 63 (1907), 433–476. дои : 10.1007/BF01449770
  2. ^ C. Eckart, G. Young, Аппроксимация одной матрицы другой более низкого ранга. Psychometrika, том 1, 1936, страницы 211–218. doi :10.1007/BF02288367
  3. ^ Л. Мирский, Симметричные калибровочные функции и унитарно инвариантные нормы, QJ Math. 11 (1960), 50-59. doi :10.1093/qmath/11.1.50
  4. ^ Сребро, Натан; Яаккола, Томми (2003). Взвешенные низкоранговые аппроксимации (PDF) . ICML'03.
  5. ^ Разенштейн, Илья; Сонг, Чжао; Вудрафф, Дэвид П. (2016). Взвешенные низкоранговые приближения с доказуемыми гарантиями. Труды STOC '16 сорок восьмого ежегодного симпозиума ACM по теории вычислений.
  6. ^ Кларксон, Кеннет Л.; Вудрафф, Дэвид П. (2013). Низкоранговая аппроксимация и регрессия во времени разреженности входных данных . Труды сорок пятого ежегодного симпозиума ACM по теории вычислений STOC '13. arXiv : 1207.6365 .
  7. ^ Нельсон, Джелани; Нгуен, Хуй Л. (2013). OSNAP: Более быстрые алгоритмы числовой линейной алгебры с помощью вложений разреженных подпространств . FOCS '13. arXiv : 1211.1002 .
  8. ^ Сарлос, Тамас (2006). Улучшенные алгоритмы аппроксимации для больших матриц с помощью случайных проекций . FOCS'06.
  9. ^ Сонг, Чжао; Вудрафф, Дэвид П.; Чжун, Пейлинь (2017). Низкоранговая аппроксимация с ошибкой по норме L1 на уровне входов . Труды сорок девятого ежегодного симпозиума ACM по теории вычислений STOC '17. arXiv : 1611.00898 .
  10. ^ Брингманн, Карл; Колев, Павел; Вудрафф, Дэвид П. (2017). Алгоритмы аппроксимации для аппроксимации L0-низкого ранга . NIPS'17. arXiv : 1710.11253 .
  11. ^ Кьерикетти, Флавио; Голлапуди, Шринивас; Кумар, Рави; Латтанци, Сильвио; Паниграхи, Рина; Вудрафф, Дэвид П. (2017). Алгоритмы Lp-аппроксимации низкого ранга . ICML'17. arXiv : 1705.06730 .
  12. ^ Бакши, Айнеш Л.; Вудрафф, Дэвид П. (2018). Низкоранговая аппроксимация матриц расстояний в сублинейном времени . NeurIPS. arXiv : 1809.06986 .
  13. ^ Индик, Петр; Вакилиан, Али; Вагнер, Тал; Вудрафф, Дэвид П. (2019). Оптимальная для выборки низкоранговая аппроксимация матриц расстояний . COLT.
  14. ^ Бутсидис, Христос; Вудрафф, Дэвид П.; Чжун, Пейлин (2016). Оптимальный главный компонентный анализ в распределенных и потоковых моделях . STOC. arXiv : 1504.06729 .
  15. ^ Г. Голуб и В. Перейра, Разделимые нелинейные наименьшие квадраты: метод проекции переменной и его приложения, Институт физики, Обратные задачи, том 19, 2003, страницы 1-26.
  16. ^ Чу, Муди Т.; Фандерлик, Роберт Э.; Племмонс, Роберт Дж. (2003). «структурированная аппроксимация низкого ранга». Линейная алгебра и ее приложения . 366 : 157–172. doi : 10.1016/S0024-3795(02)00505-0 .
  17. ^ «Общая система эвристического решения выпуклых задач над невыпуклыми множествами» (PDF) .

Внешние ссылки