stringtranslate.com

Рекурсивный фильтр наименьших квадратов

Рекурсивный метод наименьших квадратов ( RLS ) — это алгоритм адаптивного фильтра , который рекурсивно находит коэффициенты, которые минимизируют взвешенную линейную функцию стоимости наименьших квадратов , относящуюся к входным сигналам. Этот подход отличается от других алгоритмов, таких как алгоритм наименьших средних квадратов (LMS), целью которых является уменьшение среднеквадратической ошибки . При выводе RLS входные сигналы считаются детерминированными , тогда как для LMS и подобных алгоритмов они считаются стохастическими . По сравнению с большинством своих конкурентов, RLS демонстрирует чрезвычайно быструю сходимость. Однако это преимущество достигается за счет высокой вычислительной сложности.

Мотивация

RLS был открыт Гауссом , но оставался неиспользованным или игнорировался до 1950 года, когда Плакетт заново открыл оригинальную работу Гаусса 1821 года. В общем, RLS можно использовать для решения любой проблемы, которую можно решить с помощью адаптивных фильтров . Например, предположим, что сигнал передается по эхо- шумному каналу , из-за чего он принимается как

где представляет собой аддитивный шум . Целью RLS-фильтра является восстановление полезного сигнала с помощью КИХ - фильтра с отводом :

где вектор - столбец , содержащий самые последние образцы . Оценка восстановленного полезного сигнала равна

Цель состоит в том, чтобы оценить параметры фильтра , и каждый раз мы ссылаемся на текущую оценку как и на адаптированную оценку методом наименьших квадратов как . также является вектор-столбцом, как показано ниже, а транспонирование , , является вектором-строкой . Матричный продукт (который является скалярным произведением и ) является скаляром. Оценка считается «хорошей» , если она мала по величине в некотором смысле метода наименьших квадратов .

С течением времени желательно избегать полного повторения алгоритма наименьших квадратов для нахождения новой оценки для , в терминах .

Преимущество алгоритма RLS заключается в том, что нет необходимости инвертировать матрицы, что позволяет сэкономить вычислительные затраты. Еще одним преимуществом является то, что он обеспечивает интуитивное понимание таких результатов, как фильтр Калмана .

Обсуждение

Идея фильтров RLS заключается в минимизации функции стоимости путем соответствующего выбора коэффициентов фильтра и обновления фильтра по мере поступления новых данных. Сигнал ошибки и полезный сигнал определены на схеме отрицательной обратной связи ниже:

Ошибка неявно зависит от коэффициентов фильтра посредством оценки :

Таким образом, взвешенная функция ошибок метода наименьших квадратов — функция стоимости, которую мы хотим минимизировать, — также зависит от коэффициентов фильтра:

где - «фактор забывания», который придает экспоненциально меньший вес более старым образцам ошибок.

Функция стоимости минимизируется путем взятия частных производных для всех элементов вектора коэффициентов и установки результатов равными нулю.

Далее заменяем на определение сигнала ошибки

Перестановка уравнения дает

Эту форму можно выразить через матрицы

где – взвешенная выборочная ковариационная матрица для и – эквивалентная оценка перекрестной ковариации между и . На основе этого выражения находим коэффициенты, минимизирующие функцию стоимости:

Это главный результат дискуссии.

Выбор λ

Чем меньше , тем меньше вклад предыдущих выборок в ковариационную матрицу. Это делает фильтр более чувствительным к последним выборкам, что означает большие колебания коэффициентов фильтра. Этот случай называется алгоритмом RLS растущего окна . На практике обычно выбирается от 0,98 до 1. [1] Используя оценку максимального правдоподобия типа II, оптимальное значение можно оценить на основе набора данных. [2]

Рекурсивный алгоритм

Результатом обсуждения стало единственное уравнение для определения вектора коэффициентов, который минимизирует функцию стоимости. В этом разделе мы хотим получить рекурсивное решение вида

где – поправочный коэффициент во времени . Мы начнем вывод рекурсивного алгоритма с выражения перекрестной ковариации через

где вектор размерных данных

Аналогично выражаем через

Чтобы сгенерировать вектор коэффициентов, нас интересует обратная детерминированная автоковариационная матрица. Для этой задачи пригодится матричное тождество Вудбери . С

Матричное тождество Вудбери следует

Чтобы соответствовать стандартной литературе, мы определяем

где вектор усиления

Прежде чем двигаться дальше, необходимо привести в другой вид

Вычитание второго члена в левой части дает

При рекурсивном определении искомой формы следует

Теперь мы готовы завершить рекурсию. Как обсуждалось

Второй шаг следует из рекурсивного определения . Далее мы объединяем рекурсивное определение вместе с альтернативной формой и получаем

Когда мы приходим к уравнению обновления

где априорная ошибка . Сравните это с апостериорной ошибкой; ошибка, рассчитанная после обновления фильтра:

Это значит, что мы нашли поправочный коэффициент

Этот интуитивно удовлетворительный результат указывает на то, что поправочный коэффициент прямо пропорционален как ошибке, так и вектору усиления, который контролирует требуемую чувствительность посредством весового коэффициента .

Краткое описание алгоритма RLS

Алгоритм RLS для фильтра RLS p -го порядка можно резюмировать как

Рекурсия для следует алгебраическому уравнению Риккати и, таким образом, проводит параллели с фильтром Калмана . [3]

Решетчатый рекурсивный фильтр наименьших квадратов (LRLS)

Адаптивный фильтр решеточно-рекурсивного метода наименьших квадратов связан со стандартным RLS, за исключением того, что он требует меньшего количества арифметических операций (порядок N ). [4] Он предлагает дополнительные преимущества по сравнению с традиционными алгоритмами LMS, такие как более высокая скорость сходимости, модульная структура и нечувствительность к изменениям разброса собственных значений входной корреляционной матрицы. Описанный алгоритм LRLS основан на апостериорных ошибках и включает нормализованную форму. Вывод аналогичен стандартному алгоритму RLS и основан на определении . В случае прямого прогнозирования мы имеем входной сигнал в качестве самой последней выборки. Случай обратного прогнозирования : где i — индекс выборки в прошлом, которую мы хотим предсказать, а входной сигнал — самая последняя выборка. [5]

Сводка параметров

коэффициент прямого отражения
коэффициент обратного отражения
представляет мгновенную ошибку апостериорного прямого прогнозирования
представляет мгновенную ошибку апостериорного обратного прогнозирования
- минимальная ошибка обратного прогнозирования по методу наименьших квадратов
- минимальная ошибка прямого прогнозирования методом наименьших квадратов
- это коэффициент преобразования между априорными и апостериорными ошибками .
– коэффициенты множителя прямой связи.
— небольшая положительная константа, которая может составлять 0,01

Краткое описание алгоритма LRLS

Алгоритм фильтра LRLS можно резюмировать следующим образом:

Нормализованный решеточный рекурсивный фильтр наименьших квадратов (NLRLS)

Нормализованная форма LRLS имеет меньше рекурсий и переменных. Его можно рассчитать, применив нормализацию к внутренним переменным алгоритма, при которой их величина будет ограничена единицей. Обычно это не используется в приложениях реального времени из-за большого количества операций деления и извлечения квадратного корня, которые требуют высокой вычислительной нагрузки.

Краткое описание алгоритма NLRLS

Алгоритм фильтра NLRLS можно резюмировать следующим образом:

Смотрите также

Рекомендации

Примечания

  1. ^ Эманнуаль К. Ифеакор, Барри В. Джервис. Цифровая обработка сигналов: практический подход, второе издание. Индианаполис: Pearson Education Limited, 2002, с. 718
  2. ^ Стивен Ван Веренберг, Игнасио Сантамария, Мигель Лазаро-Гредилья «Оценка фактора забывания в ядерно-рекурсивном методе наименьших квадратов», Международный семинар IEEE 2012 г. по машинному обучению для обработки сигналов, 2012 г., по состоянию на 23 июня 2016 г.
  3. Уэлч, Грег и Бишоп, Гэри «Введение в фильтр Калмана», факультет компьютерных наук, Университет Северной Каролины в Чапел-Хилл, 17 сентября 1997 г., по состоянию на 19 июля 2011 г.
  4. ^ Диниз, Пауло С.Р., «Адаптивная фильтрация: алгоритмы и практическая реализация», Springer Nature Switzerland AG 2020, Глава 7: Адаптивные алгоритмы RLS на основе решетки. https://doi.org/10.1007/978-3-030-29057-3_7
  5. ^ Альбу, Кадлец, Софтли, Матоусек, Херманек, Коулман, Фаган «Реализация (нормализованной) решетки RLS на Virtex», Digital Signal Processing, 2001, по состоянию на 24 декабря 2011 г.