Студентам > Курсовые > Спектральный анализ и его приложения к обработке сигналов в реальном времени
Спектральный анализ и его приложения к обработке сигналов в реальном времениСтраница: 4/6
Окончательный вид выражений геометрического алгоритма :
, где
n=1,2,..p-1
,
, где
1.4.3.2. Гармонический алгоритм Берга.
Алгоритм Берга идентичен геометрическому, однако оценка
коэффициента отражения находится из других соображений, а именно : при каждом
значений параметра p
в нем минимизируется арифметическое среднее мощности ошибок линейного
предсказания вперед и назад (то есть выборочная дисперсия ошибки предсказания):
Приравнивая производные к нулю, имеем оценку для :
Некоторым обобщением является взвешивание среднего квадрата
ошибки предсказания для уменьшения частотного смещения, наблюдаемого при
использовании базового метода Берга:
что приводит к следующей оценке :
1.4.4. Оценивание линейного предсказания по методу наименьших
квадратов.
Налагая ограничения на авторегрессионные параметры, с тем
чтобы они удовлетворяли рекурсивному выражению метода Левинсона, в методе Берга
происходит минимизация по одного параметра - коэффициента отражения . Более общий подход состоит в минимизации
одновременно по всем коэффициентам линейного предсказания.
Итак, пусть для оценивания авторегрессионных параметров
порядка p используются последовательность
данных .Оценка линейного предсказания вперед
порядка p для отсчета будет иметь форму:
где - коэффициенты линейного предсказания вперед порядка
p.
Ошибка линейного предсказания :
В матричном виде это выражение записывается как :
и соотношение для ошибки :
Однако если рассматривать, в котором минимизируется
следующая, невзвешенная выборочная дисперсия :
то матрица принимает теплицевый вид (далее ее будем обозначать ).
Нормальные уравнения, минимизирующие средний квадрат ошибки
имеют следующий вид:
Элементы эрмитовой матрицы имеют вид корреляционных форм
, где
Таким образом, авторегрессионные параметры могут быть
получены в результате решения нормальных уравнений. Рассмотрим алгоритм,
который в решении нормальных уравнений учитывает тот факт, что эрмитова матрица получена как произведение двух теплицевых и в результате
этого сводит количество вычислений к . При использовании алгоритма Холецкого потребовалось бы операций.
Ошибки линейного предсказания вперед и назад
p-ого порядка
Здесь вектор данных , вектор коэффициентов линейного предсказания вперед и вектор линейного предсказания назад определяется следующими выражениями:
, ,
На основе отсчетов измеренных комплексных данных ковариационный метод линейного предсказания
позволяет раздельно минимизировать суммы квадратов ошибок линейного
предсказания вперед и назад:
,
что приводит к следующим нормальным уравнениям :
,
Введем необходимые для дальнейшего определения :
,
исходя из вида и можно записать :
, ,
где вектор столбцы и даются выражениями :
,
Важными также являются следующие выражения :
Пара векторов-столбцов и определяются из выражений :
Аналогично определяются вектора и , а также и через матрицы и .
Процедура, используемая для обновления порядка вектора
линейного предсказания вперед выглядит следующим образом :
, где , в котором
Соответствующий вид имеет процедура обновления порядка для
вектора предсказания назад:
, где ,
Векторы и должны удовлетворять следующим
рекурсиям обновления порядка:
Используя тот факт, что является эрмитовой матрицей имеем
следующие выражения для и :
Введем скалярные множители
Соответствующие рекуррентные выражения для и имеют следующий вид :
Наконец, еще одна рекурсия обновления порядка необходима для
вектора :
Обновление временного индекса в векторе коэффициентов
линейного предсказания вперед осуществляется в соответствии с выражением :
Выражение для обновления временного индекса у квадрата ошибки
линейного предсказания вперед :
Аналогичным образом обновление временного индекса в векторе
коэффициентов линейного предсказания назад ведется в соответствии с выражением :
Выражение для обновления временного индекса у квадрата ошибки
линейного предсказания назад :
,
где комплексный скаляр удовлетворяет выражениям :
Соответствующие рекурсии по временному индексу для
действительных скаляров и даются следующими выражениями:
,
Начальные условия необходимы для того, чтобы начать
рекурсивное решение с порядка равного нулю:
, , ,
, ,
,
Экспериментальные результаты приведены в соответствующем
разделе.
1.4.5. Градиентный адаптивный авторегрессионный метод
1.4.6. Рекурсивный авторегрессионный метод наименьших квадратов
1.5. Спектральное оценивание на
основе моделей авторегрессии - скользящего среднего .
Модель авторегресии-скользящего среднего имеет больше
степеней свободы, чем авторегрессионная модель, поэтому следует ожидать, что
получаемые с ее помощью оценки спектральной плотности мощности будут обладать
большими возможностями для передачи формы различных спектров. Основой
спектрального оценивания при помощи модели авторегрессии-скользящего среднего
является аппроксимация СС-процесса авторегрессионной моделью высокого порядка.
Пусть
- системная функция СС(q)-процесса
-системная функция АР-процесса,
эквивалентного этому СС(q)-процессу, то есть
Применим обратное z-преобразование к обеим частям последнего равенства, используя теорему об
обратном преобразовании произведения функций, получим:
причем
Таким образом, СС-параметры можно определить по параметрам
некоторой эквивалентной авторегрессионной модели посредством решения
произвольной подсистемы из q уравнений.
Используя АР-оценки высокого порядка можно записать следующую систему уравнений :
|