Главная > Разное > Информационная теория идентификации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

§ 8.3. Усредненные алгоритмы со скалярной матрицей усиления

Рассмотрим оптимальный алгоритм идентификации со скалярной матрицей усиления

Рис. 8.1

где скалярный коэффициент усиления, а вектор коэффициентов чувствительности определяется соотношением (8.2.16). Алгоритм (8.2.3), рассмотренный в предыдущем параграфе, соответствовал алгоритму (8.3.1) при

Было показано, что выбор коэффициента в виде (8.2.6) обеспечивает минимум нормы достигающий нижней границы в неравенстве Крамера — Рао относительно норм матриц.

Рассмотрим теперь другую возможность формирования абсолютно оптимального алгоритма, связанную с идеей усреднения траектории алгоритма (8.3.1), когда оценки играют вспомогательную или промежуточную роль, а основными являются усредненные оценки

которые, очевидно, могут быть вычислены рекуррентным образом:

Однако если коэффициент усиления выбран оптимальным, например в виде (8.3.2), (8.2.6), то дополнительное усреднение (8.3.3) или (8.3.4) не только не дает никакого выигрыша, но даже приводит к снижению скорости сходимости.

Рассмотрим алгоритм (8.3.1), (8.3.4) с коэффициентом усиления вида

Такой коэффициент усиления является неоптимальным для алгоритма (8.3.1), причем АМКО (1.6.6)

равна бесконечности, поскольку, как будет показано ниже, имеет порядок Однако оценки полученные в результате усреднения (8.3.4), ведут себя оптимальным образом, т. е. АМКО

совпадает с нижней границей неравенства Крамера — Рао (2.3.23):

Покажем это.

Получим сначала уравнение для пормированной МКО неоптимального алгоритма (8.3.1), (8.3.5)

где

Подставляя выражение для в (8.3.10) и рассуждая так же, как в § 1.6, получаем приближенное уравнение ошибки, аналогичное (1.6.12):

где определяется выражением (1.6.10), т. е.

Умножим обе части этого уравнения на и обозначим

Учитывая (8.3.5) и то, что при достаточно больших приближенно

получим из (8.3.11), (8.3.12)

Здесь отброшены члены более высокого порядка, поскольку в силу (8.3.5) . Но из (8.3.9), (8.3.13) следует, что

поэтому, рассуждая как в § 1.6, получаем из (8.3.14), (8.3.15) аналогично (1.6.17) следующее уравнение:

где, как и ранее, полная информационная матрица (1.6.18) при оптимальной функции потерь:

Последнее равенство справедливо в силу (1.6.31).

Соотношение (8.3.16) можно рассматривать как рекуррентный алгоритм, решающий линейное матричное уравнение

которое в силу (8.3.17) эквивалентно уравнению

Поскольку этот алгоритм сходится, т. е.

где V — симметричная матрица, удовлетворяющая уравнению (8.3.18). Рассмотрим теперь ошибку алгоритма (8.3.4)

удовлетворяющую уравнению

Для нормированной МКО

из (8.3.20), (8.3.21) и (8.3.9) получим уравнение

где

Учитывая (8.3.19), заключаем, что последним членом правой части (8.3.23) можно пренебречь. Если теперь удастся показать, что последовательность матриц имеет конечный предел

то из (8.3.23) получим при

Таким образом, асимптотика нормированной МКО определяется поведением последовательности матриц

Чтобы вывести уравнение относительно умножим уравнение (8.3.11) на и вычислим математическое ожидание от обеих частей равенства. С учетом (8.3.21), (8.3.24), (8.3.5) и свойств помехи в частности (1.6.11), получим

Как легко убедиться, из уравнений (8.3.27), (8.3.19) и (8.3.5) следует существование предела (8.3.25):

Теперь, используя (8.3.18) и (8.3.26), получаем окончательно

что в силу (2.2.11), (2.5.7) совпадает с (8.3.8), так как

Итак, алгоритм идентификации

где

при любых обладает теми же асимптотическими свойствами, что и абсолютно оптимальные алгоритмы.

Рис. 8.2

При этом он существенно проще с точки зрения вычисления оценок и является реализуемым. Блок-схема алгоритма (8.3.28), (8.3.29) приведена на рис. 8.2.

<< Предыдущий параграф Следующий параграф >>
Оглавление