Главная > Разное > Информационная теория идентификации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

§ 3.5. Многомерные абсолютно оптимальные и оптимальные алгоритмы и их свойства

Рассмотрим задачу идентификации РАР-объектов с простой помехой, уравнение которых имеет вид

или

где

— вектор неизвестных параметров РАР-объекта, а

— вектор наблюдений. Уравнение оптимальной настраиваемой модели (1.3.47) представится в виде

где

— вектор параметров настраиваемой модели.

В рассматриваемом случае (РАР-объект с простой помехой) оптимальная настраиваемая модель статическая. Поскольку невязка равна

то оптимальные средние потери запишутся в виде

где оптимальная функция потерь, а плотность распределения помех. Кроме того,

Реализуемые абсолютно оптимальные алгоритмы (3.2.10), (3.2.11) запишутся в таком виде:

где

— матрица усиления. Блок-схема абсолютно оптимального алгоритма (3.5.10), (3.5.11) изображена на рис. 3.22.

Рис. 3.22

Рассмотрим частные случаи абсолютно оптимальных алгоритмов. Для помех с нормальной плотностью распределения принимая во внимание (3.4.7), получаем из (3.5.10), (3.5.11) линейный абсолютно оптимальный алгоритм

где

Аналогично, из (3.2.12), (3.2.13) после очевидных преобразований линейный абсолютно оптимальный алгоритм можно представить в несколько иной форме:

и

где определяется из (3.5.13).

Линейные абсолютно оптимальные алгоритмы (3.5.12), (3.5.13) и (3.5.14), (3 5.15) представляют собой рекуррентную форму метода наименьших квадратов (МНК). Важно подчеркнуть, что алгоритмы МНК не зависят от дисперсии помех Оценки, порождаемые этими алгоритмами, при надлежащих начальных условиях представляют собой решение системы так называемых нормальных уравнений в МНК.

Блок-схемы линейных абсолютно оптимальных алгоритмов, сводящиеся при нормальной плотности распределения помехи к блок-схемам МНК, приведены на рис. 3.23 (алгоритм (3.5.12), (3.5.13)) и рис. 3.24 (алгоритм (3.5,14), (3.5.15)).

Для помех с лапласовой плотностью распределения принимая во внимание (3.4.11), получаем из (3.5.11) абсолютно оптимальный релейный алгоритм

Рис. 3.23

Рис. 3.24

где

Этот абсолютно оптимальный алгоритм (его блок-схема приведена на рис. 3.25) соответствует методу наименьших модулей который в последнее время наминает находить широкое применение.

Для помех с плотностью распределения Коши принимая во внимание (3.4.13), из находим абсолютно оптимальный нелинейный алгоритм

Рис. 3.25

где

Блок-схема этого алгоритма изображена на рис. 3.26.

Рис. 3.26

Приведенные абсолютно оптимальные алгоритмы идентификации РАР-объектов с простой помехой обладают предельно возможной скоростью сходимости, определяемой нижней границей неравенства Крамера—Рао. АМКО этих алгоритмов, как было показано ранее (см. (2.3.23)), равна

где

— нормированная информационная матрица, выражения которой были приведены в § 1.6.

Для РАР- и АР-объектов с простой помехой нормированная информационная матрица зависит как от оптимального решения с так и от дисперсии помех Для -объектов с простой помехой

не зависит ни от с, ни от Поэтому АМКО абсолютно оптимальных алгоритмов идентификации -объектов (3.5.10), (3.5.11), где теперь будет равна

Отсюда следует, что все выводы, полученные для одномерных абсолютно оптимальных алгоритмов (см. § 3.4), остаются справедливыми и для многомерных абсолютно оптимальных алгоритмов идентификации -объектов с простой помехой.

Многие свойства одномерных абсолютно оптимальных и оптимальных алгоритмов сохраняются и для многомерных алгоритмов. Однако есть и различия, которые мы сейчас отметим.

Для РАР-объектов с простой помехой при произвольной симметричной функции потерь средние потери равны

и оптимальный алгоритм (1.7.22), (1.7.20) представится в виде

где

АМКО (1.710) для них равна

Рассмотрим случай квадратичной функции потерь Из (3.5.24), (3.5.25) получаем линейные оптимальные алгоритмы, алгоритмы МНК (3.5.12), (3.5.13) или, что эквивалентно, (3.5.14), (3.5.15). При этом из (3.5.26) находим выражение АМКО

Отсюда видно, что для РАР-объектов и -объектов АМКО зависит от дисперсии помех Поэтому, какова бы ни была симметричная непрерывная плотность распределения помех еслй ее дисперсия конечна и равна одной и той же фиксированной величине, то АМКО оптимальных линейных алгоритмов одна и та же и она совпадает с АМКО абсолютно оптимальных линейных алгоритмов. Это свойство линейных алгоритмов, алгоритмов МНК (их инвариантность относительно формы плотностей распределения с одинаковой конечной дисперсией), характеризует определенную их универсальность. Для АР-объектов, учитывая, что

(см. (1.6.39)), имеем

Это значит, что АМКО алгоритмов МНК идентификации АР-объектов не зависит от дисперсии помех. Такая независимость АМКО от дисперсии придает определенные особенности алгоритмам МНК идентификации АР-объектов, которые будут выяснены позже.

Рассмотрим теперь случай модульной функции потерь Из (3.5.24), (3.5.23) получим релейные оптимальные алгоритмы — алгоритмы МНМ, которые отличаются от абсолютно оптимальных релейных алгоритмов (3.5.16), (3.5.17) лишь тем, что в заменено на При этом АМКО равна

Отсюда видно, что для релейных оптимальных алгоритмов, алгоритмов МНМ, при одинаковой дисперсии помех будет тем меньше, чем больше величина плотности распределения в нулевой точке.

Рассмотрим еще многомерные алгоритмы идентификации динамических объектов с простой помехой и с настройкой параметра масштаба. Они получаются из общих алгоритмов (3.3.25) — (3.3.28), если в них положить

и

После очевидных преобразований из (3.3.25), (3.3.26) получаем

где, аналогично (3.5.11),

Из (3.3.27) будем иметь

Блок-схема алгоритма идентификации РАР-объектов с простой помехой и настройкой параметра масштаба приведена на рис. 3.27. Она состоит из основной схемы, формирующей оценки и вспомогательной схемы, формирующей оценки

Рассмотрим частные случаи, соответствующие конкретным видам помех. Для помехи с нормальной плотностью распределения получим из (3.5.31) — (3.5.33), принимая во внимание (3.4.7), линейный основной алгоритм

и вспомогательный алгоритм для

Рис. 3.27

Основной алгоритм оценивания (3.5.35) совпадает с алгоритмом (3.5.12), (3.5.13). Он не зависит от оценки параметра масштаба. Поэтому алгоритм МНК является алгоритмом, инвариантным к параметру масштаба нормального распределения. Иначе говоря, алгоритм МНК абсолютно оптимален для всего класса нормальных распределений независимо от величины дисперсии. Это важное свойство линейных алгоритмов. Что же касается вспомогательного алгоритма (3.5.36), то он формирует оценку среднеквадратического отклонения

Для помехи с плотностью распределения Лапласа учитывая (3.4.11), получим из (3.5.31) — (3.5.33) релейный основной алгоритм

где

и вспомогательный алгоритм

В этом случае, соответствующем МНМ, оценка определяемая основным алгоритмом зависит от оценки параметра масштаба которая определяется вспомогательным алгоритмом (3.5.39).

Блок-схемы алгоритмов для рассмотренных частных случаев получаются из блок-схем общих алгоритмов (рис. 3.22) лишь конкретизацией нелинейных преобразователей и матриц усиления.

Мы не будем здесь рассматривать алгоритмы идентификации объектов с преобразованной помехой. Блок-схемы их сложны. Они содержат модели чувствительности. Как будет показано в главе 8, эти алгоритмы можно существенно упростить за счет возможности устранения моделей чувствительности.

Приведем в заключение результаты моделирования многомерных алгоритмов для конкретных числовых примеров. Изменения ошибок порождаемые алгоритмами МНК (3.5.12), (3.5.13) при идентификации -объекта с простой помехой

приведены на рис. 3.28 (нормальные помехи кривая а, лапласовы помехи кривая б).

Рис. 3.28

Рис. 3.29

Изменения же ошибок, порождаемые алгоритмами МНМ (3.5.16), (3.5.17), изображены на рис. 3.29: для лапласовых помех кривая о, для нормальных помех

кривая б. И здесь наиболее быстрая скорость сходимости — у абсолютно оптимальных алгоритмов.

Рис. 3.30

Рис. 3.31

Моделирование алгоритмов МНК с настройкой параметра масштаба приводит к тем же результатам, что и для основного алгоритма (см. рис. 3.28). Что же касается ошибок то их изменение изображено на рис. 3.30: для нормальных помех кривая а, для лапласовых помех кривая б.

Рис. 3.32

Рис. 3.33

Для алгоритмов МНМ с настройкой параметра масштаба изменения ошибок приведены на рис. 3.31 и 3-32 соответственно: для лапласовых помех кривая а, для

нормальных помех кривая Сходимость этих алгоритмов МНМ с настройкой параметра масштаба несколько медленнее сходимости абсолютно оптимальных алгоритмов на конечных шагах, однако их асимптотические скорости сходимости совпадают.

Наконец, на рис, 3.33 приведены примеры моделирования алгоритма МНК идентификации РАР-объекта с преобразованной помехой кривая кривая б), описываемого уравнением

В этом случае алгоритмы существенно усложняются за счет наличия моделей чувствительности.

<< Предыдущий параграф Следующий параграф >>
Оглавление