Главная > Разное > Информационная теория идентификации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

§ 3.3. Абсолютно оптимальные алгоритмы с настройкой параметра масштаба

Абсолютно оптимальные алгоритмы, полученные в настоящей главе, предназначены для идентификации динамических систем, в которых вспомогательный параметр известен и равен единице. Если же этот вспомогательный параметр не известен и, следовательно, подлежит определению (как это имеет место, например, в том случае, когда помеха приложена ко входу объекта (рис. 1.5) то необходимо как-то видоизменить алгоритмы идентификации. Аналогичная ситуация имеет место и тогда, когда плотность распределения помехи известна с точностью до параметра характеризующего меру разброса помехи

Введем обозначение параметра масштаба, характеризующего меру разброса:

и пусть плотность распределения с единичной мерой разброса. Тогда плотность распределения с заданной мерой разброса можно представить в виде

Рассмотрим возможность построения абсолютно оптимальных алгоритмов идентификации, когда параметр масштаба неизвестен, а известна лишь плотность распределения с единичной мерой разброса Оптимальная функция потерь теперь будет зависеть не только от вектора

где

входящего в невязку но и от параметра масштаба

или

Обозначим

Тогда оптимальная функция потерь представится в виде

Таким образом, средние потери, которые теперь зависят и от параметра масштаба равны

или, после подстановки из (3.3.8),

Градиент и производная средних потерь равны соответственно

и

Используем эти выражения для формирования как основного абсолютно оптимального алгоритма оценивания с так и вспомогательного алгоритма оценивания параметра масштаба

Принимая во внимание, что фишеровские информации и дисперсии для плотностей распределения связаны очевидными соотношениями

запишем основной алгоритм в уже знакомой нам форме,

где в соответствии с (3.2.2)

Этот алгоритм отличается от абсолютно оптимального алгоритма, например, вида (3.2.1), (3.2.2), лишь тем, что в нем вместо фиксированного параметра масштаба фигурирует его оценка Что же касается вспомогательного алгоритма, то он также формируется по правилам, установленным в § 3.1. Используя выражение производной получаем

где коэффициент усиления равен

Заметим, что параметр масштаба является положительным, поэтому алгоритм (3 .3.16) следовало бы снабдить соответствующим проектором, чтобы всегда было Мы, однако, не будем этого делать.

Вычислим коэффициент усиления Дифференцируя (3.3.12) по получим при

Но для оптимальных решений с и из (3.3.12) имеем

Поэтому выражение для упрощается:

Учитывая (3.3.7), получим

Умножая это равенство на и беря математическое ожидание, получим после несложных преобразований

Первое слагаемое в (3.3.22)

представляет собой гибрид фишеровской информации и дисперсии. Будем называть фишеровской дисперсионной информацией, или, короче, фишеровской динформацией. Примеры фишеровской динформации вместе с фишеровской информацией для ряда плотностей распределений приведены в табл. 3.1.

Таблица 3.1 (см. скан) Фшиеровская информация и фишеровская информация

Что же касается второго слагаемого в (3.3.22), то, как нетрудно показать,

Таким образом,

и из (3.3.20) получаем

Окончательно, коэффициент усиления запишется в виде

Блок-схема абсолютно оптимального алгоритма с настройкой параметра масштаба {3.3.14) - (3.3.17) изображена на рис. 3.6. По сравнению с рис. 3.1 она содержит дополнительный контур настройки параметра масштаба.

Рис. 3.6

Можно получить иную форму алгоритма с настройкой параметра масштаба, если использовать вместо оценку матрицы усиления в виде рекуррентного соотношения, аналогичного (3.2.46). Поскольку представляет собой вектор коэффициентов чувствительности (1.4.22), то окончательно абсолютно оптимальные алгоритмы с настройкой параметра масштаба примут следующий вид:

— основной алгоритм

где

— вспомогательный алгоритм

где в силу (3.3.24)

Начальные условия для алгоритмов (3.3.25) — (3.3.28) те же, что и ранее.

Блок-схема этого абсолютно оптимального алгоритма с настройкой параметра масштаба изображена на рис. 3.7.

Рис. 3.7

Напомним, что если оптимальная модель статическая, что соответствует идентификации объектов с простой помехой, то во всех этих алгоритмах и необходимость в модели чувствительности (3.3.26а) отпадает.

<< Предыдущий параграф Следующий параграф >>
Оглавление