Главная > Разное > Информационная теория идентификации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

7.4. Акселерантные абсолютно оптимальные алгоритмы

Алгоритмы, порождаемые условием оптимальности вида (7.3.8), учитывающим априорную информацию об оптимальном решении, как выше было условлено, назовем акселерантными. Для формирования акселерантных алгоритмов воспользуемся одной из разновидностей алгоритмов Ньютона — Рафсона для решения системы нелинейных уравнений. В общем случае

Выбор вектора с в матрице Гессе определяет ту или иную разновидность алгоритма Ньютона — Рафсона. При из (7.4.1) получаем классический алгоритм Ньютона — Рафсона

При из (7.4.1) следует модифицированный алгоритм Ньютона — Рафсона

Наконец, при из (7.4.1) получим необычную модификацию алгоритма Ньютона — Рафсона

Сделаем еще один шаг. Заменим в (7.4.4) матрицу Гессе

Тогда эта модификация алгоритма Ньютона—Рафсона окончательно представится в виде

Этим алгоритмом мы и воспользуемся для формирования акселерантных алгоритмов идентификации.

Рассмотрим вначале градиент обобщенных эмпирических средних потерь, входящий в алгоритм (7.4.6):

где

Его можно представить в виде

Предположим, что приближенно удовлетворяет условию оптимальности (7.3.8), т. е.

Тогда из (7.4.8) получим

Таким образом определяется градиент входящий в алгоритм (7.4.6). Оказывается, он зависит явно лишь от наблюдений для момента времени.

Теперь займемся вычислением матрицы Гессе входящей в алгоритм (7.4.6). Принимая во внимание выражение для заключаем, что

Но в силу (7.3.4), (7.2.1)

где представляет собой матрицу фишеровских информаций. Таким образом,

Если принять, что компоненты вектора рандомизации (7.2.3) независимы, то матрица фишеровских информаций (7.4.12) будет диагональной положительно определенной матрицей вида

Здесь

— фишеровские информации, соответствующие фидуциальным плотностям распределения компонент вектора рандомизации.

Заменяя в формуле (7.4.13) нормированную информационную матрицу ее оценкой

где определяется получим приближенное выражение матрицы Гессе:

Подставляя выражение градиента (7.4.10) и матрицы Гессе (7.4.17) в алгоритм (7.4.6), получим после уже знакомых преобразований

где

Применяя к матрице усиления лемму об обращении матриц (1.7.17), (1.7.18) с последующей заменой, если в этом есть необходимость, на (см. § 1.7), получим рекуррентное соотношение

Начальное значение матрицы усиления которое в абсолютно оптимальных алгоритмах (3.2.3), (3.2.4) принималось имеющим вид где 7 1, теперь становится вполне определенным. Как видно из (7.4.19), начальное значение равно обратной матрице фишеровских информации

Таким образом, мы приходим к акселерантным абсолютно оптимальным алгоритмам

Акселерантные алгоритмы (7.4.18), (7.4.19) можно представить и в несколько иной форме:

где определяется из (7.4.76).

Сопоставляя акселерантные абсолютно оптимальные алгоритмы (7.4.76), (7.4.18), (7.4.20), (7.4.21) или (7.4.22), (7.4.23), (7.4.20), (7.4.76), (7.4.21) с соответствующими абсолютно оптимальными алгоритмами (3.2.3), (3.2.4) или (3.2.5), (3.2.7), (3.2.4), заключаем, что они отличаются лишь начальными значениями. В акселерантных абсолютно

оптимальных алгоритмах начальные значения не произвольны, а определяются априорной информацией об оптимальном решении:

Таким образом, акселеризация алгоритмов идентификации сводится к замене в них произвольных начальных значений начальными значениями, определенными априорной информацией об оптимальном решении. Блок-схемы акселерантных алгоритмов совпадают с блок-схемами абсолютно оптимальных алгоритмов рис. 1.16 (см. § 3.2) и рис. 3.1 при конкретных начальных значениях.

Мы не будем приводить здесь выражения акселерантных алгоритмов с настройкой параметра масштаба. Они образуются из оптимальных алгоритмов с настройкой параметра масштаба (3.3.25) — (3.3.27) заменой произвольных начальных значений начальными значениями, определяемыми априорной информацией об оптимальном решении и параметре масштаба, а именно:

Блок-схемы этих акселерантных алгоритмов совпадают с блок-схемами алгоритмов с настройкой параметра масштаба рис. 3.12 при конкретных начальных значениях (7.4.24).

<< Предыдущий параграф Следующий параграф >>
Оглавление