Главная > Разное > Последовательные методы в распознавании образов и обучении машин
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

6.5. Общая модель для байесовых обучающихся систем

В. С. Пугачев предложил общую модель для байесовых обучающихся систем, позволяющую объединить различные схемы обучения в одну формулировку [19—21].

В несколько отличающейся трактовке эта модель рассматривается в настоящем параграфе. Главная идея модели В. С. Пугачева заключается в рассмотрении реального учителя (или тренера), который не может знать точно правильного ответа (например, правильной классификации обучающего наблюдения).

Пусть X — входной сигнал обучающейся системы. При этом выходной сигнал обучающейся системы будет выходной сигнал учителя и требуемый выходной сигнал В общем случае являются случайными векторными величинами. Связь между выходом и входом учителя можно выразить условной функцией плотности вероятности В частном случае идеального учителя (или тренера), учитель знает требуемый выход т. е. функция плотности

не зависит от Здесь есть дельта-функция Дирака. Для любого учителя в общем случае не совпадает с На рис. 6.1 показана простая блок-схема системы и учителя. Если учитель обучает систему, показывая последовательность обучающих наблюдени то

т. е. не зависит от

Рис. 6.1. Общая блок-схема обучающейся системы.

Если учитель обучает систему, оценивая качество ее работы (по ее выходу), то

не зависит от Работа системы представляется условной функцией плотности В частном случае оптимальной байесовой системы

где есть байесов оптимальный выходной сигнал по отношению к данному критерию. Например, для

оптимального байесова классификатора

Рассмотрим для примера дискретный случай. Пусть есть функция плотности совместной вероятности в общем случае эта функция может содержать линейную комбинацию -функций в тех точках которые соответствуют ненулевым вероятностям. Допустим, что функции являются известными функциями своих аргументов и зависят от конечного числа неизвестных параметров, которые образуют компоненты вектора . Как отмечалось в § 6.1, эти неизвестные параметры могут быть оценены (изучены) путем использования формулы Байеса. Пусть априорная функция плотности есть Последовательности обучающих наблюдений соответствуют последовательность выходных сигналов системы и последовательность выходных сигналов учителя Допустим, что независимы, тогда апостериорную функцию плотности вероятности для можно записать в виде

где К — нормировочный множитель. Запись указывает на то, что эти величины могут зависеть от времени. В частном случае идеального учителя

Тогда (6.85) принимает вид

В случае, когда реальный учитель обучает систему, показывая последовательность обучающих наблюдений, имеем

где

Тогда (6.85) будет иметь вид

В случае обучения системы на основе ее собственных решений функция плотности

не зависит от выходных сигналов учителя. Этот класс обучающихся систем иногда называют обучающимися системами, управляемыми их же решениями.

Поскольку оптимальность системы определена нами в смысле критерия Байеса, легко видеть, что в этом смысле идеальный учитель не может быть наилучшим учителем. Действительно, никакая система не может в общем случае обучиться точному воспроизведению требуемого выходного сигнала что делает идеальный учитель (например, случай нулевой вероятности ложного распознавания). Она может только обучиться находить подходящие оценки Следовательно, наилучшим учителем должен считаться такой учитель, который обучает систему находить оптимальные байесовы оценки для требуемых выходных сигналов. Выходной сигнал такого учителя совпадает с выходом оптимальной системы, минимизирующей средний риск. Предположим, что можно определить оператор так, что

Тогда

Соответственно величина является дискретно распределенной на подмножестве значений 0, удовлетворяющих

уравнениям

Если существует таких уравнений с единственным решением для , то для любого плотность распределения будет отлична от нуля лишь в одной точке, которая соответствует истинному значению неизвестных параметров Это можно сделать, решая совместно уравнений с учетом пар обучающих выборок

Следует отметить, что для такой операции необходима информация двух видов. Во-первых, надо иметь в распоряжении уравнения (6.94), во-вторых, иметь пар обучающих выборок Располагая этой информацией и решая совместно уравнений типа (6.94), учитель сможет оценить истинные значения неизвестных параметров Тогда выходной сигнал учителя будет байесовым оптимальным сигналом Этот сигнал затем используется для обучения системы, которая в свою очередь будет приближаться к байесовой оптимальной системе.

Пример. Пусть реальный учитель является двоичным линейным классификатором, как показано на рис. 6.2.

Рис. 6.2. Линейный классификатор.

Для классов образов, характеризующихся гауссовыми распределениями с одинаковыми ковариационными матрицами, байесова оптимальная решающая граница по существу является гиперплоскостью. Положим

Тогда байесов оптимальный выходной сигнал классификатора можно выразить следующим образом:

Таким образом, по трем парам обучающих выборок можно определить истинные значения неизвестных параметров решая следующие три уравнения:

совместно с

Следует отметить, что тренировка (обучение с поощрением) системы, основанная на выходном сигнале реального учителя, применяющего байесовы методы, является асимптотическим процессом, т.е. оцененные значения параметров стремятся к истинным значениям лишь асимптотически (при бесконечной последовательности обучающих выборок). Однако, зная байесов оптимальный оператор учитель может оценить неизвестные параметры на основе только конечного числа обучающих выборок. (Предполагается, что учитель обладает способностью решать систему совместных уравнений). Если система имеет такую же структуру, как у этого учителя, т. е. для системы также может быть применен байесов оптимальный оператор то между такой системой и учителем не будет никакого различия. Оба они смогут оценивать неизвестные параметры на основе конечного множества обучающих выборок. В общем случае считается, что учитель имеет более сложную структуру или по крайней мере более способен решать уравнения (6.94), чем система.

<< Предыдущий параграф Следующий параграф >>
Оглавление