Главная > Разное > Последовательные методы в распознавании образов и обучении машин
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

3.5. Эксперименты по классификации образов

Описанные в предыдущих параграфах модифицированный п. к. о. в. и модифицированный о. п. к. о. в. были применены для классификации рукописных букв Для получения статистик, необходимых для построения

подходящих математических моделей, были обработаны 60 образцов каждой из букв. В данном случае использовались те же 18 признаков, что и в эксперименте, описанном в § 2.3. Каждый входной образ определялся последовательностью из 18 замеров, представляемой вектором в -мерном пространстве признаков.

В описываемых ниже примерах с целью обеспечения моделирования на ЭЦМ было применено квантование замеров на 10 возможных значений. Понятно, что результаты без каких-либо изменений применимы к стохастическим процессам с дискретным временным параметром.

Эксперимент 1. Предполагается, что в каждом классе признаки имеют многомерное гауссово распределение.

Пусть , представляет собой многомерные гауссовы плотности вероятностей соответственно для букв и с на шаге последовательного процесса классификации. X — это -мерный вектор признаков, обозначающий поочередные замеры Это случай, когда процесс классификации заканчивается не более чем за 18 измерений признаков. Конкретно

где средний вектор для класса — ковариационная матрица размера общая для всех трех классов. Выборочные средние и выборочные ковариации, оцененные по 60 образцам, были использованы для определения и

Случай а. Двоичная классификация с помощью модифицированного п. к. о. в.

В этом случае при логарифм последовательного отношения вероятностей, вычисленный на шаге,

Верхняя граница для модифицированного п. к. о. в. была выбрана в виде

а нижняя граница — в виде

где начальные значения границ, установленные таким образом, чтобы были получены различные уровни вероятностей ошибок и среднее число измерений признаков. Результат представлен на рис. 3.2, который показывает уменьшение ошибок с ростом продолжительности классификации (выраженной средним числом измерений). Для сравнения на том же рисунке приведена соответствующая кривая для обычного п. к. о. в. Вальда (полученная в предположении постоянных границ).

Рис. 3.2. Распознавание букв

Следует отметить, что при одинаковой мощности классификации двух букв применение модифицированного п. к. о. в. обеспечивает уменьшение продолжительности классификации на величину до 40% для малых вероятностей ошибок.

Случай Классификация букв и с с помощью модифицированного о. п. к. о. в.

В этом случае обобщенное последовательное отношение вероятностей для каждого класса на шаге вычисляется следующим образом:

где может иметь значение 2 или 3 в зависимости от числа классов образов, рассматриваемых на каждом шаге. Пусть

где Процедура классификации по модифицированному о. п. к. о. в. состоит в исключении класса из рассмотрения на шаге, если для некоторого Когда остается лишь один класс, не удовлетворяющий этому неравенству, входной образ относят к этому классу.

Рис. 3.3. Распознавание букв

На рис. 3.3 показана зависимость между ошибкой и продолжительностью классификации. Для получения этой зависимости задавались различными начальными значениями границы Соответствующий результат для о. п. к. о. в. с постоянными границами также представлен на том же рисунке. Важно заметить, что при правильном построении зависящих от времени границ в модифицированном о. п. к. о. в. можно достигнуть более эффективного уменьшения продолжительности классификации без ухудшения заранее заданных вероятностей ошибок.

Эксперимент 2. Предполагается, что поочередные измерения признаков образуют марковскую цепь.

Будем считать, что поочередные измерения признаков при каждом входном образе (буквы образуют однородную цепь Маркова первого порядка с дискретным временем, т. е.

Пусть обозначает пространство состояний марковского процесса, где все представляют собой 10 возможных значений замеров (т. е. а любые замеры со значениями, превышающими 10, берутся равными 10). Матрицы вероятностей перехода для букв определяются следующим образом:

(кликните для просмотра скана)

это условная вероятность того, что измерение относится к состоянию при условии, что измерение относится к состоянию Предполагается, что марковская цепь эргодическая и что матрицы вероятностей переходов известны априори (получены оценкой по заданным выборкам — см. алгоритм на рис. 3.4). Тогда модифицированный п. к. о. в. сводится к вычислению последовательного отношения вероятностей на шаге:

что непосредственно связано со свойствами марковской цепи (3.42). Логарифмируя получим для достаточно большого числа измерений [8]

где число переходов из состояния в состояние есть общее число переходов на шаге процесса. Используя те же зависящие от времени границы, что и в случае а эксперимента 1, вычисляется и по пересечении любой из границ принимается окончательное решение.

Рис. 3.5. Распознавание букв (марковская модель).

На рис. 3.5 представлены кривые, показывающие связь между ошибками и средним числом замеров для модифицированного п. к. о. в. и обычного п. к. о. в. Вальда

Здесь можно отметить два дополнительных результата этого эксперимента:

(1) Для осуществления п. к. о. в. в марковской модели необходимы лишь вероятности переходов и число переходов Здесь не нужны сложные вычисления, связанные с операциями над матрицами, особенно в случае многомерного пространства признаков, и поэтому значительно сокращается продолжительность вычислений.

(2) Из сравнения рис. 3.5 и 3.2 видно уменьшение среднего числа измерений. Представляется, что марковская зависимость между замерами может давать значительно лучшее отображение физических особенностей распознавания букв.

<< Предыдущий параграф Следующий параграф >>
Оглавление