Главная > Разное > Теория кодирования и теория информации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

7.3. Соотношения в канале

В системе передачи информации входные символы выбираются с вероятностями Поэтому принятые символы также будут иметь некоторые вероятности появления (Это обозначение является достаточно понятным, хотя оно и не удовлетворяет строгим математическим требованиям.) множества вероятностей связаны следующими соотношениями

или в сокращенных обозначениях

Запишем вероятность появления пары символов и 63- через Тот же смысл будет иметь обозначение Эту вероятность можно выразить двумя способами:

Приравнивая эти две записи, получим

Это равенство известно как формула Байеса для условных вероятностей. Ясно, что оно симметрично .по обоим множествам символов. Вероятности называются прямыми условными вероятностями, поскольку они исходят из входа канала, где задан и определяют вероятности . В свою очередь вероятности называются обратными условными вероятностями и отвечают на вопрос: «Задан символ на выходе; какой символ на входе вызвал

Подставляя соотношения (7.3.1) в знаменатель формулы Байеса (7.3.2), можно получить эквивалентное выражение

Суммирование по всем очевидно, дает Эта формула означает, что заданный выходной символ определенно является результатом того, что на вход канала был подан некоторый символ.

<< Предыдущий параграф Следующий параграф >>
Оглавление