Главная > Разное > Статистические выводы и связи, Т.2
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

Сложные гипотезы

34.23 Хотя мы рассматривали критерий для простой гипотезы Но против простой Ни и СОВ могут быть вычислены на самом деле для всех возможных альтернативных значений и, следовательно, дадут нам характеристики критерия для простой

гипотезы против сложной Ни, Рассмотрим теперь случай сложной гипотезы Предположим, что 8 может изменяться в некоторой области Нам нужно проверить гипотезу о том, что принадлежит некоторой ее подобласти (области принятия), против альтернатив, что лежит либо в области отклонения либо в области безразличия (которая может быть пустой). Мы будем требовать от ошибок двух свойств: вероятность ошибки первого рода которая в общем случае изменяется вместе с , не должна превышать фиксированного числа а для всех из а вероятность ошибки второго рода не должна превышать для всех из юг. Где бы в действительности ни находился параметр , ошибки будут ограничены заданными

34.24 Такие условия, однако, вряд ли могут привести к полезным результатам. Мы имеем гарантию на все случаи, но из» лишняя гарантия может привести к значительной потере эффективности.

Вальд (1947) считает, что в качестве разумного требования, возможно, лучше рассматривать усредненные значения по по Возникает вопрос, какого сорта среднее следует использовать. Вальд вводит две весовые функции такие, что

и затем полагает

С помощью этих средних задача сводится к задаче о проверке простой гипотезы. Действительно, если обозначить

то отношение правдоподобия может быть использовано обычным способом с ошибками Мы можем, если угодно, рассматривать (34.86) и как апостериорные вероятности

выборки, когда само имеет априорные вероятности

34.25 Указанная процедура, разумеется, сводит задачу к задаче о нахождении или выборе весовых функций Мы оказываемся в точно таком же положении, как когда хотим применить теорему Байеса. Мы можем применить одну из форм постулата Байеса, например, предположив, что всюду в Другая возможность для выбора заключается в том, чтобы оптимизировать некоторые свойства критерия.

Например, выбор критерия сделан, когда выбраны (или, при нашей аппроксимации, и весовые функции. Среди всех таких критериев будут находиться критерии с максимальными значениями Если мы выберем весовые функции так, чтобы минимизировать (гпаха, то получим критерий, который для данных имеет наименьшую возможную границу средних ошибок. Если невозможно минимизировать максимумы одновременно, то можно попытаться минимизировать максимум некоторой функции от них, например, от суммы.

<< Предыдущий параграф Следующий параграф >>
Оглавление