Главная > Математика > Линейная и нелинейная регрессии
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

5.2. Простейшие методы робастного оценивания регрессии

Допустим возможность присутствия в ряду наблюдений выбросов, т. е. наблюдений, удовлетворяющих исходной регрессии и имеющих большие дисперсии либо вообще неудовлетворяющих исходной модели. И в том и другом шучаях включение таких наблюдений в ряд равноправны) членов выборки приведет к заметному смещение оценок параметров и ухудшению их свойств. Как отмгчает Хюбер [137], даже одно далеко лежащее от общей массы наблюдение может испортить оценку МНК;

более того, выбросы в случае эегрессии приводят к большим искажениям, чем в задаче оценивания параметра положения. Выбросы могут быть результатом нарушения условия эксперимента, неправильного измерения, засорения данных и т. п. В случае оценивания параметров положения наиболее простой способ получения робастных, т. е. устойчивых, оценок заключался в отбрасывании ряда экстремальных значений выборки и оценивании параметра положения по усеченной выборке. Этот метод легко обобщается на случай регрессии. Доля отсечения экстремальных значений не должна быть очень высокой. Разумеется, если все отброшенные наблюдения в действительности оказались выбросами, то эффективность усеченной оценки только возрастет. Однако если среди отброшенных наблюдений есть и «хорошие», т. е. удовлетворяющие гипотезам классической регрессии, то эффективность новой оценки снизится. Простейшим компромиссом здесь может служить отбрасывание тех наблюдений, которые приводят к максимальному и минимальному отклонениям после оценивания МНК. Полезную информацию при этом дает график отклонений регрессии. Возможно мы и ошибемся, если примем некоторые наблюдения за выбросы, однако в любом случае расчет новой регрессии весьма полезен.

Найдем робастную оценку по указанному правилу для регрессии-примера (1.5). В табл. 1.1 приведены отклонения после применения МНК. Максимальное отклонение, равное 4,27, соответствует первому, а минимальное соответствует третьему наблюдению. Подозревая первое и третье наблюдения в выбросах, пересчитаем уравнение регрессии МНК по оставшейся выборке из 13 наблюдений; получим

На рис. 5.3 пунктирной линией показаны отклонения новой регрессии, сплошной — оцененной по МНК. Как видим, в результате отброса экстремальных наблюдений характер отклонений слабо изменился: разброс отклонений уменьшился.

Получение робастных оценок методом исключения выбросов имеет один недостаток. Как было отмечено, оценка МНК резко реагирует на наличие выбросов в исходной информации. Поэтому выявление выбросов с помощью регрессии,

Рис. 5.3. Отклонения регрессии-примера

оцененной методом наименьших квадратов, может привести к тому, что подозреваемые наблюдения окажутся на самом деле «хорошими». Для удовлетворительной «оценки выбросов» необходимо пользоваться оценкой, малочувствительной к ним, т. е. робастной, а ее мы как раз и хотим найти.

<< Предыдущий параграф Следующий параграф >>
Оглавление