Главная > Математика > Линейная и нелинейная регрессии
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

8.4. Псевдонезависимые нелинейные регрессии

Системой псевдонезависимых нелинейных регрессий называется совокупность нелинейных регрессий

где вектор зависимой переменной векторная функция, отображающая общий вектор неизвестных параметров; 8; — случайный вектор отклонений

Употребление термина «псевдонезависимые» объясняется следующими предположениями, накладываемыми на систему (8.34):

а) , где Другими словами, если через обозначить вектор отклонений, координата которого соответствует уравнению наблюдения, то ;

б) неизвестный вектор параметров является общим для всех уравнений системы (8.34). При рассмотрении линейных псевдонезависимых регрессий предполагалось, что вектора дизъюнктивен (множества неизвестных параметров разных уравнений не пересекались друг с другом).

Система (8.34) легко может быть сведена к одной нелинейной регрессии. Действительно, обозначим

— векторы порядка Тогда (8.34) перепишется следующим образом: где, как легко показать, (см. параграф 2.5). Обозначим далее вектор-столбец, координата которого соответствует уравнению системы (8.34), которая в свою очередь отвечает наблюдению. Аналогично введем вектор-функцию Тогда (8.34) перепишется следующим образом: причем При известной матрице взвешенный МНК

(см. параграф 2.1) приводит нас к минимизации следующего выражения:

Пусть такая невырожденная матрица что (см. параграф 2.5). Тогда, обозначая

приходим к регрессии

где v - вектор-столбец составленный из вектор-функция, отображающая в составленная из вектор порядка составленный аналогично Важно отметить, что и поэтому все методы, разработанные в гл. 7 и 8, применимы к регрессии (8.36). В частности, нетрудно показать, что если для каждого уравнения (8.34) имеют место условия теорем 8.1, 8.2 и 8.3, то оценка взвешенного МНК, минимизирующая (8.35) или сумму квадратов отклонений регрессии (8.36), будет непрерывной, состоятельной, асимптотически-нормальной.

До сих пор речь шла о ситуации, когда известна. Этот случай имеет скорее теоретическую ценность, чем практическую.

Допустим, неизвестная матрица. В этом случае возможны два пути. Первый — оценить матрицу на основе (8.34) и использовать ее при минимизации (8.35). Полученную оценку будем называть оценкой Зеллнера Процесс можно продолжить: на основе оценки Зеллнера оценить матрицу й, найти новую оценку и т. д. Такие оценки так же, как и в линейной регрессии, будем называть итеративными оценками Зеллнера. Если число итераций оценивания равно 1, итеративная оценка превращается в оценку Зеллнера. В условиях теоремы 8.2 можно доказать состоятельность итеративной оценки Зеллнера. Накладывая на регрессию (8.34) условия, аналогичные условиям теоремы 8.3, можно показать, что итеративные оценки Зеллнера асимптотически нормальны [48, с. 106].

Перейдем ко второму пути оценивания системы Предположим, что нормально распределены. Тогда, минимизируя функцию плотности вектора у, найдем оценку метода максимального правдоподобия. Можно использовать эту оценку, даже если отклонения распределены не нормально. Такие оценки называются оценками метода квазимаксимального правдоподобия (МКМП). В [172] доказано, что в условиях регулярности типа (8.4) оценка МКМП является состоятельной оценкой ее. Филлипс также показывает, что при некоторых условиях итеративная оценка Зеллнера для больших устойчива (т. е. сходится) и ее предел равен оценке МКМП. Барнетт [80] также устанавливает сходимость оценки МКМП, ее асимптотическую нормальность и эффективность.

<< Предыдущий параграф Следующий параграф >>
Оглавление