Главная > Разное > Статистические выводы и связи, Т.2
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

Приближенные частные линейные регрессии

27.15 В нашем изложении, начиная с 27.8, мы занимались точно линейными регрессионными зависимостями типа (27.18). Так же как в 26.8, рассмотрим теперь вопрос подгонки регрессионных соотношений этого типа к наблюденным совокупностям, регрессии которых почти никогда не бывают точно линейными. С помощью тех же рассуждений мы приходим к методу наименьших квадратов. Мы выбираем поэтому так, чтобы минимизировать сумму квадратов уклонений наблюдений от подгоняемой регрессии:

где иксы измеряются от своих средних значений и предполагается Согласно (19.12) решение имеет вид

где матрица X составлена из наблюдений над величинами вектор наблюдений величины Соотношение (27.41) можно переписать в виде

где матрица рассеяния для вектор ковариаций между Таким образом,

Поскольку есть минор матрицы рассеяния V всех величин, то представляет собой дополнительный минор для

в V, так что сумма в правой части (27.43) является алгебраическим дополнением для в Поэтому (27.43) представляется в виде

Соотношение (27.44) совпадает с (27.19). Таким образом, как и в 26.8, мы приходим к заключению, что аппроксимация по методу наименьших квадратов дает те же коэффициенты регрессии, что и в случаё точной линейной регрессии.

Из этого следует, что все результаты данной главы остаются в силе, когда для наблюденных совокупностей мы подгоняем регрессии по методу наименьших квадратов.

<< Предыдущий параграф Следующий параграф >>
Оглавление