Метод последовательного присоединения регрессоров
![Реферат: Метод последовательного присоединения регрессоров](https://westud.ru/work/6441624/cover.png)
Данный метод считается наиболее экономичным с точки зрения объема вычислений. Процедура метода достаточно проста. Вначале оценивается модель с полным списком регрессоров, для каждогопараметра рассчитывается значение дроби Стьюдента и исключается регрессор, статистика Стьюдента для которого минимальна. Затем эта процедура последовательно повторяется до тех пор, пока в спецификации не останутся… Читать ещё >
Метод последовательного присоединения регрессоров (реферат, курсовая, диплом, контрольная)
Алгоритм данного метода можно представить в виде последовательности следующих шагов.
Шаг 1. Строятся модели парной регрессии между эндогенной переменной и каждой из экзогенных переменных и фиксируются значения коэффициентов детерминации для каждого уравнения. Для включения в спецификацию модели выбирается тот регрессор, который соответствует максимальному значению коэффициента детерминации. Именно этот регрессор — наиболее информативный среди оставшихся.
Шаг 2. Рассматриваются модели, имеющие в своем составе по два регрессора: первый — выбранный на первом шаге, второй — один из оставшихся. Вновь сравниваются значения коэффициентов детерминации и, для дальнейшей работы, выбирается та пара регрессоров, которая обеспечивает максимальное значение коэффициента детерминации.
Шаг 3. Аналогичным образом рассматриваются модели с тремя регрессорами и т. д.
Процесс присоединения завершается тогда, когда присоединение следующего регрессора не приводит к увеличению коэффициента детерминации по сравнению с предыдущим шагом. Это обстоятельство рассматривается как сигнал о том, что присоединение дополнительных регрессоров не увеличивает информативность уже включенных регрессоров.
Проиллюстрируем применение метода последовательного присоединения регрессоров на том же примере.
В табл. 6.6 приведены пошаговые результаты применения рассмотренного метода.
Процедура завершилась на втором шаге. На первом шаге наиболее информативным регрессором оказался х2, который отобран для последующего присоединения к нему оставшихся регрессоров. На втором — наилучшем набором регрессоров оказался набор (х2, х6). Однако коэффициент детерминации в этом случае снизился по сравнению с предыдущим. Следовательно, можно на этом остановиться.
Таблица 6.6
Пошаговые результаты
Шаг 1. | ||||||
Регрессия. | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() |
![]() | 0,5. | 0,8084. | 0.785. | 0,269. | 0,037. | 0,002. |
Шаг 2. | ||||||
Регрессия. | ![]() | ![]() | ![]() | ![]() | ![]() | |
![]() | 0,803. | 0,807. | 0.804. | 0,811. | 0,8076. |
Таким образом, мы получили такой же результат: расходы на содержание квартиры определяются ее общей площадью.
Метод последовательного исключения регрессоров
Данный метод считается наиболее экономичным с точки зрения объема вычислений. Процедура метода достаточно проста. Вначале оценивается модель с полным списком регрессоров, для каждогопараметра рассчитывается значение дроби Стьюдента и исключается регрессор, статистика Стьюдента для которого минимальна. Затем эта процедура последовательно повторяется до тех пор, пока в спецификации не останутся только статистически значимые регрессоры.
Вновь применим метод к данным табл. 6.2. Пошаговые результаты метода сведены в табл. 6.7.
Замечание. В табл. 6.7 выделены минимальные значения дроби Стьюдента на каждом шаге.
Таблица 6.7
Значение дроби Стьюдента для каждого параметра. | |||||||
![]() | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() | |
Шаг 1. | 0,69. | 1,08. | 1,55. | 1,212. | 0,21 | 1,52. | 1,372. |
Шаг 2. | 0,70. | 1,157. | 3,13. | 1,53. | 1,52. | 1,36. | |
Шаг 3. | 0,96 | 3,52. | 1,4. | 1,84. | 1,19. | ||
Шаг 4. | 3,56. | 1,10 | 1,73. | 1,37. | |||
Шаг 5. | 28,7. | 1,7. | 1,57 | ||||
Шаг 6. | 39,0. | 0,9 |
В результате шести шагов мы пришли к тому же результату.
Подводя итог, отметим, что сочетанием теста на статистическую значимость параметров модели анализа списка переменных на наличие мультиколлинеарности удается добиться высокого качества спецификации модели, после чего можно перейти к анализу свойств оценок параметров уравнения регрессии.