Изучение моделей регрессии
Регрессия для Х1 не может быть принята для дальнейшего использования — она статистически ненадежна. Сравнение многофакторной регрессии и парной регрессии У на Х6 показывает, что многофакторная регрессия лучше, но из-за того, что в ней оценки фактора Х1 ненадежны (t набл = -3,512 859 127 при уровне критическом в 2,73 873 068 с 95% вероятностью незначима), этот фактор следует удалить. Поэтому для… Читать ещё >
Изучение моделей регрессии (реферат, курсовая, диплом, контрольная)
Введение
Из всего многообразия методов моделирования структурно-сложных экономических систем можно выделить два основных «работающих» класса:
* эконометрика;
* имитационное моделирование.
В отличие от систем физических или биологических, которые достаточно хорошо изучены, точность предсказания будущего поведения экономических объектов (рынок, отрасль, регион, предприятие, банк) относительно не высока. Возможно, именно сложность объекта привлекает исследователей: количество научных работ растет почти экспоненциально.
Изучение моделей множественного выбора в настоящее время является очень актуальным вопросом, так как они применяются в социологических, социально-экономических и медицинских выборочных обследованиях. Это даёт возможность проводить более грамотную экономическую политику и как следствие приносит большую прибыль предприятиям.
Методы эконометрики используются для поиска и проверки общих закономерностей, связывающих траекторные переменные системы и переменные внешней среды. А поскольку измерение любых величин, в особенности экономических, связано со случайными ошибками, то применение аппарата математической статистики для анализа вероятностных свойств этих величин неизбежно. Использование эконометрических моделей предполагает представление объекта в виде «черного ящика» и формальное исследование зависимостей между переменными, например, на основе системы одновременных уравнений.
Целью написания работы является изучение моделей регрессии.
Объектом исследования является модель лог-регрессии.
Предмет исследования -? использование модели лог-регрессии в эконометрических исследованиях.
Для изучения темы использовалась тематическая литература таких авторов как: Магнус Л. Р, Тихомиров Н. П., Дорохина Е. Ю., а так же труды ведущих отечественных экономистов: В. Н. Афанасьева, И. И. Елисеевой, А. К. Шалабанова. Так же в работе использованы интернет источники.
В работе были использованы ряд статистических методов, таких как: метод массового статистического наблюдения, анализ и синтез данных, а также эконометрические методы: метод наименьших квадратов и конфлюэнтный анализ.
Работа состоит из введения, двух глав (теоретической и практической), выводов (заключения), списка использованных источников.
1. Теоретическая часть
1.1 Функциональные преобразования переменных в линейной регрессии В линейной регрессии иногда переменные выражены в нелинейном виде или они имеют разные размерности. В этих случаях требуется преобразование данных. Применяют чаще всего два вида преобразований:
· логарифмирование данных;
· переход к безразмерным величинам путем деления на некоторые известные величины, той же размерности, что и исходные данные.
Покажем на примере линеаризации нелинейных моделей регрессии как проводят подобные преобразования.
При нелинейной зависимости признаков, приводимых к линейному виду, параметры множественной регрессии определяются по МНК, который используется не к исходной информации, а к преобразованным данным. Так, рассматривая степенную функцию
преобразовываем ее в линейный вид:
где переменные выражены в логарифмах.
Далее обработка МНК такая же: строится система нормальных уравнений и определяются неизвестные параметры. Потенцируя значение, находим параметр a и соответственно общий вид уравнения степенной функции. Оценка нелинейной регрессии по включенным переменным определяется МНК или его модификациями, как и в линейной регрессии. Так, в двухфакторном уравнении нелинейной регрессии может быть проведена линеаризация, введением в него новых переменных. В результате получается четырехфакторное уравнение линейной регрессии
.
Если между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций.
Различают два класса нелинейных регрессий:
1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например
— полиномы различных степеней, ;
— равносторонняя гипербола ;
— полулогарифмическая функция .
2. Регрессии, нелинейные по оцениваемым параметрам, например
— степенная ;
— показательная ;
— экспоненциальная .
Регрессии нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных, а дальнейшая оценка параметров производится с помощью метода наименьших квадратов. Рассмотрим некоторые функции.
Парабола второй степени приводится к линейному виду с помощью замены:. В результате приходим к двухфакторному уравнению, оценка параметров которого при помощи МНК.
Парабола второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.
Равносторонняя гипербола может быть использована для характеристики обратной связи между факторами (например, удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота, процента прироста заработной платы от уровня безработицы, расходов на непродовольственные товары от доходов или общей суммы расходов). Гипербола приводится к линейному уравнению простой заменой: .
Аналогичным образом приводятся к линейному виду зависимости, и другие.
Среди нелинейных моделей наиболее часто используется степенная функция, которая приводится к линейному виду логарифмированием:
;
;
где. Т. е. МНК применяется для преобразованных данных:
а затем потенцированием находим искомое уравнение.
Для определения неизвестных коэффициентов линеаризованной формы показательной функции методом наименьших квадратов необходимо минимизировать сумму квадратов отклонений логарифмов наблюдаемых значений результативной переменной У от теоретических значений? (значений, рассчитанных на основании модели регрессии), т. е. минимизировать функционал МНК вида:
Оценки неизвестных коэффициентов, А и В линеаризованной формы показательной функции находятся при решении системы нормальных уравнений вида:
Данная система является системой нормальных уравнений относительно коэффициентов, А и В для функции вида Yi=A+Bхi+E.
Однако основным недостатком полученных МНК-оценок неизвестных коэффициентов моделей регрессии, сводимых к линейному виду, является их смещённость.
1.2 Лог-линейная регрессия, как модель с постоянной эластичностью Регрессия, линейная в логарифмах, именуется лог-линейной регрессией.
Тесноту связи изучаемых явлений оценивает линейный коэффициент парной корреляции для линейной регрессии (-1? ? 1):
где — среднее квадратическое отклонение в ряду x,
— среднее квадратическое отклонение в ряду y.
Линейный коэффициент корреляции как измеритель тесноты линейной связи признаков связан не только с коэффициентом регрессии b, но и с коэффициентом эластичности, который является показателем силы связи, выраженным в процентах.
Коэффициент эластичности отражает, на сколько процентов изменится значение y при изменение значения фактора на 1%. Коэффициент эластичности рассчитывается как .
Обобщающий (средний) коэффициент эластичности рассчитывается для среднего значения :
и показывает, на сколько процентов изменится y относительно своего среднего уровня при росте x на 1% относительно своего среднего уровня.
Точечный коэффициент эластичности рассчитывается для конкретного значения x=x0:
и показывает, на сколько процентов изменится y относительно своего уровня y (x0) при увеличении на 1% от уровня x0.
Степенная функция является примером нелинейной по параметрам регрессии. Данная модель нелинейна относительно оцениваемых параметров, т.к. включает параметры a и b неаддитивно. Однако ее можно считать внутренне линейной, так как логарифмирование приводит ее к линейному виду: .
При исследовании взаимосвязей среди функций, использующих ln y, в эконометрике преобладают степенные зависимости — это кривые спроса и предложения, кривые освоения для характеристики связи между трудоемкостью продукции и масштабами производства в период освоения выпуска нового вида изделий, а также зависимость валового национального дохода от уровня занятости.
Для оценки параметров степенной функции применяется МНК к линеаризованному уравнению, т. е. решается система нормальных уравнений:
Параметр b определяется непосредственно из системы, а параметр a — косвенным путем после потенцирования величины ln a.
Так как в виде степенной функции изучается не только эластичность спроса, но и предложения, то обычно параметром b<0 характеризуется эластичность спроса, а параметром b>0 — эластичность предложения.
Если же модель представить в виде:
то она становится внутренне нелинейной, так как ее невозможно превратить в линейный вид, то же относится к моделям вида:
так как эти уравнения не могут быть преобразованы в уравнения, линейные по коэффициентам.
Ниже представлены формулы расчета коэффициентов эластичности (табл. 1).
Широкое использование степенной функции связано с тем, что параметр в ней имеет четкое экономическое истолкование — он является коэффициентом эластичности. Коэффициент эластичности фактора — результата Y по фактору X показывает, на сколько процентов изменится в среднем результат Y, если фактор X изменится на 1%.
Таблица 1. Формулы коэффициентов точечной эластичности и средних коэффициентов эластичности
Вид функции | Точечный коэффициент эластичности | Средний коэффициент эластичности | |
Линейная | |||
Парабола | |||
Равносторонняя гипербола | |||
Степенная | |||
Показательная | |||
Формула для расчета коэффициента эластичности имеет вид:
.
Так как для остальных функций коэффициент эластичности не является постоянной величиной, а зависит от соответствующего значения фактора X, то обычно рассчитывается средний коэффициент эластичности:
.
Приведем дополнительные формулы расчета средних коэффициентов эластичности для наиболее часто используемых типов уравнений регрессии (табл.2)
Возможны случаи, когда расчет коэффициента эластичности не имеет смысла. Это происходит тогда, когда для рассматриваемых признаков бессмысленно определение изменения в процентах.
В двухфакторном регрессионном анализе найти уравнение регрессии в стандартизированном масштабе можно через формулы:
.
На основе линейного уравнения множественной регрессии:
могут быть найдены частные уравнения регрессии:
В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном среднем уровне. Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности:
где bj — коэффициент регрессии при j-ом факторе;
? частное уравнение регрессии.
Для того чтобы оценить сравнительную силу влияния факторов, по каждому фактору рассчитывают средние коэффициенты эластичности.
где — среднее значение j-го факторного признака;
— среднее значение результативного признака;
— коэффициент регрессии при j-м факторном признаке.
Расчет коэффициента эластичности дополняет экономический анализ. Данный коэффициент показывает, на сколько процентов следует ожидать изменения результативного показателя при изменении фактора на 1% и неизменном значении других факторов.
2. Практическая часть
2.1 Характеристика экзогенных и эндогенных переменных. Построение двухфакторного уравнения регрессии. Построение однофакторных уравнений линейной регрессии. Прогнозирование значения результативного признака Список переменных, используемых в модели У — индекс человеческого развития (ИЧР) — безразмерная величина;
Х1 — ВВП 1997 г., % к 1990 г. — безразмерная величина;
Х6 — ожидаемая продолжительность жизни при рождении в 1997 г., число лет дожития Эндогенной переменной в модели Y=F (X1, X6) является У (ее значение будет определятся в модели), соответственно, Х1, Х6 — это экзогенные переменные (их значения задаются извне).
Таблица 2. Исходные значения переменных
Страна | У | Х1 | Х6 | |
Австрия | 0,904 | |||
Австралия | 0,922 | 78,2 | ||
Белоруссия | 0,763 | |||
Бельгия | 0,923 | 77,2 | ||
Великобритания | 0,918 | 77,2 | ||
Германия | 0,906 | 77,2 | ||
Дания | 0,905 | 75,7 | ||
Индия | 0,545 | 62,6 | ||
Испания | 0,894 | |||
Италия | 0,9 | 78,2 | ||
Канада | 0,932 | |||
Казахстан | 0,74 | 67,6 | ||
Китай | 0,701 | 69,8 | ||
Латвия | 0,744 | 68,4 | ||
Нидерланды | 0,921 | 77,9 | ||
Норвегия | 0,927 | 78,1 | ||
Польша | 0,802 | 72,5 | ||
Россия | 0,747 | 66,6 | ||
США | 0,927 | 76,7 | ||
Украина | 0,721 | 68,8 | ||
Финляндия | 0,913 | 76,8 | ||
Франция | 0,918 | 78,1 | ||
Чехи | 0,833 | 99,2 | 73,9 | |
Швейцария | 0,914 | 78,6 | ||
Швеция | 0,923 | 78,5 | ||
Подготовим данные к обработке — проранжируем их, проследим, какие связи между ними. Поле рассеяния Х1, Х6 на У показано на рис. 1. На графике видно, что наличествует прямая линейная зависимость Х6 от У. Для Х1 не прослеживается определенная зависимость результирующего признака У от фактора Х6. График распадается на 2 части: в диапазоне У от 0,55 до 0,7 связь прямая и линейная, затем слом уровня Х6 в 5 раз и опять проступает повышательный тренд в диапазоне 0,7 до 1. Эти графические наблюдения показывают, что для линейной регрессии У от Х6 мало оснований.
Строим многофакторную линейную регрессию для модели
Y=a+b1*X1+b2*X6
Применив МНК, получаем такое эмпирическое уравнение регрессии (полные результаты приведены в Прил.1)
Y = -0,63 377−0,552*X1 + 0,20 747*X6
Рис.1
Примечание: из-за разной масштабности Х1 и Х6 данные по Х6 отложены на правой шкале.
Множественный коэффициент корреляции (Индекс множественной корреляции).
Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции. В отличии от парного коэффициента корреляции, который может принимать отрицательные значения, он принимает значения от 0 до 1. Поэтому R не может быть использован для интерпретации направления связи. Чем плотнее фактические значения Yi располагаются относительно линии регрессии, тем меньше остаточная дисперсия и, следовательно, больше величина Ry (x1,…, xm).
Таким образом, при значении R близком к 1, уравнение регрессии лучше описывает фактические данные и факторы сильнее влияют на результат. При значении R близком к 0 уравнение регрессии плохо описывает фактические данные и факторы оказывают слабое воздействие на результат.
Аналогичный результат получим при использовании других формул:
Связь между признаком Y и факторами Xi очень высокая.
Расчёт коэффициента корреляции выполним, используя известные значения линейных коэффициентов парной корреляции и в-коэффициентов.
Коэффициент детерминации,
R2= 0,9762 = 0,952. Эта величина показывает, что 95,2% колебаний У объяснено этим уравнением, оставшиеся 4,8% относятся на ошибки спецификации и случайную ошибку. Коэффициент детерминации также равен доле факторной дисперсии в общей дисперсии. Такое высокое значение — хороший результат.
Проверка общего качества уравнения множественной регрессии.
Оценка значимости уравнения множественной регрессии осуществляется путем проверки гипотезы о равенстве нулю коэффициент детерминации рассчитанного по данным генеральной совокупности: R2 или b1 = b2 =… = bm = 0 (гипотеза о незначимости уравнения регрессии, рассчитанного по данным генеральной совокупности).
Для ее проверки используют F-критерий Фишера.
При этом вычисляют фактическое (наблюдаемое) значение F-критерия, через коэффициент детерминации R2, рассчитанный по данным конкретного наблюдения.
По таблицам распределения Фишера-Снедоккора находят критическое значение F-критерия (Fкр). Для этого задаются уровнем значимости б (0,05) и двумя числами степеней свободы k1=m и k2=n-m-1.
F-статистика. Критерий Фишера.
Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y.
Более объективной оценкой является скорректированный коэффициент детерминации:
Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.
Проверим гипотезу об общей значимости — гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных:
H0: R2 = 0; в1 = в2 = … = вm = 0.
H1: R2? 0.
Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера (правосторонняя проверка). =
Если F < Fkp = Fб; n-m-1, то нет оснований для отклонения гипотезы H0.
Табличное значение при степенях свободы k1 = 2 и k2 = n-m-1 = 25 — 2 — 1 = 22, Fkp (2;22) = 3,44
Отметим значения на числовой оси.
Таблица 3
Принятие H0 | Отклонение H0, принятие H1 | |
95% | 5% | |
3,44 | 219,61 | |
Поскольку фактическое значение F=219,61 > Fkp =3,44, нулевую гипотезу принимаем, соответственно, коэффициент детерминации статистически значим и уравнение регрессии статистически надежно.
Оценка значимости дополнительного включения фактора (частный F-критерий).
Необходимость такой оценки связана с тем, что не каждый фактор, вошедший в модель, может существенно увеличить долю объясненной вариации результативного признака. Это может быть связано с последовательностью вводимых факторов (т. к. существует корреляция между самими факторами).
Мерой оценки значимости улучшения качества модели, после включения в нее фактора хj, служит частный F-критерий — Fxj:
где m — число оцениваемых параметров.
В числителе — прирост доли вариации у за счет дополнительно включенного в модель фактора хj.
Если наблюдаемое значение Fxj больше Fkp, то дополнительное введение фактора xj в модель статистически оправдано.
Частный F-критерий оценивает значимость коэффициентов «чистой» регрессии (bj). Существует взаимосвязь между частным F-критерием — Fxj и t-критерием, используемым для оценки значимости коэффициента регрессии при j-м факторе:
Оценим с помощью частного F-критерия:
1) целесообразность включения в модель регрессии факторов х1 после введения хj (Fx1).
Определим наблюдаемое значение частного F-критерия:
R2(X6,xn = r2(X6) = 0,9622 = 0,926
Fkp(k1=1;k2=22) = 4,3
Сравним наблюдаемое значение частного F-критерия с критическим:
Fx1>4,3, следовательно, фактор Х1 целесообразно включать в модель после введения факторов Хj.
2) целесообразность включения в модель регрессии факторов Х6 после введения хj (FX6).
Определим наблюдаемое значение частного F-критерия:
R2(x1, xn = r2(x1) = -0,4342 = 1,9E-5
Сравним наблюдаемое значение частного F-критерия с критическим:
FX6>4,3, следовательно, фактор х6 целесообразно включать в модель после введения факторов хj.
Таким образом, по уравнению множественной регрессии можно сделать вывод о его статистической надежности.
Теперь вычислим оценки парных регрессий.
Y=a+b*X1
Y=a+b*X6
Для регрессии У на Х1 получаем такие оценки (см. Прил.2)
Y = -0,14 451*X1 + 0,8513
Видно, что оценка при Х1 настолько близка к 0, что этот фактор практически не работает в уравнении.
Линейный коэффициент корреляции рассчитывается по формуле:
Линейный коэффициент корреляции принимает значения от -1 до +1.
Связи между признаками могут быть слабыми и сильными (тесными). Их критерии оцениваются по шкале Чеддока:
0,1 < rxy < 0,3: слабая;
0,3 < rxy < 0,5: умеренная;
0,5 < rxy < 0,7: заметная;
0,7 < rxy < 0,9: высокая;
0,9 < rxy < 1: весьма высокая;
В нашем примере связь между признаком Y фактором X1 слабая и обратная.
Коэффициент эластичности.
Коэффициенты регрессии нежелательно использовать для непосредственной оценки влияния факторов на результативный признак в том случае, если существует различие единиц измерения результативного показателя у и факторного признака Х, как это имеет место в данном случае. Для этих целей вычисляются коэффициенты эластичности и бета — коэффициенты.
Средний коэффициент эластичности E показывает, на сколько процентов в среднем по совокупности изменится результат У от своей средней величины при изменении фактора X1 на 1% от своего среднего значения.
Коэффициент эластичности находится по формуле:
Коэффициент эластичности меньше 1. Следовательно, при изменении Х1 на 1%, Y изменится менее чем на 1%. Другими словами — влияние Х1 на Y не существенно.
Бета — коэффициент показывает, на какую часть величины своего среднего квадратичного отклонения изменится в среднем значение результативного признака при изменении факторного признака на величину его среднеквадратического отклонения при фиксированном на постоянном уровне значении остальных независимых переменных:
Т.е. увеличение x на величину среднеквадратического отклонения Sx приведет к уменьшению среднего значения Y на 0,43% среднеквадратичного отклонения Sy.
Для линейной регрессии индекс корреляции равен коэффициенту корреляции rx1y = -0.434. Полученная величина rx1y свидетельствует о том, что фактор x1 никак не влияет на Y
Значимость коэффициента корреляции.
Выдвигаем гипотезы:
H0: rxy = 0, нет линейной взаимосвязи между переменными;
H1: rxy? 0, есть линейная взаимосвязь между переменными;
Для того чтобы при уровне значимости б проверить нулевую гипотезу о равенстве нулю генерального коэффициента корреляции нормальной двумерной случайной величины при конкурирующей гипотезе H1? 0, надо вычислить наблюдаемое значение критерия (величина случайной ошибки)
и по таблице критических точек распределения Стьюдента, по заданному уровню значимости б и числу степеней свободы k = n — 2 найти критическую точку tкрит двусторонней критической области. Если tнабл < tкрит оснований отвергнуть нулевую гипотезу. Если |tнабл| > tкрит — нулевую гипотезу отвергают.
По таблице Стьюдента с уровнем значимости б=0,05 и степенями свободы k=23 находим
tкрит: tкрит (n-m-1;б/2) = (23;0,025) = 2,069
где m = 1 — количество объясняющих переменных.
Если |tнабл| > tкритич, то полученное значение коэффициента корреляции признается значимым (нулевая гипотеза, утверждающая равенство нулю коэффициента корреляции, отвергается).
Поскольку |tнабл| < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически незначим
Отметим значения на числовой оси.
Таблица 4
Принятие H0 | Отклонение H0, принятие H1 | |
95% | 5% | |
0,0208 | 2,069 | |
Нулевую гипотезу отвергаем.
Результаты регрессии У на Х6.
Y = 0,2 018*X6 -0,6521
Линейный коэффициент корреляции считаем по формуле:
В нашем примере связь между признаком Y фактором X6 весьма высокая и прямая.
Смысл оценок параметров регрессии:
коэффициент регрессии b = 0,0202 показывает среднее изменение результативного показателя (в единицах измерения У) с повышением или понижением величины фактора Х6 на единицу его измерения. В данном примере с увеличением на 1 единицу Y повышается в среднем на 0,0202.
Коэффициент a = -0,65 формально показывает прогнозируемый уровень У, но только в том случае, если х6=0 находится близко с выборочными значениями.
Но если х6=0 находится далеко от выборочных значений х6, то буквальная интерпретация может привести к неверным результатам, и даже если линия регрессии довольно точно описывает значения наблюдаемой выборки, нет гарантий, что также будет при экстраполяции влево или вправо.
Подставив в уравнение регрессии соответствующие значения х6, можно определить выровненные (предсказанные) значения результативного показателя y (x6) для каждого наблюдения.
Связь между У и Х определяет знак коэффициента регрессии b (если > 0 — прямая связь, иначе — обратная). В нашем примере связь прямая.
Коэффициент эластичности.
Коэффициент эластичности находится по формуле:
В нашем примере коэффициент эластичности больше 1. Следовательно, при изменении Х6 на 1%, Y изменится более чем на 1%. Другими словами, Х6 существенно влияет на Y.
Бета — коэффициент показывает, на какую часть величины своего среднего квадратичного отклонения изменится в среднем значение результативного признака при изменении факторного признака на величину его среднеквадратического отклонения при фиксированном на постоянном уровне значении остальных независимых переменных:
Т.е. увеличение x6 на величину среднеквадратического отклонения Sx6 приведет к увеличению среднего значения Y на 96,2% среднеквадратичного отклонения Sy.
Квадрат (множественного) коэффициента корреляции называется коэффициентом детерминации, который показывает долю вариации результативного признака, объясненную вариацией факторного признака.
R2= 0,9622 = 0,9255
т, е. в 92,55% случаев изменения Х6 приводят к изменению Y. Соответственно, точность подбора уравнения регрессии высокая. Остальные 7,45% изменения Y объясняются факторами, не учтенными в модели (а также ошибками спецификации).
Анализ данных этой таблицы показывает, что регрессия для Х1 не может быть принята для дальнейшего использования — она статистически ненадежна. Сравнение многофакторной регрессии и парной регрессии У на Х6 показывает, что многофакторная регрессия лучше, но из-за того, что в ней оценки фактора Х1 ненадежны (t набл = -3,512 859 127 при уровне критическом в 2,73 873 068 с 95% вероятностью незначима), этот фактор следует удалить.
Таблица 5 Сравним полученные регрессии по основным оценкам качества
Показатель | Y=F (X1,X6) Y=-0,633 774 523−0,552 295*Х1 +0,20 746 702*Х6 | Y=F (X1) Y=0,851 304 526−0,14 451*Х1 | Y=F (X6) Y=-0,652 063 486+ 0,20 178 753*Х6 | |
R-квадрат (коэффициент детерминации) | 0,952 276 652 | 1,88287E-05 | 0,925 507 804 | |
Нормированный R-квадрат | 0,947 938 166 | — 0,43 458 614 | 0,922 269 013 | |
F-статистика | 219,4 951 453 | 0,433 068 | 285,7 571 736 | |
Значимость F | 2,92442E-15 | 0,983 576 471 | 1,82412E-14 | |
Эластичность | ||||
Х1 | — 0,71 268 188 | — 0,1 864 763 | ||
Х6 | 1,817 130 969 | 1,767 386 299 | ||
В-коэффициент | ||||
Х1 | — 0,165 837 354 | — 0,4 339 206 | ||
Х6 | 0,989 110 446 | 0,962 033 161 | ||
Средняя ошибка аппроксимации | 2,148 463 212 | 10,8 769 876 | 2,659 652 795 | |
Статистика Дарбина-Уотсона (крит. значение = 2,064) | 1,753 086 257 | 0,130 093 972 | 0,965 789 921 | |
Прогноз по средним значениям факторов (Усреднее = 0,84 972) | 0,849 719 984 | 0,852 889 049 | 0,849 720 027 | |
Поэтому для применения наилучшим образом подходит уравнение парной регрессии
Y= Y = 0,2 018*X6 -0,6521
Покажем эти различия на графике (см. рис.2), на котором видно, что регрессия У на Х1 ничего не предсказывает, кроме среднего значения У. Множественная и парная регрессии, почти совпадая по оценкам параметров, дают расчетные значения очень близкие и соответственно их графики накладываются друг на друга и достаточно хорошо аппроксимируют фактические значения У.
Таким образом, проанализировав колебания значений переменных У — индекс человеческого развития; Х1 — ВВП 1997 г., % к 1990 г.; Х6 — ожидаемая продолжительность жизни при рождении в 1997 г., число лет дожития получили результат, что для предсказания изменения индекса человеческого развития по 25 странам Европы достаточно собрать информацию об ожидаемой продолжительности жизни для поколения рождения в 1997 г. С надежностью в 92,5% будет предсказано значение У для данных 25 стран со средней ошибкой в 2,7%.
Распространять эти результаты на более широкую выборку стран и иной период наблюдения некорректно.
Рис. 2 Сравнение фактических и расчетных значений по всем регрессиям
Заключение
Связь между (y и xx1), (y и xx6) является несущественной.
Непосредственное влияние фактора X1 на результат Y в уравнении регрессии измеряется вj и составляет -0,166; косвенное (опосредованное) влияние данного фактора на результат определяется как: rx1X6в2 = 0,163 * 0,989 = 0,1615.
Регрессия для Х1 не может быть принята для дальнейшего использования — она статистически ненадежна. Сравнение многофакторной регрессии и парной регрессии У на Х6 показывает, что многофакторная регрессия лучше, но из-за того, что в ней оценки фактора Х1 ненадежны (t набл = -3,512 859 127 при уровне критическом в 2,73 873 068 с 95% вероятностью незначима), этот фактор следует удалить. Поэтому для применения наилучшим образом подходит уравнение парной регрессии
Y= Y = 0,2 018*X6 -0,6521
Проанализировав колебания значений переменных У — индекс человеческого развития; Х1 — ВВП 1997 г., % к 1990 г.; Х6 — ожидаемая продолжительность жизни при рождении в 1997 г., число лет дожития получили результат, что для предсказания изменения индекса человеческого развития по 25 странам Европы достаточно собрать информацию об ожидаемой продолжительности жизни для поколения рождения в 1997 г. С надежностью в 92,5% будет предсказано значение У для данных 25 стран со средней ошибкой в 2,7%.
регрессия эластичность эндогенный
Основная литература
1. Эконометрика: Учебник / И. И. Елисеева, С. В. Курышева, Т. В. Костеева и др. Ї М.: Финансы и статистика, 2014. — 244 с.
2. Эконометрика: Учебник для вузов / Под ред. проф. Кремера Н. Ш. Ї М.: ЮНИТИ-ДАНА, 2005. — 311 с.
Дополнительная литература
1. Айвазян С. А., Мхитарян В. С. Прикладная статистика и основы эконометрики. — М.: ЮНИТИ, 1998. — 1022 с.
2. Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика. Начальный курс: Учебник. — М.: Дело, 2001. — 400 с.
3. Катышев П. К., Магнус Я. Р., Пересецкий А. А. Сборник задач к начальному курсу эконометрики. — М.: Дело, 2002. — 208 с.
4. Тюрин Ю. Н., Макаров А. А. Статистический анализ данных на компьютерах /Под ред. В. Э. Фигурнова. — М Инфра-М, 1998.
Приложение 1
Таблица 1 Многофакторная линейная регрессия
ВЫВОД ИТОГОВ | Регрессионная статистика | ||||||||
Множественный R | 0,9758 | ||||||||
R-квадрат | 0,9523 | ||||||||
Нормированный R-квадрат | 0,9479 | ||||||||
Стандартная ошибка | 0,0231 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 0,2345 | 0,1173 | 219,5 | 3E-15 | |||||
Остаток | 0,0118 | 0,0005 | |||||||
Итого | 0,2463 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | — 0,634 | 0,073 | — 8,677 | 1E-08 | — 0,785 | — 0,482 | — 0,785 | — 0,482 | |
Х1 | — 6E-04 | 0,0002 | — 3,513 | 0,002 | — 9E-04 | — 2E-04 | — 9E-04 | — 2E-04 | |
Х6 | 0,0207 | 0,001 | 20,952 | 5E-16 | 0,0187 | 0,0228 | 0,0187 | 0,0228 | |
Среднее | Эл | СКО | В-коэф | ||||||
0,8497 | 0,1013 | ||||||||
109,65 | — 0,071 | 30,416 | — 0,166 | ||||||
74,424 | 1,8171 | 4,8294 | 0,9891 | ||||||
ВЫВОД ОСТАТКА | ВЫВОД ВЕРОЯТНОСТИ | ||||||||
Наблюдение | Предсказанное У | Остатки | Стандартные остатки | Персентиль | У | A | |||
0,5843 | — 0,039 | — 1,777 | 0,545 | 0,0722 | |||||
0,6984 | 0,0026 | 0,1191 | 0,701 | 0,0038 | |||||
0,7682 | — 0,047 | — 2,133 | 0,721 | 0,0655 | |||||
0,7295 | 0,0105 | 0,475 | 0,74 | 0,0142 | |||||
0,7334 | 0,0106 | 0,4797 | 0,744 | 0,0143 | |||||
0,7143 | 0,0327 | 1,4793 | 0,747 | 0,0438 | |||||
0,7361 | 0,0269 | 1,2142 | 0,763 | 0,0352 | |||||
0,8002 | 0,0018 | 0,0804 | 0,802 | 0,0022 | |||||
0,8446 | — 0,012 | — 0,525 | 0,833 | 0,0139 | |||||
0,9221 | — 0,028 | — 1,268 | 0,894 | 0,0314 | |||||
0,929 | — 0,029 | — 1,309 | 0,9 | 0,0322 | |||||
0,9002 | 0,0038 | 0,1714 | 0,904 | 0,0042 | |||||
0,871 | 0,034 | 1,5352 | 0,905 | 0,0375 | |||||
0,9071 | — 0,001 | — 0,051 | 0,906 | 0,0012 | |||||
0,9005 | 0,0125 | 0,5659 | 0,913 | 0,0137 | |||||
0,9411 | — 0,027 | — 1,226 | 0,914 | 0,0297 | |||||
0,9055 | 0,0125 | 0,5666 | 0,918 | 0,0137 | |||||
0,9258 | — 0,008 | — 0,352 | 0,918 | 0,0085 | |||||
0,9172 | 0,0038 | 0,1707 | 0,921 | 0,0041 | |||||
0,9207 | 0,0013 | 0,0594 | 0,922 | 0,0014 | |||||
0,9066 | 0,0164 | 0,7426 | 0,923 | 0,0178 | |||||
0,9369 | — 0,014 | — 0,626 | 0,923 | 0,015 | |||||
0,9147 | 0,0123 | 0,5538 | 0,927 | 0,0132 | |||||
0,8929 | 0,0341 | 1,5419 | 0,927 | 0,0368 | |||||
0,9428 | — 0,011 | — 0,488 | 0,932 | 0,0116 | |||||
DW | 1,7531 | 2,1485 | |||||||
RS | 0,2883 | ||||||||
Стьюдент. обр. 2Х | 2,0639 | ||||||||
Рис. 1 График остатков Х1
Рис. 2 График остатков Х6
Рис. 3 График подбора Х1
Рис. 3 График подбора Х6
Рис. 5 График нормального распределения
Таблица 2
Признаки X и Y | |||||
Для Y и X1 | 888,142 | 0,985 | 29,802 | 0,0992 | |
Для Y и X6 | 22,39 | 0,985 | 4,732 | 0,0992 | |
Для X1 и X6 | 22,39 | 888,142 | 4,732 | 29,802 | |
Таблица 3 Матрица парных коэффициентов корреляции R:
; | y | x1 | X6 | |
y | — 0,434 | 0,962 | ||
x1 | — 0,434 | 0,163 | ||
X6 | 0,962 | 0,163 | ||
Приложение 2
Таблица 1 Парная регрессия У на Х1
ВЫВОД ИТОГОВ | Регрессионная статистика | ||||||||
Множественный R | 0,4 339 | ||||||||
R-квадрат | 1,88E-05 | ||||||||
Нормированный R-квадрат | — 0,4 346 | ||||||||
Стандартная ошибка | 0,103 474 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 4,64E-06 | 4,64E-06 | 0,433 | 0,983 576 | |||||
Остаток | 0,246 258 | 0,10 707 | |||||||
Итого | 0,246 263 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | 0,851 305 | 0,78 904 | 10,78 916 | 1,79E-10 | 0,68 808 | 1,14 529 | 0,68 808 | 1,14 529 | |
Х1 | — 1,4E-05 | 0,694 | — 0,2 081 | 0,983 576 | — 0,145 | 0,1 422 | — 0,145 | 0,1 422 | |
Среднее | Эл | Сто | В-коэф | ||||||
0,84 972 | 0,101 296 | ||||||||
109,648 | — 0,186 | 30,41 624 | — 0,434 | ||||||
ВЫВОД ОСТАТКА | ВЫВОД ВЕРОЯТНОСТИ | ||||||||
Наблюдение | Предсказанное У | Остатки | Стандартные остатки | Персентиль | У | A | |||
0,849 195 | — 0,30 419 | — 3,304 | 0,545 | 0,558 155 | |||||
0,84 827 | — 0,14 727 | — 1,45 386 | 0,701 | 0,210 085 | |||||
0,85 064 | — 0,12 964 | — 1,27 982 | 0,721 | 0,179 806 | |||||
0,850 279 | — 0,11 028 | — 1,8 868 | 0,74 | 0,149 025 | |||||
0,849 946 | — 0,10 595 | — 1,4 591 | 0,744 | 0,142 401 | |||||
0,850 423 | — 0,10 342 | — 1,021 | 0,747 | 0,138 451 | |||||
0,850 235 | — 0,8 724 | — 0,8612 | 0,763 | 0,114 332 | |||||
0,849 469 | — 0,4 747 | — 0,46 862 | 0,802 | 0,59 189 | |||||
0,849 871 | — 0,1 687 | — 0,16 655 | 0,833 | 0,20 253 | |||||
0,849 672 | 0,44 328 | 0,437 615 | 0,894 | 0,49 584 | |||||
0,849 744 | 0,50 256 | 0,496 135 | 0,9 | 0,5 584 | |||||
0,849 643 | 0,54 357 | 0,536 622 | 0,904 | 0,6 013 | |||||
0,849 585 | 0,55 415 | 0,547 065 | 0,905 | 0,61 232 | |||||
0,849 715 | 0,56 285 | 0,555 653 | 0,906 | 0,62 125 | |||||
0,849 758 | 0,63 242 | 0,62 433 | 0,913 | 0,69 268 | |||||
0,849 845 | 0,64 155 | 0,633 346 | 0,914 | 0,70 191 | |||||
0,849 672 | 0,68 328 | 0,674 546 | 0,918 | 0,74 432 | |||||
0,849 715 | 0,68 285 | 0,674 118 | 0,918 | 0,74 385 | |||||
0,849 599 | 0,71 401 | 0,704 876 | 0,921 | 0,77 525 | |||||
0,849 527 | 0,72 473 | 0,715 461 | 0,922 | 0,78 604 | |||||
0,8497 | 0,0733 | 0,723 621 | 0,923 | 0,79 414 | |||||
0,849 787 | 0,73 213 | 0,722 765 | 0,923 | 0,79 321 | |||||
0,849 426 | 0,77 574 | 0,76 582 | 0,927 | 0,83 683 | |||||
0,849 614 | 0,77 386 | 0,763 966 | 0,927 | 0,8 348 | |||||
0,849 672 | 0,82 328 | 0,812 756 | 0,932 | 0,88 335 | |||||
DW | 0,130 094 | 10,87 699 | |||||||
RS | 0,65 399 | ||||||||
Стьюдент.Обр.2Х | 2,63 899 | ||||||||
Рис. 1 График остатков Х1
Рис. 2 График подбора Х1
Рис. 3 График нормального распределения
Приложение 3
Таблица 1 Парная регрессия У на Х6
ВЫВОД ИТОГОВ | Регрессионная статистика | ||||||||
Множественный R | 0,962 033 | ||||||||
R-квадрат | 0,925 508 | ||||||||
Нормированный R-квадрат | 0,922 269 | ||||||||
Стандартная ошибка | 0,28 242 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 0,227 918 | 0,227 918 | 285,7572 | 1,82E-14 | |||||
Остаток | 0,18 345 | 0,798 | |||||||
Итого | 0,246 263 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | — 0,65 206 | 0,89 019 | — 7,32 496 | 1,88E-07 | — 0,83 621 | — 0,46 791 | — 0,83 621 | — 0,46 791 | |
Х6 | 0,20 179 | 0,1 194 | 16,90 435 | 1,82E-14 | 0,17 709 | 0,22 648 | 0,17 709 | 0,22 648 | |
Среднее | Эл | СКО | В-коэф | ||||||
0,84 972 | 0,101 296 | ||||||||
74,424 | 1,767 386 | 4,829 362 | 0,962 033 | ||||||
ВЫВОД ОСТАТКА | ВЫВОД ВЕРОЯТНОСТИ | ||||||||
Наблюдение | Предсказанное У | Остатки | Стандартные остатки | Персентиль | У | A | |||
0,611 126 | — 0,6 613 | — 2,3918 | 0,545 | 0,121 333 | |||||
0,756 413 | — 0,5 541 | — 2,431 | 0,701 | 0,79 049 | |||||
0,736 235 | — 0,1 523 | — 0,55 104 | 0,721 | 0,2 113 | |||||
0,71 202 | 0,2 798 | 1,12 035 | 0,74 | 0,37 811 | |||||
0,728 163 | 0,15 837 | 0,57 282 | 0,744 | 0,21 286 | |||||
0,691 841 | 0,55 159 | 1,995 095 | 0,747 | 0,7 384 | |||||
0,720 092 | 0,42 908 | 1,552 001 | 0,763 | 0,56 236 | |||||
0,810 896 | — 0,0089 | — 0,32 177 | 0,802 | 0,11 092 | |||||
0,839 146 | — 0,615 | — 0,22 231 | 0,833 | 0,7 379 | |||||
0,921 879 | — 0,2 788 | — 1,0084 | 0,894 | 0,31 185 | |||||
0,925 915 | — 0,2 591 | — 0,93 735 | 0,9 | 0,28 794 | |||||
0,9017 | 0,0023 | 0,83 175 | 0,904 | 0,2 544 | |||||
0,875 468 | 0,29 532 | 1,68 174 | 0,905 | 0,32 632 | |||||
0,905 736 | 0,264 | 0,9 541 | 0,906 | 0,291 | |||||
0,897 665 | 0,15 335 | 0,55 468 | 0,913 | 0,16 797 | |||||
0,933 986 | — 0,1 999 | — 0,72 291 | 0,914 | 0,21 867 | |||||
0,905 736 | 0,12 264 | 0,443 583 | 0,918 | 0,13 359 | |||||
0,923 897 | — 0,0059 | — 0,2133 | 0,918 | 0,6 424 | |||||
0,919 861 | 0,1 139 | 0,41 185 | 0,921 | 0,1 236 | |||||
0,925 915 | — 0,391 | — 0,14 161 | 0,922 | 0,4 246 | |||||
0,905 736 | 0,17 264 | 0,624 434 | 0,923 | 0,18 704 | |||||
0,931 969 | — 0,897 | — 0,3244 | 0,923 | 0,9 717 | |||||
0,923 897 | 0,3 103 | 0,112 233 | 0,927 | 0,3 347 | |||||
0,895 647 | 0,31 353 | 1,134 049 | 0,927 | 0,33 822 | |||||
0,942 058 | — 0,1 006 | — 0,3638 | 0,932 | 0,10 792 | |||||
DW | 0,96 579 | 2,659 653 | |||||||
RS | 0,275 477 | ||||||||
СТЬЮДЕНТ.ОБР.2Х | 2,63 899 | ||||||||
Рис. 1 График остатков Х6
Рис. 2 График подбора Х6
Рис. 3 График нормального распределения