- Дипломы
- Курсовые
- Рефераты
- Отчеты по практике
- Диссертации
Построение и анализ регрессионных моделей
Внимание: Акция! Курсовая работа, Реферат или Отчет по практике за 10 рублей!
Только в текущем месяце у Вас есть шанс получить курсовую работу, реферат или отчет по практике за 10 рублей по вашим требованиям и методичке!
Все, что необходимо - это закрепить заявку (внести аванс) за консультацию по написанию предстоящей дипломной работе, ВКР или магистерской диссертации.
Нет ничего страшного, если дипломная работа, магистерская диссертация или диплом ВКР будет защищаться не в этом году.
Вы можете оформить заявку в рамках акции уже сегодня и как только получите задание на дипломную работу, сообщить нам об этом. Оплаченная сумма будет заморожена на необходимый вам период.
В бланке заказа в поле "Дополнительная информация" следует указать "Курсовая, реферат или отчет за 10 рублей"
Не упустите шанс сэкономить несколько тысяч рублей!
Подробности у специалистов нашей компании.
Только в текущем месяце у Вас есть шанс получить курсовую работу, реферат или отчет по практике за 10 рублей по вашим требованиям и методичке!
Все, что необходимо - это закрепить заявку (внести аванс) за консультацию по написанию предстоящей дипломной работе, ВКР или магистерской диссертации.
Нет ничего страшного, если дипломная работа, магистерская диссертация или диплом ВКР будет защищаться не в этом году.
Вы можете оформить заявку в рамках акции уже сегодня и как только получите задание на дипломную работу, сообщить нам об этом. Оплаченная сумма будет заморожена на необходимый вам период.
В бланке заказа в поле "Дополнительная информация" следует указать "Курсовая, реферат или отчет за 10 рублей"
Не упустите шанс сэкономить несколько тысяч рублей!
Подробности у специалистов нашей компании.
Код работы: | R000766 |
Тема: | Построение и анализ регрессионных моделей |
Содержание
СОДЕРЖАНИЕ Введение 3 1. Построение и анализ регрессионных моделей 5 1.1. Статистическое изучение зависимостей 5 1.2. Виды регрессионных моделей 7 2. Мультиколлинеарность и ее эффект 13 2.1. Понятие мультиколлинеарности. Эффект мультиколлинеарности 13 2.2. Алгоритм Фаррара-Глобера 18 2.3. Проверка мультиколлинеарности на практических данных 21 Заключение 26 Список использованных источников 28 Введение Мультиколлинеарность – это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок регрессии. Разумеется, такая зависимость совсем необязательно дает неудовлетворительные оценки. Если все другие условия благоприятствуют, т. е. если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена – мала, то в итоге можно получить вполне хорошие оценки. Мультиколлинеарность должна вызываться сочетанием нестрогой зависимости и одного (или более) неблагоприятного условия, и это – вопрос степени выраженности явления, а не его вида. Оценка любой регрессии будет страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии. Эта проблема является обычной для регрессий временных рядов, т. е. когда данные состоят из ряда наблюдений в течение какого-то периода времени. Если две или более независимые переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности. Мультиколлинеарность – нарушение одного из основных условий, лежащих в основе построения линейной модели множественной регрессии. Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах. Объектом исследования являются модели регрессии, предметом исследования – оценка эффекта мультиколлинеарности в регрессионных моделей. Цель данной работы – изучение эффекта мультиколлинеарности. Для достижения данной цели необходимо решить следующие задачи: 1) рассмотреть методы применения регрессионных моделей; 2) изучить виды регрессионных моделей; 3) рассмотреть понятие мультиколлинеарности, определить ее эффект; 4) изучить оценку мультиколлинеарности на практических данных. 1. Построение и анализ регрессионных моделей 1.1. Статистическое изучение зависимостей Можно выделить три типа целей статистического изучения зависимостей: 1. Выявление наличия или отсутствия статистически значимой связи между объектами (признаками). Качественный анализ изучаемого явления на основе положений экономической теории позволяет обосновать те или иные связи [1]. Однако подтвердить их реализацию в конкретных условиях, в интересующей исследователя совокупности, позволяют только статистические методы. Решение данной практической задачи предполагает количественную оценку тесноты связи с помощью соответствующих статистических характеристик (показателей тесноты корреляционной зависимости) – собственно корреляционный анализ. 2. Изучение механизма причинно-следственной связи между признаками-факторами и признаком-результатом. Возникновение этой цели обусловлено стремлением (необходимостью) управлять результативным признаком, воздействуя на уровень факторных признаков. Решение этой задачи связано с построением модели изучаемой зависимости, т.е. с подбором конкретной математической функции, решение которой позволит количественно оценить эффект влияния каждого анализируемого фактора на изменение результативного признака. 3. Прогнозирование возможных значений признака-результата при том или ином уровне признака-фактора (признаков-факторов). Достижение указанной цели основано на использовании модели связи между зависимой и независимыми переменными, однако её построение при этом не является самоцелью. Основным содержанием процедуры реализации сформулированной задачи является получение интервального прогноза для значений зависимой переменной с учетом уровня доверительной вероятности, удовлетворяющего исследователя. Практическое использование методов корреляции и регрессии требует наличия ряда условий, без которых результаты анализа не могут быть признаны надежными, быть базой для принятия управленческих решений. К таким условиям относятся: 1. Однородность изучаемой статистической совокупности. 2. Достаточно большой объем совокупности (условие действия закона больших чисел). Число единиц совокупности должно быть в 5-6 (идеально в 10) раз больше числа факторов, влияние которых предполагается оценить. 3. Устойчивость влияния факторов, включаемых в анализ. 4. Признаки-факторы должны иметь количественную оценку, что необходимо для построения уравнения регрессии. 5. Отсутствие тесной линейной зависимости между факторами (коллинеарности, мультиколлинеарности). 6. Независимость наблюдений [2]. Прежде, чем воспользоваться сложными вычислительными процедурами корреляционно-регрессионного анализа, полезно на основе фактических данных убедиться в наличии корреляционной связи между интересующими исследователя признаками, определить ее характер и направленность. Статистическими приемами, позволяющими выявить или опровергнуть наличие корреляционной зависимости между анализируемыми признаками, являются [3]: 1. Построение и анализ параллельных рядов. При этом строится ранжированный ряд значений факторного признака и параллельно – ряд соответствующих значений признака-результата. По согласованному или несогласованному изменению значений фактора и результата судят о наличии либо отсутствии зависимости. 2. Построение и анализ групповых таблиц. Групповая таблица строится по правилам аналитической группировки. В качестве группировочного признака используется факторный признак. По каждой из выделенных групп рассчитывается среднее значение результативного признака. Наличие закономерности в изменении средних величин зависимой переменной будет свидетельствовать о присутствии корреляционной связи. 3. Построение и анализ корреляционных таблиц. В отличие от групповых, построение корреляционных таблиц предполагает группировку данных и по признаку-фактору, и по признаку-результату. На пересечении строк и столбцов проставляют частоты, т.е. число единиц совокупности с данным сочетанием уровней изучаемых признаков. Характер расположения частот на поле таблицы позволяет выдвинуть предположение о наличии и направлении зависимости между признаками. 4. Графический метод. Этот метод наиболее часто используется на практике. В прямоугольной системе координат по оси абсцисс откладываются значения признака-фактора, а по оси ординат – значения результативного признака. Точки на графике соответствуют единицам совокупности с конкретными сочетаниями значений признаков. Получаемый точечный график называют «полем корреляции» [4]. По расположению точек на графике судят о наличии или отсутствии зависимости, а также о направлении и степени тесноты корреляционной связи. 1.2. Виды регрессионных моделей Регрессионные модели описывают зависимость между результирующим признаком () и объясняющими переменными (), и имеют вид: (1) где – объясняющие переменные (независимые переменные, факторы); – объясняемая переменная (результирующий признак); – неизвестные параметры модели (коэффициенты при объясняющих переменных); – ошибки регрессии [5]. Ошибки регрессии являются случайными величинами. Они характеризуют отклонение реального значения результирующего признака от теоретического, найденного из уравнения регрессии: (2) где – реальное значение результирующего признака по исходным статистическим данным; – теоретическое значение результирующего признака, найденного из уравнения регрессии. Ошибки регрессии могут возникать, если [6]: 1) не учтены все объясняющие факторы; 2) неправильно выбрана структура модели; 3) неправильно выбрана функциональная зависимость между зависимым и объясняющими факторами; 4) были допущены ошибки измерений показателей. Классификация регрессионных моделей: 1. В зависимости от вида функции а) линейные модели вида: б) линейные по параметрам: в) нелинейные модели. В качестве примера нелинейной модели можно рассмотреть зависимость объема выпускаемой продукции () от затрат на труд () и капитальных затрат (): (3) где – эластичность выпуска по труду, показывает на сколько процентов изменится , если изменится на 1%; – эластичность выпуска по капиталу, показывает на сколько процентов изменится , если изменится на 1%; – ошибка регрессии. Данную модель можно привести к линейному виду путем логарифмирования: (4) 2. В зависимости от количества регрессоров а) простая (парная) регрессия: б) множественная регрессия: Рассмотрим однофакторную (простую) регрессию, то есть модель, в которой результирующий признак зависит от одного объясняющего фактора . Предположим, что существует некоторая функциональная зависимость между объясняющими переменными и результирующим признаком , (5) а также известны исходные статистические данные для построения модели регрессии. Необходимо определить вид функции (6) где – неизвестные параметры. Для определения вида функции можно воспользоваться [7]: а) визуальным анализом данных, рассмотреть график зависимости от по исходным статистическим данным; б) аналитическим методом исходя из природы связи и ; в) компьютером для обработки статистических данных. Ниже представлены основные функциональные формы эконометрических моделей для парной регрессии. 1. Линейная модель (7) где – начальный уровень у или его среднее значение; – коэффициент, характеризующий скорость изменения при росте , он показывает, на сколько единиц возрастет при увеличении на одну единицу. На основе анализа корреляционного поля между и строится линейная модель: Рис. 1. Корреляционное поле для линейной модели [6] 2. Полиномы различных степеней (8) Наиболее часто используются полиномы второго порядка или параболические модели: (9) где – начальный уровень или его среднее значение; – коэффициент, характеризующий скорость изменения при росте ; – коэффициент, характеризующий величину ускорения при росте . Корреляционное поле для данной модели: Рис. 2. Корреляционное поле для полиномиальной модели [6] При использовании полиномиальных моделей следует ограничиться полиномами второго и третьего порядков, так как увеличение степени приводит к тому, что выбранная функция может подстроиться под любое корреляционное поле, и не будет отражать реального характера исследуемого процесса. 3. Равносторонняя гипербола (10) В качестве примера данной функции можно рассмотреть кривую Филипса, которая отражает зависимость процента прироста заработной платы () от уровня безработицы (). График такой функции будет иметь вид: Рис. 3. Корреляционное поле для равносторонней гиперболы [6] Данную модель можно привести к линейному виду путем замены: (11) тогда исследуемая функция примет вид (12) 4. Степенная функция (13) где – эластичность: показывает, на сколько процентов изменится при изменении на 1%. Степенную функцию можно привести к линейному виду путем логарифмирования: (14) 5. Показательная функция (15) где – коэффициенты, характеризующие скорость изменения у при росте х. 6. Экспоненциальная функция (16) Показательная и экспоненциальная функции приводятся к линейному виду путем логарифмирования. Модель парной регрессии дает хорошие результаты, если влиянием других факторов кроме на результирующий признак можно пренебречь, однако большинство моделей требует включения нескольких объясняющих переменных. Чаще всего для построения уравнения множественной регрессии используют следующие виды функций [9]: 1) линейная 2) степенная где – эластичность по факторам соответственно; 3) экспонента 4) гипербола Для построения модели множественной регрессии необходимо «правильно» отобрать объясняющие переменные, они должны: 1) существенно влиять на результирующий признак; 2) быть измеримы; 3) не должны быть сильно статистически зависимы попарно или в совокупности. 2. Мультиколлинеарность и ее эффект 2.1. Понятие мультиколлинеарности. Эффект мультиколлинеарности Количественная оценка параметров уравнения регрессии предполагает выполнение условия линейной независимости между независимыми переменными. Однако на практике объясняющие переменные часто имеют высокую степень взаимосвязи между собой, что является нарушением указанного условия. Данное явление носит название мультиколлинеарности [8]. Термин коллинеарность (collinear) обозначает линейную корреляцию между двумя независимыми переменными, а мультиколлинеарность (multicollinear) – между более чем двумя независимыми переменными. Обыкновенно под мультиколлинеарностью понимают оба случая. Таким образом, мультиколлинеарность означает наличие тесной линейной зависимости или сильной корреляции между двумя или более объясняющими (независимыми) переменными. Одной из задач эконометрии является выявление мультиколлинеарности между независимыми переменными. Различают совершенную и несовершенную мультиколлинеарность. Совершенная мультиколлинеарность означает, что вариация одной из независимых переменных может быть полностью объяснена изменением другой (других) переменной. Иначе, взаимосвязь между ними выражается линейной функцией: (22) Графическая интерпретация данного случая: Рис. 4. Совершенная мультиколлинеарность [10] Несовершенная мультиколлинеарность может быть определена как линейная функциональная связь между двумя или более независимыми переменными, которая настолько сильна, что может существенно затронуть оценки коэффициентов при переменных в модели. Несовершенная мультиколлинеарность возникает тогда, когда две (или более) независимые переменные находятся между собой в линейной функциональной зависимости, описываемой уравнением (23) В отличие от ранее рассмотренного уравнения, данное включает величину стохастической ошибки . Это предполагает, что несмотря на то, что взаимосвязь между и может быть весьма сильной, она не настолько сильна, чтобы полностью объяснить изменение переменной изменением , т.е. существует некоторая необъяснимая вариация. Графически данный случай представлен следующим образом: Рис. 5. Несовершенная мультиколлинеарность [10] Мультиколлинеарность может возникнуть в двух случаях [13]. 1. Имеет место глобальная тенденция одновременного изменения экономических показателей. В качестве примера можно привести такие показатели как объем производства, доход, потребление, накопление, занятость, инвестиции и т.п., значения которых возрастают в период экономического роста и снижаются в период спада. Одной из причин мультиколлинеарности является наличие тренда (тенденции) в динамике экономических показателей. 2. Использование лаговых значений переменных в экономических моделях. В качестве примера можно рассматривать модели, в которых используются как величины дохода текущего периода, так и затраты на потребление предыдущего. В целом при исследовании экономических процессов и явлений методами эконометрии очень трудно избежать зависимости между показателями. Последствия мультиколлинеарности сводятся к: 1) снижению точности оценивания, которая проявляется через: * слишком большие ошибки некоторых оценок; * высокую степень корреляции между ошибками; * резкое увеличение дисперсии оценок параметров. Данное проявление мультиколлинеарности может также отразиться на получении неожиданного знака при оценках параметров; 2) незначимости оценок параметров некоторых переменных модели благодаря, в первую очередь, наличию их взаимосвязи с другими переменными, а не из-за того, что они не влияют на зависимую переменную. То есть t-статистика параметров модели не отвечает уровню значимости (t-критерий Стьюдента не выдерживает проверки на адекватность); 3) сильному повышению чувствительности оценок параметров к размерам совокупности наблюдений. То есть увеличение числа наблюдений существенно может повлиять на величины оценок параметров модели; 4) увеличению доверительных интервалов; 5) повышению чувствительности оценок к изменению спецификации модели (например, к добавлению в модель или исключению из модели переменных, даже несущественно влияющих). Признаки мультиколлинеарности [14]: 1) когда среди парных коэффициентов корреляции (24) между объясняющими (независимыми) переменными есть такие, уровень которых либо приближается, либо равен коэффициенту множественной корреляции. Если в модели более двух независимых переменных, то необходимо более детальное исследование взаимосвязей между переменными. Данная процедура может быть осуществлена с помощью алгоритма Фаррара-Глобера; 2) когда определитель матрицы коэффициентов парной корреляции между независимыми переменными приближается к нулю: если , то имеет место полная мультиколлинеарность, если , то мультиколлинеарность отсутствует; 3) если в модели найдено маленькое значение параметра при высоком уровне коэффициента частной детерминации и при этом F-критерий существенно отличается от нуля; 4) когда коэффициент частной детерминации имеет значение, близкое к единице; 5) когда при использовании метода пошаговой регрессии вновь введенная переменная существенно изменяет оценку параметров модели при незначительном повышении значений (или их снижении) коэффициентов корреляции или детерминации; 6) когда приближается к высоким значениям, близким к единице, в то время как частные значения t-критерия Стьюдента очень низки. t Мера оценки мультиколлинеарности может быть осуществлена разными способами. Один из них – расчет характеристических значений и условного индекса. Данные расчеты предлагаются некоторыми ППП по статистике. В основе вычислений лежит аппарат теории матриц. Для того чтобы осуществить оценку уровня мультиколлинеарности рассчитывают условное число k = максимальное характеристическое число / минимальное характеристическое число и условный индекс . Умеренная мультиколлинеарность имеет место, если или (25) Сильная – когда или (26) Другой способ оценки – расчет дисперсионно-инфляционного фактора VIF (VIF – Variance Inflationary Factor) для каждой переменной. Суть расчетов сводится к следующему: для каждой независимой переменной , включенной в уравнение регрессии , (27) рассчитываются уравнения регрессии для независимых переменных (28) и коэффициенты детерминации . (29) Затем находятся дисперсионно-инфляционные факторы для каждой переменной (30) и сравниваются с критическим значением (иногда ). Если , то делают вывод о недостаточно сильной связи между -м и остальными факторами, если , то делают вывод о наличии мультиколлинеарности. Недостаток оценок мультиколлинеарности – они не дают различий между случаями, когда мультиколлинеарность существенная и когда ею можно пренебречь. 2.2. Алгоритм Фаррара-Глобера С помощью данного алгоритма последовательно проверяется наличие мультиколлинеарности всего массива независимых переменных, каждой независимой переменной с остальными, а также попарная мультиколлинеарность. В первом случае используется критерий («хи»-квадрат), во втором – F-критерий Фишера и в третьем – t-критерий Стьюдента. Алгоритм распадается на семь шагов [10]. 1-й шаг. Стандартизация (нормализация) данных. Для каждого наблюдения всех независимых переменных осуществляются расчеты (31) В результате получают векторы нормализованных данных , которые образуют матрицу . 2-й шаг. Нахождение корреляционной матрицы для независимых переменных. Вычисляют (32) или в матричном виде (33) где – матрица коэффициентов парной корреляции независимых переменных. 3-й шаг. Вычисление значения критерия для проверки гипотезы о наличии мультиколлинеарности всего массива данных. Расчетное значение критерия получается из формулы (34) где – определитель корреляционной матрицы . Данное значение -критерия сравнивается с табличным при числе степеней свободы и уровне значимости , где – количество независимых переменных. Если , (35) то в массиве данных имеет место мультиколлинеарность. Следующие два шага позволяют исследовать наличие мультиколлинеарности между каждой независимой переменной и остальными независимыми переменными. 4-й шаг. Нахождение обратной матрицы (36) 5-й шаг. Вычисление значений F-критерия Фишера для проверки гипотезы о наличии мультиколлинеарности между каждой независимой переменной и остальными независимыми переменными. Для этого используется формула (37) где – диагональный элемент матрицы C. Расчетные значения F-критерия сравниваются с табличными для числа степеней свободы и , и уровня значимости . Если (38) то -я переменная мультиколлинеарна с остальными. Для каждой переменной можно рассчитать коэффициент детерминации (39) Для оценки наличия парной мультиколлинеарности производятся действия, описанные следующими двумя шагами. 6-й шаг. Расчет частных коэффициентов корреляции. (40) Частный коэффициент корреляции показывает тесноту связи между двумя переменными при условии, что остальные переменные постоянны, т.е. не меняются. 7-й шаг. Расчет значений t-критерия Стьюдента для каждой пары независимых переменных. Используется формула (41) Расчетные значения t-критерия сравниваются с табличным значением при степенях свободы и уровне значимости . Если , то между независимыми переменными и существует мультиколлинеарность. Способы избавления от мультиколлинеарности Для борьбы с мультиколлинеарностью можно использовать следующие способы: 1. Ничего не делать. 2. Увеличить число наблюдений. 3. Исключить из модели переменную (переменные), имеющую высокую тесноту связи с другими независимыми переменными. 4. Преобразовать мультиколлинеарные переменные путем * представления их в виде линейной комбинации; * преобразования уравнения к виду логарифмического или к уравнению в первых разностях. Первый прием предполагает создание новой переменной, которая является функцией мультиколлинеарных переменных и использование данной новой переменной взамен мультиколлинеарных в уравнении регрессии. Второй – представление мультиколлинеарной переменной в виде разности . 5. Использовать статистические методы: главных компонент, гребневой регрессии, факторного анализа. 2.3. Проверка мультиколлинеарности на практических данных Рассмотрим рынок ценных бумаг и построим уравнение многофакторной регрессии для начисленных доходов (дивидендов и процентов) по облигациям и оценим наличие мультиколлинеарности массива информации по данным Росстата [17]. В качестве независимых переменных будем использовать количество размещенных облигаций, перечисление в бюджет и инвестиционные паи. Данные по регионам приведены в таблице 1. Таблица 1 – Данные для анализа [17] Начисленные доходы (дивиденды и проценты), по облигациям, млн. руб. Количество размещенных облигаций, всего на начало года, тыс. штук Перечисление в бюджет, млрд. руб. Инвестиционные паи, млн.руб 2 543 2 363 16 1 487 2 865 2 740 12 824 1 585 1 410 22 1 447 4 854 4 369 44 6 186 3 189 2 858 37 1 380 4 833 4 298 51 3 953 6 908 6 217 62 3 461 6 317 5 967 64 6 145 20 543 18 407 89 9 871 14 733 13 316 84 6 352 9 902 8 912 107 7 232 15 896 14 148 175 8 416 26 432 23 789 145 13 410 10 311 9 115 83 4 134 31 098 27 368 184 8 815 73 426 66 369 424 174 543 Проведем анализ данных в Ms Excel. Регрессионная статистика Множественный R 0,99997 R-квадрат 0,99993 Нормированный R-квадрат 0,99992 Стандартная ошибка 163,14042 Наблюдения 16 Дисперсионный анализ df SS MS F Значимость F Регрессия 3 4,85E+09 1,62E+09 60749,02 2,39E-25 Остаток 12 319377,5 26614,8 Итого 15 4,85E+09 Коэффициенты Стандартная ошибка t-статистика P-Значение Y-пересечение -158,275 73,863 -2,143 0,053 X2 1,122 0,012 97,476 0,000 X3 1,863 1,679 1,110 0,289 X4 -0,010 0,002 -4,112 0,001 Нижние 95% Верхние 95% Нижние 95,0% Верхние 95,0% Y-пересечение -319,210 2,659 -319,210 2,659 X2 1,097 1,147 1,097 1,147 X3 -1,794 5,521 -1,794 5,521 X4 -0,015 -0,005 -0,015 -0,005 Уравнение множественной регрессии выглядит следующим образом Коэффициенты парной корреляции представлены в таблице y x1 x2 x3 y 1 0,9999 0,9689 0,9026 x1 0,9999 1 0,9686 0,9067 x2 0,9689 0,9686 1 0,8863 x3 0,9026 0,9067 0,8863 1 Выделим из данной матрицы только те коэффициенты, которые касаются независимых переменных. В результате получим матрицу: x1 x2 x3 x1 1 0,9686 0,9067 x2 0,9686 1 0,8863 x3 0,9067 0,8863 1 Значения всех коэффициентов больше 0,7, что свидетельствует о высокой тесноте связи между рассматриваемыми показателями. Сравнение их со значением коэффициента множественной корреляции позволяет сделать заключение о наличии мультиколлинеарности массива исходных данных. Найдем определитель матрицы: Значение определителя приближается к нулю, что также подтверждает ранее сделанный вывод. Произведем оценку мультиколлинеарности путем расчета дисперсионно-инфляционных факторов. Для начала построим уравнения множественной регрессии для каждого из независимых показателей, а затем найдем множественные коэффициенты детерминации: Определим : В третьем случае можно сделать вывод об отсутствии мультиколлинеарности, для первой и второй независимой переменной такого заключения сделать нельзя. Применим алгоритм Фаррара-Глобера для более детальной оценки мультиколлинеарности. Найдем расчетное значения критерия : Сравним полученное значение с табличным для числа степеней свободы и уровня значимости 0,05: . Можно сделать вывод о наличии мультиколлинеарности массива данных. Определим теперь, существует ли мультиколлинеарность каждой в отдельности независимой переменной с остальными. Найдем обратную матрицу С, элементы которой используем для расчета значений F-критерия. Сравним полученные значения F-критерия с табличным для степеней свободы и уровня значимости 0,05: Можно сделать вывод о наличии мультиколлинеарности между каждой независимой переменной и остальными. Оценим наличие парной мультиколлинеарности. Рассчитаем частные коэффициенты корреляции: Используя полученные значения коэффициентов частной корреляции, рассчитаем t-статистики Стьюдента для каждой независимой переменной: Сравним расчетные значения t-статистик с табличным для числа степеней свободы степеней свободы и уровня значимости 0,05: Таким образом, можно сделать вывод о том, что попарная мультиколлинеарность наблюдается между первой и второй независимыми переменными. Для более адекватной оценки модели необходимо увеличить число наблюдений или исключить из модели переменные, имеющие высокую тесноту связи с другими независимыми переменными. Заключение Уравнение регрессии – это математическая функция, описывающая зависимость условного среднего значения результативной (зависимой) переменной от заданных значений факторных (независимых) переменных. Таким образом, уравнение регрессии отражает основную тенденцию связи, характерную для изучаемой статистической совокупности в целом. Одним из основных препятствий эффективного применения множественного регрессионного анализа является мультиколлинеарность. Она связана с линейной зависимостью между аргументами. В результате мультиколлинеарности матрица парных коэффициентов корреляции и матрица становятся слабообусловленными, т.е. их определители близки к нулю. Это приводит к неустойчивости оценок коэффициентов регрессии, завышению дисперсии, оценок этих коэффициентов, так как в их выражения входит обратная матрица, получение которой связано с делением на определитель матрицы. Кроме того, мультиколлинеарность приводит к завышению значения множественного коэффициента корреляции. На практике о наличии мультиколлинеарности обычно судят по матрице парных коэффициентов корреляции. Таким образом, мультиколлинеарность означает наличие тесной линейной зависимости или сильной корреляции между двумя или более объясняющими (независимыми) переменными. С помощью алгоритма Фаррара-Глобера последовательно проверяется наличие мультиколлинеарности всего массива независимых переменных, каждой независимой переменной с остальными, а также попарная мультиколлинеарность. В практической части были рассмотрены данные рынка ценных бумаг в России и построено уравнение многофакторной регрессии для начисленных доходов и оценено наличие мультиколлинеарности массива информации по данным Росстата. Значения всех коэффициентов матрицы корреляции было больше 0,7, что свидетельствует о высокой тесноте связи между рассматриваемыми показателями. Сравнение их со значением коэффициента множественной корреляции позволило сделать заключение о наличии мультиколлинеарности массива исходных данных. Список использованных источников 1. Гусаров В.М. Статистика: Учеб. пособие. М.: ЮНИТИ-ДАНА, 2004, 256 с. 2. Гусаров В.М. Теория статистики: Учеб. пособие. М.: Аудит, ЮНИТИ, 2003, 348 с. 3. Елисеева И.И. Общая теория статистики: Учебник. М.: Финансы и статистика, 2002, 512 с. 4. Ефимова М.Р. Общая теория статистики: Учебник. М.: ИНФРА-М, 2005, 259 с. 5. Общая теория статистики: Учебник под ред. А.А. Спирина, О.Э. Башиной. М.: Финансы и статистика, 2002, 343 с. 6. Статистика: Учебн. пособие под ред. Л.П. Харченко М.: ИНФРА-М, 2005, 389 с. 7. Статистика: Учебн. пособие под ред. М.Р. Ефимовой М.: ИНФРА-М, 2005, 369 с. 8. Теория статистики: Учебник под ред. проф. Г.Л. Громыко М.: ИНФРА-М, 2005, 209 с. 9. Бабешко Л.О. Основы эконометрического моделирования. – М.: КомКнига, 2006. – 432 с. 10. Кремер Н.Ш. Эконометрика: Учебник для ВУЗов / Н.Ш. Кремер, Б.А. Путко. М.: ЮНИТИ-ДАНА, 2003, 311 с. 11. Павленко В.Н. Временные ряды. Санкт-Петербург: РГГМУ, 2007. 57 с. 12. Балинова В.С. Статистика в вопросах и ответах / В.С. Балинова. М.: ТК Вебли, Издательство Проспект, 2004. 334 с. 13. Щербак А.И. Экономическая статистика. М.: Эксмо, 2008. — 32 с. 14. Магнус Я.Р. Эконометрика. М.: Дело, 2004. — 154 с. 15. Балинова В.С. Статистика в вопросах и ответах. М.: ТК Вебли, Издательство Проспект, 2004. — 334 с. 16. Орлов А.И. Прогнозирование. М.: Финансы и статистика, 2003. 189 с. 17. Бородич С.А. Эконометрика: Учебное пособие. – Мн., Новое знание, 2002. – 408 с. 18. Доугерти К. Введение в эконометрику. – М., 2003, – 402 с. 19. Магнус Я.Р. и др. Эконометрика. Начальный курс. – М., Дело, 2000. – 400 с. 20. Тихомиров Н.П., Дорохина Е.Ю. Эконометрика. – М., Экзамен, 2003. – 512 с. 21. Афанасьев В.Н. Анализ временных рядов и прогнозирование: учебник / В.Н. Афанасьев, М.М. Юзбашев. – 2-е изд., перераб. и доп. – М.: Финансы и статистика; ИНФРА-М, 2012 – 320 с. 22. Бутакова М.М. Экономическое прогнозирование: методы и приемы практических расчетов: учебное пособие / М.М. Бутакова. – 2-е изд. испр. – М.:КНОРУС, 2010. – 168 с. 23. Колемаев В.А. Эконометрика: учебник. – М.: ИНФРА-М, 2007. – 160 с. 24. Лабскер Л.Г. Вероятностное моделирование в финансово-экономической области: учеб. пособие. 2-е изд. – М.: ИНФРА-М, 2010. – 172 с. 25. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс: учебник – 8-е изд. – М.: Дело, 2007. – 504 с. 26. Практикум по эконометрике / А.В. Гладилин, А.Н. Герасимов, Е.И. Громов. – Ростов н/Д: Феникс, 2011. – 326 с. 27. Соколов Г.А., Сагитов Р.В. Введение в регрессионный анализ и планирование регрессионных экспериментов в экономике: Учеб. пособие. – М.: ИНФРА-М, 2010. – 202 с. 28. Эконометрика: учебник / А.В. Гладилин, А.Н. Герасимов, Е.И. Громов. – Ростов н/Д: Феникс, 2011. – 297 с. 29. Эконометрика: учебник / под ред. д-ра экон. наук, проф. В.С. Мхитаряна. – Москва: Проспект, 2010. – 384 с. 30. Эконометрика: учебник / Н.П. Тихомиров, Е.Ю. Дорохина – М.: Издательство «Экзамен», 2003. – 512 с. 31. Эконометрика: учебник для магистров / И.И. Елисеева [и др.]; под ред. Елисеевой И.И. - М.: Издательство Юрайт, 2012. – 453 с. 32. Пахнутов И.А. Введение в эконометрику: учеб. пособие /И.А. Пахнутов ; КГТУ.-Калининград: КГТУ, 2009. – 102 с. 33. Замков О.О. Математические методы в экономике: учеб./О.О. Замков, А.В. Толстопятенко, Ю.Н. Черемных. – М.:ДИС,1997.-365 с. 34. Иванова В.М. Основы эконометрики. / В.М. Иванова.-М.:МЭСИ, 1995. – 88 с. 35. Кремер Н.Ш. Эконометрика: учеб. для вузов / Н.Ш.Кремер,Б.А. Путко. –М.:ЮНИТИ-ДАДА,2007. – 311 с. 36. Айвазян С.А. Прикладная статистика и основы эконометрики /С.А. Айвазян, В.С. Мхитарян.-М.:ЮНИТИ,1998. – 312 с. 37. Пахнутов И.А. Введение в эконометрику: учеб.-метод. пособие / И. А. Пахнутов. - 2-е изд., перераб. и доп. - Калининград : ФГОУ ВПО "КГТУ", 2009. - 108 с. 38. Пахнутов И.А. Рекомендации к выполнению практических заданий по курсу «Эконометрика» / И. А. Пахнутов; авт. Еремичева, В. Е. - Калининград : ФГОУ ВПО «КГТУ», 2009. – 44 с. 39. Янчушка З.И. Математическое моделирование экономических процессов с помощью парных регрессионных моделей. Учебно-методическое пособие по выполнению РГР по дисциплине «Эконометрика». – Уфа, Изд-во УГНТУ, 2010. – 27 с. 40. Янчушка З.И., Янчушка А.П. Математическое моделирование экономических процессов с помощью моделей множественной регрессии. Учебно-методическое пособие по выполнению РГР по дисциплине «Эконометрика». – Уфа, Изд-во УГНТУ, 2011. – 33 с. 41. Федеральная служба государственной статистики. Режим доступа: http://www.gks.ru/ 30 ....................... |
Для получения полной версии работы нажмите на кнопку "Узнать цену"
Узнать цену | Каталог работ |
Похожие работы: