WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаЕкономічна теорія → Мультиколінеарність - Реферат

Мультиколінеарність - Реферат

його модифікацій).
Приклад дослідження наявності мультиколінеарності на основі алгоритму Фаррара - Глобера
Розглянемо дослідження впливу на економічний показник у - ре-альне споживання країни (у млрд грн.) трьох факторів: х1 - купівлі та оплати товарів і послуг (у млрд грн.), х2 - усіх заощаджень від загаль-ного грошового доходу (у % від загальної суми доходу), х3 - рівня ставки ПДВ (у %). Необхідно перевірити фактори на мультиколінеарність.
Розв'язання. 1-й крок:
нормалізуємо змінні x1, x2, х3 економетричної моделі, обчисливши
де n = 20 кількість спостережень (і = 1, 2, ..., n); m = 3 кількість не-залежних змінних (j=1, m); xj - середня арифметичнаj-! незалеж-ної змінної:
x1 =9,3505; x2 =18,874; x3 =37,788; ? 2x j - дисперсія j-ї незалежної змінної:
2-й крок:
на основі нової матриці X', елементами якої є нормалізовані не-залежні змінні 4,
обчислимо кореляційну матрицю (матрицю моментів нормалізованої системи нормальних рівнянь):
де X*tr транспонована матриця Ґ; елементи матриці R характеризу-ють щільність зв'язку однієї незалежної змінної з іншою ( rij = rxixj -парні коефіцієнти кореляції);
3-й крок: визначимо |R| - визначник кореляційної матриці R:
обчислимо значення критерію ?2:
порівняємо значення ? 2 з табличним при 1 m(m-1)=3 ступе-нях свободи й рівні значущості ? = 0,05 (дод. 3):
Оскільки ?2 >?2табл, то в масиві незалежних змінних існує муль-тиколінеарність у сукупності. 4-й крок: визначимо матрицю похибок:
5-й крок: розрахуємо ^-критерії:
значення критеріїв F, порівняємо з табличним при (п-т) = 17 і (т-1) = 2 ступенях свободи і рівні значущості ? = 0,05 (дод. 5):
Оскільки F1 >F 6,F2 >F 6,F3 >F 6, робимо висновок, що перша, друга й третя незалежні змінні мультиколінеарні з іншими; визначимо коефіцієнти детермінації для кожної змінної:
6-й крок: знайдемо часткові коефіцієнти кореляції, які характеризують щільність зв'язку між двома змінними за умови, що інші змінні x1, x2, ..., x[ не впливають на цей зв'язок (існування парної мультиколінеарності):
де сkj - елементи матриці С, що розміщені в k-му рядку та j-му стовпці, k = 1, 2,..., m, j = 1, 2, ..., m; ckk і с діагональні елементи матриці С;
r12 = 0,910257, r13 = 0,070234, r23 = 0,297472.
Однак якщо порівняти абсолютні значення часткових парних коефіцієнтів, то можна побачити, що перші значно менші, ніж останні. Тому на основі знання парних коефіцієнтів кореляції висновок про мультиколінеарність робити неможливо. Для цього необхідно ще виконати 7-й крок.
7-й крок: розрахуємо t-критерії:
t12 = 9,064506, t13 = 0,290302, t23 = 1,284666;
значення критеріїв tkj порівняємо з табличними при (n-m) = 17 ступенях свободи й рівні значущості ?=0,05 (дод. 4): tтабл = 2,109818.
Оскільки t12 > tтабл, t13 < tтабл, t23 < tтабл, то між першою та дру-гою незалежними змінними існує мультиколінеарність.
Якщо ^-критерій перевищує табличне значення, а це означає що k-та змінна залежить від інших змінних у масиві, необхідно вирішу-вати питання про її виключення з переліку змінних.
Якщо tkj-критерій перевищує табличне значення, то ця пара змінних (k i j) тісно взаємопов'язана. Звідси, аналізуючи рівень обох видів кри-теріїв F i t, можна зробити обґрунтований висновок про те, яку зі змінних необхідно виключити із дослідження чи замінити її іншою. Але заміна масиву незалежних змінних завжди має узгоджуватися з еко-номічною доцільністю, що зумовлена метою дослідження.
Засоби усунення мультиколінеарності. Метод головних компонентів
Виявлення мультиколінеарності є лише частиною справи. Інша частина - як її усунути. Безпомилкових і абсолютно правильних по-рад немає, оскільки мультиколінеарність є прикладною проблемою.
Звичайно, усе залежить від ступеня мультиколінеарності, однак у будь-якому разі можна запропонувати кілька простих методів усунення мультиколінеарності:
1) використання додаткової або первинної інформації;
2) об'єднання інформації;
3) відкидання змінної з високою кореляцією;
4) перетворення даних (використання перших різниць);
5) збільшення кількості спостережень.
Які поради спрацюють на практиці, залежить від істотності про-блеми та її характеру.
Якщо переліченими методами не вдається усунути мультиколіне-арність, то для оцінювання параметрів багатовимірної моделі доціль-но застосувати метод головних компонентів.
Алгоритм методу головних компонентів
Цей алгоритм включає дев'ять кроків.
1-й крок: нормалізувати змінні x1 x2, ... хт регресійної моделі, обчисливши де п кількість спостережень (і= 1, ");
т - кількість пояснюючих змінних у моделі (/= 1, т); х. - середня арифметична ;-ї незалежної змінної;
? - середньоквадратичне відхилення ;-ї незалежної змінної.
2-й крок: побудувати нову матрицю Ґ, елементами якої є нормалізовані незалежні змінні.
3-й крок: обчислити кореляційну матрицю (матрицю моментів нормалізованої системи нормальних рівнянь) за формулою
де X** - транспонована матриця Ґ:
(недіагональні елементи матриці R характеризують щільність зв'яз-ку однієї незалежної змінної з іншою (rij = rxixj ), тобто є парними ко-ефіцієнтами кореляції).
4-й крок: знайти характеристичні числа матриці r, тобто визначити корені
X1,X2,..., Хm рівняння m-то порядку:
де E - одинична матриця розмірності mxm; Хj, j = 1, 2,..., m - харак-теристичні числа матриці r.
5-й крок: ранжувати власні значення Я , i = 1, 2, ..., m, за абсолютним рівнем внеску кожного головного компонента в загальну дисперсію.
6-й крок: розв'язати систему рівнянь
і обчислити власні вектори ai , і = 1, 2, ..., m, за умови, що вони відповідають таким співвідношенням:
7-й крок:
знайти головні компоненти векторів zi=xai, і= 1, 2, ..., m, які задо-вольняють умови
8-й крок: визначити параметри моделі Y = ZP :
9-й крок: знайти параметри моделі Y = XА:
Зауважимо, що метод головних компонентів доцільно застосовувати, по-перше, для оцінювання параметрів моделей з великою кількістю факторів, по-друге, для моделей, у яких незалежні змінні (стовпці матриці спостережень X) мають однакові одиниці вимірювання.
Список використаної літератури
1. Хеш Д. Причинный анализ в статистических исследованиях. - М.: Финансы и статистика, 1981. - 224 с.
2. Венецкий И. Г., Венецкая В. И.Основные математико-статистические понятия и формулы в экономическом анализе: Справочник. - 2-е изд., перераб. и доп. - М.: Статистика, 1979. - 448 с.
3. Винн Р., Холден К. Введение в прикладной эконометрический анализ. - М: Финансы и статистика, 1981. - 294 с.
4. Геец В. М. Отраслевое прогнозирование: методологический и организационный аспекты. - К.: Наук, думка, 1990. - 120 с.
5. Гранберг А. Г. Динамические модели народного хозяйства. - М.: Экономика, 1985. - 204 с.
6. Гранберг А. Г. Статистическое моделирование и прогнозирование. - М.: Финансы и статистика, 1990. - 378 с.
7. Дадаян В. С. Моделирование глобальных экономических процессов. - М.: Экономика, 1984. - 278 с.
8. Демиденко Е. 3. Линейная и нелинейная регрессии. - М.: Финансы и статистика, 1981. - 302 с.
9. Дружинин В. В., Конторов Д. С. Проблемы системологии. Проблемы теории сложных систем. - М.: Радио и связь, 1986. - 296 с.
10. Дружинин В. В., Конторов Д. С. Системотехника. - М.: Радио и связь, 1985. - 200 с.
11. Дюран Б., Одел П. Кластерный анализ. - М.: Статистика, 1977. - 128 с.
12. Емельянов А. С. Общественное производство: Динамика, тенденции, модели. - К.: Наук, думка, 1980. - С. 347-409.
Loading...

 
 

Цікаве