WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаЕкономічна теорія → Моделі парної регресії та ix дослідження - Реферат

Моделі парної регресії та ix дослідження - Реферат


Реферат на тему:
Моделі парної регресії та ix дослідження
Приклади парних зв'язків в економіці
Економічна теорія виявила й дослідила значну кількість сталих і стабільних зв'язків між різними показниками. Наприклад, добре вивчено залежності споживання від рівня доходу, попиту - від цін на товари, залежність між процентною ставкою та інвестиціями, обмінним курсом валюти та обсягом чистого експорту, між рівнями безробіття та інфляції, залежність обсягу виробництва від окремих факторів (розміру основних фондів, їх віку, підготовки персоналу тощо); залежність між продуктивністю праці та рівнем механізації, а також багато інших залежностей.
Здебільшого залежність між показниками можна відобразити за допомогою лінійних співвідношень.
Наприклад, для моделювання залежності індивідуального споживання С від наявного прибутку Y Кейнс запропонував лінійне рівняння
де с0 - величина автономного споживання; b - гранична схильність до споживання (0 < b0,b>0 - параметри моделі, а змінні x і y вимірюються у процентах.
При незмінній річній дисконтній (обліковій) ставці r і початковому внеску a через x років у банку наявна сума грошей обчислюватиметься за формулою
де a, y - параметри моделі.
При маркетингових і ринкових дослідженнях, при дослідженні збуту продукції та в демографії застосовують так звану криву Гом-перця:
де параметри a та c можуть набувати будь-яких значень, а b перебу-ває в таких межах: 0 < b 0, a, b ? 0.
Нелінійні зв'язки, як правило, певними перетвореннями (заміною змінних чи логарифмуванням) зводять до лінійного вигляду або ап-роксимують (наближують) лінійними функціями.
Отже, модель лінійної регресії (лінійне рівняння) є найпошире-нішим (і найпростішим) видом залежності між економічними змінни-ми. Крім того, побудоване лінійне рівняння може слугувати почат-ковою точкою в разі складних (суттєво нелінійних) залежностей.
Лінійна модель з двома змінними
У загальному випадку парна лінійна регресія є лінійною функцією між залежною змінною Y і однією пояснюючою змінною X:
Співвідношення (2.1) називається теоретичною лінійною регре-сійною моделлю; a0 і a1 - теоретичні параметри (теоретичні коефі-цієнти) регресії.
Зазначимо, що принциповою в цьому разі є лінійність за парамет-рами a0 і a1 рівняння (2.1).
Щоб визначити значення теоретичних коефіцієнтів регресії, необ-хідно знати й використовувати всі значення змінних X і Y генераль-ної сукупності, що практично неможливо. Тому за вибіркою обмеже-ного обсягу будують так зване емпіричне рівняння регресії, у якому коефіцієнтами є оцінки теоретичних коефіцієнтів регресії:
a0 і a1 - оцінки невідомих параметрів a0 і a1.
Через розбіжність статистичної бази для генеральної сукупності та вибірки оцінки a0 і a1 практично завжди відрізняються від дійсних значень коефіцієнтів a0 і a1, що призводить до розбіжності емпіричної та теоретичної ліній регресії. Різні вибірки з однієї й тієї самої генеральної сукупності звичайно зумовлюють різні оцінки.
Можливе співвідношення між теоретичним і емпіричним рівнян-нями регресії схематично зображено на рис. 2.1.
Задачі лінійного регресійного аналізу полягають у тому щоб за на-явними статистичними даними (х(, у(), і = 1, 2,…, п, для змінних X і У:
а) отримати найкращі оцінки a0, a1 невідомих параметрів a0 і a1:
б) перевірити статистичні гіпотези про параметри моделі;
в) перевірити, чи досить добре модель узгоджується зі статистичними даними (адекватність моделі даним спостережень).
Для відображення того факту що кожне індивідуальне значення Уі відхиляється від відповідного умовного математичного сподіван-
ня, у модель уводять випадковий доданок и:
Отже, індивідуальні значення Уі подають у вигляді суми двох
компонент - систематичної (a0+a1х{) і випадкової (щ). Причина появи останньої досить докладно розглядалася раніше. Таким чином, регресійне рівняння набуває вигляду
Завдання полягає в тому щоб за конкретною вибіркою (*,., Уі), і = 1, 2,..., и, знайти такі значення оцінок невідомих параметрів a0 і a1, щоб побудована лінія регресії була найкращою в певному розумінні серед усіх інших прямих. Іншими словами, побудована пряма має бути "найближчою" до точок спостережень за їх сукупністю.
Мірою якості знайдених оцінок можуть бути визначені композиції відхилень щ, і = 1, 2,…, п. Наприклад, коефіцієнти a0 і a1 рівняння регресії можуть бути оцінені за умови мінімізації однієї з таких сум:
Однак перша сума не може бути мірою якості знайдених оцінок через те, що існує безліч прямих (зокрема, Y = у ), для яких ?Щ = 0.
Метод визначення оцінок коефіцієнтів за умови мінімізації дру-гої суми називається методом найменших модулів (МНМ).
Найпоширенішим і теоретично обґрунтованим є метод визначення коефіцієнтів, при якому мінімізується третя сума. Він дістав на-зву методу найменших квадратів (МНК).
Останній метод оцінювання параметрів найпростіший з обчислювальної точки зору. Крім того, оцінки коефіцієнтів регресії, знайдені за МНК при визначених передумовах, мають ряд оптимальних властивостей (незміщеність, ефективність, обгрунтованість).
Серед інших методів визначення оцінок коефіцієнтів регресії ви-окремимо метод моментів (MM) і метод максимальної правдоподібності (ММП).
Метод найменших квадратів
Нехай за вибіркою (х{, у{), і = 1,2,..., и, потрібно визначити оцін-ки а0 і а1 емпіричного рівняння регресії (2.2), тобто підібрати такі значення коефіцієнтів рівняння, щоб сума квадратів відхилень була мінімальною (рис. 2.2).
У цьому разі Ьї є квадратною функцією двох параметрів а0 і=1
оскільки х(, у((і = 1, 2,..., и) - відомі дані спостережень:
Неважко помітити, що квадратична функція Q неперервна, опук-ла та обмежена знизу (Q > 0), тобто має мінімум.
Необхідною умовою існування мінімуму неперервно диференці-йованої функції двох змінних є рівність нулю її частинних похідних:
Поділивши обидва рівняння системи (2.8) на п, отримаємо
У наступних формулах для спрощення знаки сум ( = ) записуватимемо без індексів, допускаючи, що додавання виконується від і=1 до і = п. Також для змінних з індексом і розумітимемо, що
і = 1, 2,..., и (якщо не зазначено інше).
Отже, згідно з МНК оцінки параметрів а0 та а1 визначаються за формулами (2.9).
Неважко помітити, що a1 можна обчислити за формулою
де Sxy = cov(x,y) = - ? (xi -x)(yi -y) - вибірковий кореляційний момент випадкових величин XiY;S2x=-? (xi - x)2 вибіркова дисперсія X; Sx = yJS2 - стандартне відхилення X. Тоді
де rxy - вибірковий коефіцієнт кореляції; S - стандартне відхилення Y. Отже, коефіцієнт регресії пропорційний коефіцієнту кореляції, а коефіцієнти пропорційності використовують для зіставлення різних величин Хі Y.
Таким чином, якщо коефіцієнт кореляції rxy уже розрахований, то за формулою (2.11) неважко знайти коефіцієнт a1 парної регресії.
Якщо окрім рівняння регресії Y на X (Y = a0 + a1X) для тих самих емпіричних данихзнайдено рівняння регресії X на Y
(X = b0 + b1Y), то добуток коефіцієнтів a1 та b1 дорівнює rx2y:
Зазначимо, що коефіцієнти b0 і b1 обчислюються за формулами, аналогічними формулам (2.9):
Властивості оцінок параметрів
Отримані результати, зокрема формули (2.9) і (2.12), дають змогу зробити ряд висновків.
1. Оцінки МНК є функціями від вибірки.
2. Оцінки МНК є точковими оцінками теоретичних коефіцієнтів регресії.
3. Відповідно до другої формули співвідношення (2.9) емпірична пряма регресії обов'язково проходить через точку ( х, у ).
4. Емпіричне рівняння регресії побудоване в такий спосіб, що сума відхилень 'Ущ, а також середнє значення відхилення дорівнюють нулю (показати самостійно).
5. Випадкові відхилення иі некорельовані зі спостереженими значеннями уі залежної змінної Y.
Для підтвердження цього висновку необхідно показати, що кова-ріація між Y і и дорівнює нулю, тобто Syu = 0.
6. Випадкові відхилення иі некорельовані зі спостереженими значеннями х{ незалежної змінної X і з оціненими за лінійною регре-сійною моделлю значеннями залежної змінної Y.
Щоб підтвердити даний висновок, необхідно показати, що коварі-ація між X і и дорівнює нулю, тобто Sm = 0, S~ = 0.
(Доведення пп. 5 і 6 виконати самостійно.)
Зауважимо, що в класичній лінійній економетричній
Loading...

 
 

Цікаве