Teoria prognozowania

Klasyczna metoda najmniejszych kwadratów

          Równanie prostej na podstawie, którego dokonuje się prognoz w modelu liniowym, wyraża się wzorem:

y = a + xb + ε

gdzie:

y – szukana zmienna;

a,b – parametry równania;

x – zmienna niezależna (objaśniająca),

ε – błąd modelu.

Jedyne zmienne, których nie znamy w tym modelu i które należy oszacować to parametry a i b (y - szukana wartość, x - pochodzi z rynków finansowych).  Ponieważ, chcemy aby prognozy dokonywane na podstawie tego równania były  jak najbardziej dokładne powinniśmy wyznaczyć takie parametry a i b, dla których dla dostępnych danych błędy modelu będą osiągały wartości najmniejsze. Błędy danego modelu to nic innego jak różnice pomiędzy wartościami zaobserwowanymi w rzeczywistości, a  wielkościami teoretycznymi wynikającymi z równania prostej y=a+bx. Często nazywa się je także resztami modelu. Możemy je zapisać jako:

e =  y – y

gdzie:

e – reszty modelu (błędy)

y – wartość zaobserwowana

y – wartość teoretyczna wyznaczona z równania prostej y = a + bx

Ponieważ mamy do czynienia z dodatnimi i ujemnymi błędami, a interesuje nas ich suma, reszty modelu należy podnieść do kwadratu (w wyiku sumowania dodatnie i ujemne różnice znosiłyby się nawzajem). Parametry a i b prostej o najmniejszej sumie kwadratów reszt będzie szukaną – najlepiej dopasowaną do danych empirycznych prostą. Dlatego metoda szacowania parametrów dla tak zdefiniowanego optimum minimalizacji nosi nazwę klasycznej metody najmniejszych kwadratów (KMNK). Wzory na obliczanie parametrów a i b w tej metodzie wyglądają następująco:

kmnk-wzory.JPG

W przypadku wielu zmiennych objaśniających parametry szacować będziemy za pomocą równania

kmnk-dwa.JPG

gdzie

X – macierz obserwacji zmiennych objaśniających

XT – macierz transponowana

X-1 – macierz odwrotna

a – wektor parametrów

Y – wektor obserwacji zmiennej objaśnianej

 

Zobacz także: