• Nem Talált Eredményt

Összefüggések a lineáris regressziós modellben

N/A
N/A
Protected

Academic year: 2022

Ossza meg "Összefüggések a lineáris regressziós modellben"

Copied!
14
0
0

Teljes szövegt

(1)

Statisztikai Szemle, 79. évfolyam, 2001. 10–11. szám

ÖSSZEFÜGGÉSEK A LINEÁRIS REGRESSZIÓS MODELLBEN

DR. HAJDU OTTÓ

A tanulmány a lineáris regressziós modell alapvető mutatóit tárgyalja. E mutatókat egymásból vezeti le olymódon, hogy azok statisztikai tartalma a levezetés gondolatmenetétől megvilágítást nyer. A tanulmány mindazokat a módszertani következtetéseket, melyek a klasszikus megközelítésben a mintavétel szintjén keletkeznek, ezúttal az elméleti modell tu- lajdonságai között helyezi el. A cikk hangsúlyt helyez arra a tényre, hogy a többváltozós modellt jellemző mutatók miként vezethetők vissza az egyszerű kétváltozós modell megfe- lelő mutatóira. A dolgozatban szereplő levezetések sajátos menete – két évtized oktatási ta- pasztalataira épülve – a szerzőtől származik, melynek didaktikája a regresszió oktatását is segíteni kívánja.

TÁRGYSZÓ: Lineáris regressziós modell. Modelltulajdonságok. Becslőfüggvények.

regressziós modell egy sztochasztikus jelenséget hivatott leírni az azt alakító té- nyezők függvényében, elemzési, illetve előrejelzési céllal. A vizsgált jelenséget repre- zentáló Y eredményváltozó, és az ok szerepét játszó X magyarázó változók kijelölése a modell specifikálásának első lépése. A modell struktúráját az Y.X1,X2,K,Xp,e formula írja le, aholemaradék jellegű változó, a modell által nem magyarázott, véletlen hatást fe- jezi ki. A véletlen változó nyújtja tehát a modell sztochasztikus jellegét, és rajta keresztül ítélhető meg a modell és a valóság viszonya. A véletlen változó minden regressziós mo- dell eleme, ezért a (p+1) változós modellre elegendő az Y.X1,X2,K,Xp formában hi- vatkozni. A regressziószámítás módszertana kimunkált, eszköztára közismert. Alapvető- nek mondható mutatói esetében azonban azok tartalmának és formulájának az összekap- csolása korántsem magától értetődő, a szakirodalom pedig adós az indoklásukkal.1 Jelen tanulmány célja, hogy a lineáris regressziós modell nevezetes összefüggéseit bemutassa, esetenként új megvilágításba helyezze azokat.

A szakirodalomban megszokott tárgyalásmódtól eltérően, a lineáris regresszió „szoká- sos outputjához tartozó” regressziós paramétereket, parciális korrelációkat és az illeszke- dés vizsgálatát segítő mutatókat nem a minta szintjén, hanem a modelljellemzők között definiáljuk, mivel tartalmuk már itt értelmezhető. Az érintett fogalmakat a tanulmány

1 A tankönyvek és szakkönyvek egymásra hivatkozva, indoklás nélkül örökítik tovább az egyes formulákat, az olvasóra bíz- va azok belátását.

A

(2)

olyan didaktikai keretben tárgyalja, melyben a mutatók definíciójukból, illetve egymásból következve értelemszerűen formálódnak, így összefüggéseik plasztikusan láthatóvá vál- nak. A magyarázó változók szempontjából egymásba ágyazott modelleket, így a kétválto- zós modellt, nemcsak speciális esetként, hanem a többváltozós modell szerves részeként is kezeljük.

Mindezek értelmében jelen tanulmány első része a kétváltozós modellt vizsgálja abból a követelményből kiindulva, miszerint a véletlen változó korrelálatlan a magyarázó válto- zóval. E racionális megszorítás nem engedi, hogy a véletlen változó előrejelezhető legyen a magyarázó változó értékének az ismeretében. Ezt követően a kétváltozós modell ered- ményeit három változó páronkénti kapcsolatainak a vizsgálatára terjesztjük ki. A második rész általánosítja a modellt kettőnél több változó egyidejű kezelésére, ideértve a három- változós modellt is.2 Ebben a részben a többváltozós modell némely esetben háromválto- zóssá partícionálva jelenik meg, lehetővé téve az általános modell jellemzőinek a kétvál- tozós modell eredményeire való visszavezetését. E két rész eredményei mind modell- szintűek, függetlenek a mintavétel problémáitól, és a véletlen változóval szemben támasztott kiinduló követelmény teljesülésén alapulnak. Ezért a harmadik részben azt vizsgáljuk, hogy a paraméterbecslés tükrében (tehát a minta szintjén) a kiinduló korrelálatlansági követelmény milyen körülmények között konform a legkisebb négyzetek kritériumával.

A KÉTVÁLTOZÓS MODELL

Kétváltozós, azaz Y.X modellt definiálva az eredményváltozó alakulását csak egyetlen magyarázó változó felhasználásával közelítjük. A kapcsolat sztochasztikus jellegű, hiszen a magyarázó változó rögzített X szintje mellett az eredményváltozó értéke szóródik

Y X Y

E{ | }= ˆ feltételes várható értékkel, és Var{Y|X} feltételes varianciával.3 A reg- ressziós modell feltevése szerint az eredményváltozó feltételes várható értéke a magyará- zó változó lineáris függvénye:

X Yˆ=b0+b1 ,

ahol b0 és b1 a regressziós paraméterek. E paraméterek a modell szerint rögzített, de isme- retlen értékek. Tartalmilag a b0 tengelymetszet az eredményváltozó X=0 feltétel mellett várható értékét jelenti, míg a b1 meredekség a magyarázó változóban bekövetkezett egy- ségnyi abszolút változásnak az eredményváltozóra gyakorolt várható hatását számszerűsíti.

A tengelymetszet szerepeltetését a modellben az indokolja, hogy a magyarázó változó zérus szintje mellett az eredményváltozó várható értéke nem föltétlenül zérus. A regressziós függ- vény Yˆ értékét a későbbiekben tömören regressziónak nevezzük. A regresszió értékének az ismeretében egy adott X feltétel melletti Y értéktől való e eltérés:

Y Y- ˆ

=

e .

2 Mint látjuk, a tanulmányban a három változó vizsgálatán, és a háromváltozós modellen mást értünk.

3 E{.} az argumentumban szereplő véletlen változó várható értékét Var{.} pedig a varianciáját jelöli.

(3)

Az e véletlen (maradék) változó feltételes várható értéke (lévén várható értéktől vett eltérés) definíció szerint zérus: E{ε|X} = 0. Ebből következően a véletlen változó várható értéke mindenféle értelemben – tehát feltételre való tekintet nélkül is – zérus. Mivel a magyarázó változó ismeretében a regresszió hivatott leválasztani az eredményváltozó várható értékét, a maradék jellegű véletlen hatás a magyarázó változóval definíció szerint korrelálatlan. Ezt a CX,e kovariancia zérus értéke fejezi ki:

. 0 }

,

{X e =CX,e=

Cov /1/

A regressziós modellben tehát az eredményváltozó kétféle komponens eredője. Egy a magyarázó változóval függvényszerű kapcsolatban levő, és a magyarázó változóval kor- relálatlan hatás összege.

A korrelálatlanságnak, valamint a linearitásnak a feltevése maga után vonja az alábbi- ak teljesülését.

1. Az eredményváltozónak a magyarázó változóval való kovarianciája – a kovariancia lineáris dekompozíciója alapján4 – megegyezik saját regressziójával vett kovarianciájá- val:

Y X X

Y X Y

Y X

X C C C C

C , = ,(ˆ+e) = ,ˆ + ,e= ,ˆ. /2/

E kovariancia értékét a meredekség és a magyarázó változó varianciája együttesen alakítja:

1 2 , 1 ) ( ˆ ,

,Y X,Y X 0 1X X X X

X C C C

C = = b +b =b =bs . /3/

2. A regresszió a véletlen változóval korrelálatlan:5

, 0

1 ), , (

ˆe= b0+b1X e=b Xe=

Y C C

C . /4/

Az eredményváltozó feltétel nélküli varianciájának regressziós dekompozíciója ezek után /4/ alapján:

= +

= s + s

= + s + s

= s

= s

= +e e e 2 e2 ˆ,ˆ e,e , ˆ

2 ˆ 2ˆ 2ˆ

, 2 2C C C

CYY Y Y Y Y Y YY /5/

Y Y Y Y Y Y

Y C C C

Cˆ,( -e)+ e,( -ˆ)= ˆ, + e,

= , /6/

ahol sY2ˆ a regressziónak, s2e pedig a véletlen változónak a feltétel nélküli varianciája.

Mivel variancia nem lehet negatív, ezért az eredményváltozó sem a saját regressziójá- val, sem a véletlen változóval nem korrelálhat negatív irányban, hiszen /5/ és /6/ alapján

2 0

, ˆ

ˆY =sY ³

CY és Ce,Y =s2e ³0.

4 A tanulmány intenzíven támaszkodik a kovariancia lineáris dekompozíciójára, melyet a Függelék ismertet.

5 A kovariancia invariáns a b0 konstanssal való eltolásra.

(4)

Az előbbiek alapján lehetőségünk nyílik egyrészt a meredekség meghatározására, más- részt a modell és a valóság illeszkedésének a jellemzésére. A meredekség értéke /3/ alapján

2 ,ˆ 2

, 1

X Y X X

Y

X C

C

= s

= s

b . /7/

Az illeszkedést jellemző determinációs együttható, az eredményváltozó varianciájából a regresszió által megmagyarázott hányad pedig /5/ és /6/ alapján

Y Y

Y Y Y X Y

Y C

R C

, ˆ, 2 2ˆ 2.

0£ = =

s

s 1 1 1

, , 2

2

£ - s = -s

= e e

Y Y

Y

Y C

C . /8/

E varianciahányados jellegű mutató egyben az eredményváltozó és a magyarázó vál- tozó közötti rX,Y lineáris korreláció négyzete, hiszen

2, 2 2 2 2 1

2 )

( 2 2ˆ

2. 0 1 XY

Y X Y

X Y

X Y

Y r

R =

s b s s =

=s s

=s b +b . /9/

Ugyanakkor a determinációs együttható pozitív gyöke, a szóráshányados, tartalmilag az eredményváltozó és a regresszió közötti lineáris korreláció, mivel:

, .

ˆ ˆ ˆ, , ˆ

ˆ ˆ

. YY

Y Y Y Y Y

Y Y Y Y X Y

Y C C r

R =

s

=s s

= s s

=s /10/

A változók szerepének megcserélésével a determinációs együttható fölbontható az Y.X és X.Y modellek bY.X és bX.Y meredekségeinek a szorzatára:

Y X X Y Y

Y X X

Y Y X X X Y

C r C

R2. 2, 2, 2, =b . b . s

= s

= .

Lévén 10£RY2.X £ , ezért a kétféle meredekség előjele meg kell, hogy egyezzen, to- vábbá, ha egyikük nagyobb, mint 1, akkor a másik szükségszerűen kisebb egynél.

A tengelymetszet meghatározása érdekében tekintsük az eredményváltozó modellezett értékét:

e + b + b

= X

Y 0 1 .

Ebből az eredményváltozó feltétel nélküli eloszlásának várható értéke X

E X Y

E{ }=b0+b1 + (e)=b0+b1 , ahol X a magyarázó változó átlagos szintje.

(5)

Mivel a meredekség adott, ezért a tengelymetszet kivonással:

X Y

E 1

0 = { }-b

b .

Végül a véletlen változó feltétel nélküli varianciája a determinációs együttható függ- vényében kifejezve:

) 1 ( ) 1

( 2. 2 2,

2

2 =sY -RYX =sY -rXY

se . /11/

Érdeklődésünket most három, rendre X,Y,Z változóra kiterjesztve, a páronkénti kor- relációs kapcsolat – kétváltozós modellek használatával – háromféle párosításban vizs- gálható.6 Tekintsük előbb az X és az Y változót külön-külön az X.Z és Y.Z kétváltozós modellekben rendre mint eredményváltozót, egyaránt a Z változóval magyarázva:

X Z

X Z X

Xˆ =b0X +b . = -e

Y Z

Y Z Y

Yˆ=b0Y +b . = -e ,

ahol a definíció szerintCov(Z,eX)=Cov(Z,eY)=0, és ebből következően Cov(Yˆ,eX)= 0

) ˆ,

( e =

=Cov X Y is teljesül. Ezt kihasználva az X és Y változók közötti kovariancia to- tális értéke értelemszerűen kétféle korrelációs kapcsolat eredője. Egyrészt a Z változó li- neáris hatását reprezentáló várható értékek közötti, másrészt e lineáris hatástól tisztí- totteXéseYvéletlen változók közötti kapcsolatra vezethető vissza:

Y X X

Y C C

C C

CX,Y = Xˆ,Yˆ+ Xˆ,e + Yˆ,e + e ,e =CXˆ,Yˆ+CeX,eY . /12/

A kovariancia /12/ felbontását a kovariancia regressziós dekompozíciójának nevez- zük.7 Ebből az eX és eY véletlen változók közötti kovariancia tartalmilag az ún. parciá- lis kovariancia, melynek értékét számíthatjuk az eredeti változók közötti, nem tisztított páronkénti kovarianciák felhasználásával, az alábbiak szerint:

Y Y X

X C

C

CeX,eY = , - ˆ,ˆ , . . , , 2, 2, 2Z

Z Z Y Z

Z Y X X Z Z Z Y Z X Y X

C C C

C

C s

s - s

= b

b -

= =

2 , , ,

Z Z Y Z X Y X

C C C

- s

= . /13/

Ha valamennyi változó standardizált, akkor a parciális kovariancia a lineáris korrelá- ciók felhasználásával is kalkulálható:

Z Y Z X Y

X r r

r

CeX,eY = , - , , .

6 A későbbiekben, ha pontosan három változót szerepeltetünk, akkor a könnyebb hivatkozás kedvéért mindhármukat külön, rendre X,Y,Z betűvel illetjük.

7 Vegyük észre, hogy ez a variancia /6/ felbontásának kiterjesztése.

(6)

A parciális kovariancia értékét osztva a két véletlen változó /11/ formában kifejezett szórásainak szorzatával, definíció szerint az X és Y változók közötti parciális korrelációt kapjuk, melynek szokásos jelölése rX,Y.Z, értéke pedig:

Y X Y

X Y X Y X

Y Y X X Z

Y X

C C C

r r

e e e

e e e e

e s s

= - s

=s

= , , , ˆ,ˆ

.

, 2

2 , ,

, , ,

1

1 XZ YZ

Z Y Z X Y X

r r

r r r

- -

= - . /14/

A TÖBBVÁLTOZÓS MODELL

Az Y.X1,...,Xp (p+1) változós modell szerint a regresszió p számú magyarázó változó lineáris kombinációja:

p pX X

Yˆ=b0+b1 1+K+b ,

ahol a bj (j=1,...,p) koefficiensek a parciális regressziós meredekségek. E meredekségeket úgy specifikáljuk, hogy a véletlen változó valamennyi (j=1,...,p) magyarázó változóval korrelálatlan legyen:

= e

e} ,

,

{Xj CXj

Cov =CXj,(Y-Yˆ) =CXj,Y -CXj,Yˆ =0 /15/

vagy átrendezve

Y Y X

Xj C j

C , = ,ˆ. /16/

E követelmény mátrix formában

úú úú ú

û ù

êê êê ê

ë é

=

= úú úú ú

û ù

êê êê ê

ë é

=

Y X

Y X

Y X

Y X Y X

Y X

Y X

XY

p C p

C C

C C C

,ˆ ,ˆ ,ˆ

ˆ

, , ,

2 1 2

1

M c M

c , /17/

ahol cXY és cXYˆ az egyes magyarázó változóknak az eredményváltozóval, illetve annak regressziójával vett kovarianciáit tartalmazó vektorok. A többváltozós modellre is érvé- nyes tulajdonság tehát, hogy a véletlen változó a regresszióval nem korrelál:

0

1 ,

ˆ, =

å

b =

= e

e p

j j X

Y C j

C .

A paraméterek értelmezése

A bj paraméter azt az abszolút jellegű változást számszerűsíti, mely az eredményvál- tozó feltételes várható értékében – ceteris paribus – az Xj változó egységnyi abszolút vál

(7)

tozásának a hatására következik be. A bj paraméterek parciális értelmét megvilágítandó, a modellt az Y.X,Z és az Y.X formában háromváltozósra, majd kétváltozósra redukáljuk, és kapcsolatot teremtünk a megfelelő regressziós paraméterek között.

Fejezzük ki az Y.X modell bY.X meredekségét az Y.X,Z bővített modell bX és bZ parci- ális meredekségeivel. A zéró kovarianciák elhagyásával

X Z Z X X

Z Z X X

X X X X

Z X X X

Y X X Y

C C C

C X Z

2 . , 2

, 2

) (

, 2

. , 0 =b +b b

b s s + b s =

s =

=

b b +b +b +e , /18/

ahol bZ.X a Z.X modell meredeksége. Tehát X egységnyi változásának az eredményváltozó várható értékére gyakorolt totális hatása egyrészt X parciális közvetlen bX hatására, más- részt a Z változón keresztül gyakorolt közvetett hatására vezethető vissza. A közvetett hatást bZbZ.X számszerűsíti, hiszen X egységnyi változásának totális hatása a Z változóra bZ.X, míg Z egységnyi változásának parciális közvetlen hatása az eredményváltozóra bZ. Az ilyen jellegű elemzést útelemzésnek nevezzük. A fentiek analógiájára az útelemzés kiterjeszthető az Y.X1,...,Xp általános modellre is. Például Xj és Y kapcsolatát tekintve:

j p j

j p p j

j j

X X p X

X X

X X X X

Y X Xj Y

C C

. .

2 1

) ...

( , 2

,

. 0 1 1 =bb 1 +...+b b

= s

= s

b b +b + +b +e , /19/

ahol 1bXj.Xj = .

A regressziós paraméterek tulajdonságai

A parciális regressziós meredekségek értéke – a kétváltozós modell analógiájára – az eredményváltozónak a magyarázó változókkal való korrelációs kapcsolataira, továbbá a magyarázó változók egymás közötti korrelációs struktúrájára vezethető vissza. Tekintsük ugyanis a regressziós meredekségek függvényében a

p j j

p p

jY Xj X X X X p X X

X C C C

C ,ˆ = ,(b0+b1 1+...+b ) =b1 , 1+...+b ,

kovarianciát, melyet valamennyi Xj (j=1,...,p) változóra meghatározva, majd a /17/ köve- telményből kiindulva és mátrixjelölést alkalmazva

X Y XX

XY cX C β

c = ˆ = , /20/

ahol a parciális meredekség vektora:

úú úú ú

û ù

êê êê ê

ë é

b b b

=

p

X M

2 1

β ,

(8)

a magyarázó változók (p,p) rendű szimmetrikus kovariancia mátrixa pedig:

úú úú ú

û ù

êê êê ê

ë é

=

p p p

p

p

X X X

X X X

X X X

X X X

Xp X X

X X X

XX

C C

C

C C

C

C C

C

, ,

,

, ,

,

, ,

,

2 1

2 2

2 1 2

1 2

1 1 1

O M

L

C .

Ekkor a /20/ azonosságból (feltéve, hogy CXX invertálható):

XY XX

X C c

β = -1 . /21/

A parciális regressziós paraméterek ismeretében a tengelymetszet értéke (a véletlen változó zérus várható értéke mellett):

p pX X

Y

E -b - -b

=

b0 { } 1 1 K . /22/

Látható, hogy a változókat az Yc =Y-E{Y} és c j j

j X X

X = - módon centrálva a tengelymetszet zérussá válik, viszont a parciális meredekségek nem változnak. A kovari- ancia invariáns ugyanis arra, hogy az eredeti változókra, vagy azok centrált változatára vonatkozóan határozzuk-e meg:

e + b + + b

= c p cp

c X X

Y 1 1 K .

Ha viszont a változókat az Y*=Yc/sY és X*j =X*j/sXj módon standardizáljuk, akkor a parciális regressziós meredekségek megváltoznak:

Y p pX X

Y*=a1 1*+K+a * +e/s ,

ahol

Y X j

j j

s b s

=

a az ún. standardizált regressziós meredekség. E paraméter jelentősége az, hogy az adott magyarázó változó fontosságát a többi magyarázó változó viszonylatá- ban (mértékegységtől függetlenül) tükrözi. A parciális regressziós meredekségek standar- dizált változatának mátrix formában való (/21/ szerinti) meghatározása értelemszerűen a kovarianciák helyett a lineáris korrelációkat igényli

XY XX X =R-1r

α . /23/

A modell magyarázó ereje

Mivel a centrált és a standardizált modell csak egy konstans sY szorzóban tér el egy- mástól, ezért a modell magyarázó erejét jellemző többszörös determinációs együttható invariáns a változók (valamennyi változó egyidejű) standardizálására. Értékét tehát kife

(9)

jezhetjük mind az eredeti mértékegységben értelmezett, mind pedig a standardizált reg- ressziós paraméterek függvényében. Definíció szerint ugyanis (hivatkozva a /6/ azonos- ságra):

2 ), ...

2 ( , ,

. 1 0 1 1

Y

Y X X X

X

Y p p p

R C

= b +b s+ +b

¼ 2

,

1 Y

Y p X

j j j

C b s

=

å

= X Y

p j jr j,

å

1

=a

= . /24/

A modell illeszkedését a magyarázó változók aj relatív súlyai, és az eredményválto- zóval való korrelációik együttesen határozzák meg.

Az Y.X,Z háromváltozós modellben közvetlen kapcsolat teremthető a többszörös de- terminációs együttható, valamint a kétváltozós totális és a parciális determinációs együtt- hatók között. Alkalmazzuk a speciális /18/ háromváltozós útelemzést a standardizált vál- tozókra az alábbi módokon (kihasználva, hogy standardizált változók esetén a kétváltozós modell meredeksége a lineáris korrelációval egyezik meg):

Z X Z X Y

X r

r , =a +a , /25/

Z Z X X Y

Z r

r , =a , +a /26/

amely mátrix formában felírva:

úû ê ù ë é a ú a û ê ù

ë

=é úû ê ù ë é

Z X Z

X

Z X Y

Z Y X

r r r

r

1 1

, , ,

,

vagy általánosságban

r= ,

ahol az r vektor a magyarázó változóknak az eredményváltozóval vett korrelációit, az R mátrix a magyarázó változók egymás közötti páronkénti korrelációit, az α vektor pedig a magyarázó változók standardizált meredekségeit tartalmazza. A fenti egyenletrendszert a standardizált meredekségekre átrendezve (lásd a (2,2) rendű mátrix invertálására vonat- kozó nevezetes szabályt):

α= R-1 r ú

û ê ù ë úé û ê ù

ë é -

-

= - úû ê ù ë ú é û ê ù

ë

=é úû ê ù ë é a

= a

-

Y Z

Y X Z

X

Z X Z

Y X Z

Y X Z

X

Z X Z

X

r r r

r r r

r r

r

, , ,

, 2,

, , 1

, ,

1 1

1 1 1

1 ,

melyből a standardizált meredekségekre az

2, , , ,

1 X Z

Z X Y Z Y X

X r

r r r

-

= -

a 2

, , , ,

1 X Z

Z X Y X Y Z

Z r

r r r

-

= - a megoldás adódik.

(10)

E paraméterekkel a többszörös determinációs együttható (a /23/ és /24/ formulákat használva):8

Y Z Z Y X T X

Z X

Y r r

R2. , =α r=a , +a , = rT R-1 r =

2,

, , 2 ,

2 , ,

1 2

Z X

Z X Y Z Y X Y Z Y X

r

r r r r r

- -

= + 2

, , 2 , 2 ,

, 1

) (

Z X

Y X Z X Y Y Z

X r

r r r r

- + -

= =

2, , 2 , , 2, 2, 2,

1

) (

1 1

Z X

Y X Z X Y Z Y X

Y X Y

X r

r r r r r r

- - -

+ -

= 2 2, .

2 ,

,Y (1 XY)ZYX

X r r

r + -

= , /27/

ahol rZ2,Y.X a /14/ formulának megfelelően a Z és Y változók közötti parciális korreláció négyzete. Analóg módon az

2, . 2, 2,

2.X,Z ZY (1 ZY) XYZ

Y r r r

R = + - /28/

felbontás is teljesül. A /27/ és /28/-ból a parciális determinációs együttható más alakokban

2, 2, 2. , 2, .

1 XY

Y X Z X Y X Y

Z r

r r R

-

= - /29/

2, 2, 2. , 2, .

1 ZY

Y Z Z X Z Y Y

X r

r r R

-

= - . /30/

Látható, hogy a parciális determinációs együttható azt számszerűsíti, hogy a Z magya- rázó változónak az X magyarázó változó után való bevonása a modellbe (a kétváltozós modell háromváltozóssá bővítése) milyen arányban csökkenti az eredményváltozó varianciájából az X változó által meg nem magyarázott hányadot. Vegyük észre továbbá, hogy mivel a parciális determinációs együttható (lévén négyzetszám) nem lehet negatív, ezért a modell további magyarázó változóval való bővítésekor a többszörös determinációs együttható sohasem csökkenhet. A korábbi szinten csak akkor marad, ha az újonnan be- vonandó magyarázó változónak az eredményváltozóval való parciális korrelációja zérus.

A parciális determinációs együttható értéke alapján a parciális korreláció irányára, előjelére vonatkozóan még nincs információnk. A háromváltozós modellben definiált /14/

parciális korreláció azonban lehetővé teszi bármilyen többváltozós modell esetén is a par- ciális korreláció meghatározását, ha kijelöljük a kérdéses Y eredmény- és X magyarázó változót, miközben Z az összes többi változó együttesét jelöli. A változók standardizált formáját használva, tekintsük az

X q

qX

XZ Z X

Xˆ =a +...+a = -e

1

1 Yˆ=aYZ +...+aqYZq =Y-eY

1 1

modelleket.

8 A T felső index az illető mátrix (vektor) transzponáltját jelöli.

(11)

E modellekre (lásd a Függeléket, valamint a parciális meredekségek /23/ alatti meg- határozását):

(

ZZ XZ

) (

T ZZ ZZ YZ

)

XZT ZZ YZ

Y T ZZ Y X

CXˆ,ˆ =α R α = R-1r R R-1r =r R-1r

ahol az rYZ vektor az Y változónak valamennyi Z változóval, az rXZ vektor az X változónak valamennyi Z változóval, az RZZ mátrix pedig a Z változók egymással vett páronkénti kor- relációit tartalmazza.

Ekkor, a parciális korreláció /14/ definíciója szerint:

Y X

q r r

rX,Y.Z1,...,Z = X,Y.Z = e ,e

2. 2.

,ˆ , ˆ

1

1 XZ YZ

Y Y X X

R R

C r

- -

= -

2. 2.

, 1

1

1 XZ YZ

YZ T ZZ XZ Y X

R R

r

- -

= -r R- r

, /31/

ahol RX2.Z és RY2.Z az Y.Z1,...,Zq és X.Z1,...,Zq modellek többszörös determinációs együtt- hatói.

Amennyiben csak egyetlen Z változót definiálunk, úgy a fenti formula a /14/ képletre egyszerűsödik.

A parciális korreláció a változók számától függetlenül, mindig számolható a klasz- szikus, háromváltozós /14/ formulával, egy lépéssorozat eredményeképpen. Például négy változó (rendre X,Y,U,Z) esetén az rX,Y.U,Z parciális korreláció meghatározása az alábbiak szerint is végrehajtható. Szűrjük ki előbb U lineáris hatását az összes többi változóból, majd az eredményül kapott három parciális korrelációt tisztítsuk meg Z li- neáris hatásától:

2, . 2, .

. , . , . , ,

.

, 1 X ZU 1 YZU

U Z Y U Z X U Y U X Z Y

X r r

r r r r

- -

= - . /32/

Mivel /27/ és /28/ értelmében a parciális determinációs együttható a többszörös de- terminációs együttható relatív növekményét jellemzi a vonatkozó változóval történő bő- vítés hatására, ezért a parciális korreláció /32/ formulájának az alkalmazásával bármilyen modell többszörös determinációs együtthatója fölépíthető a kétváltozós modelléből kiin- dulva.

REZIDUÁLIS KÖVETELMÉNYEK A PARAMÉTERBECSLÉS TÜKRÉBEN

Végezzünk i=1,…,n számú megfigyelést az eredményváltozóra vonatkozóan, a ma- gyarázó változók rögzített xi=[Xi1,...,Xij,...,Xip]T értékei mellett. Az így nyert y=[y1,...,yi,...,yn]T minta alapján becsüljük a parciális meredekségeket, és a becsléseket a bX=[b1,...,bj,...,bp]T vektorba foglaljuk.9 Ha szerepel a modellben tengelymetszet, akkor ennek becsült értéke b0.

9 A mintavétel módjára egyáltalán nem, a becslési módszerre pedig egyelőre nem teszünk megszorítást.

(12)

A modell által a mintából meg nem magyarázott e=[e1,...,ei,...,en]T reziduális (mara- dék) részek figyelembe vételével:

e Xb

y= + , /33/

ahol az X mátrix i-edik sora [1,Xi1,...,Xij,...,Xip] és b=[b0,b1,...,bj,...,bp]T lesz.10 A lineáris regresszió a változók mintán belüli átlagos értékeire is fennáll:

e X b b

y p j

j j +

+

=

å

=1

0 , /34/

ahol y=1n

å

ni=1yi, és e értéke a paraméterek birtokában kivonással adódik.

A b paraméterek becslési módszerét annak függvényében választjuk meg, hogy az ei

reziduumokkal szemben milyen követelményeket támasztunk.

A korrelálatlansági kritérium

Amennyiben a magyarázó változók bármelyikével korrelálatlan reziduum az elvárá- sunk, ez független attól, hogy becsülünk-e tengelymetszetet vagy sem. A korrelálat- lansági követelménynek mindig eleget teszünk, ha a parciális meredekségeket – /21/

analógiájára – a

Xy XX

X C c

b 0 = -1 /35/

formulával becsüljük, ahol

úú úú û ù

êê êê ë é

=

y X

y X Xy

C p

C

, 1,

M

c .

Ez esetben a tengelymetszet becsült értéke annak függvénye, hogy a reziduumok át- lagára milyen megkötést teszünk. Ha elvárás, hogy a reziduumok átlaga zérus legyen, ak- kor a /34/ összefüggésből a tengelymetszetre

p pX b X

b y

b00= - 1 1-K-

adódik. Amennyiben a tengelymetszet értékét másképp választjuk meg, úgy e¹0. A legkisebb négyzetek kritérium

Ha viszont célunk a reziduális négyzetösszeg minimálása, akkor ez a célfüggvény – mint az közismert – az XTe=0 normálegyenletrendszer teljesülése esetén minimált. Ennek

10 Ha a modell nem tartalmaz tengelymetszetet, akkor b=bX és az X mátrix oszlopaiból elhagyjuk az összegző vektort.

(13)

tudatában a /33/ azonosság mindkét oldalát balról szorozva az XT mátrixszal, majd átren- dezve az egyenletet az

y X X XT ) 1 T

( -

becslőfüggvényt kapjuk, melynek eredménye b, ha a modell tartalmaz tengelymetszetet, és bX ha nem.11

Látható, hogy a normálegyenletrendszer kizárólag akkor ekvivalens a korrelálat- lansági követelménnyel, ha a modell tartalmaz tengelymetszetet. Ekkor ugyanis e=0, és ebből következően: XTe = cXe = 0. Ebben az esetben természetesen [b00, bX0] = b, egyébként viszont bX0 ¹ bX.

Ha tehát nem indokolt a tengelymetszet elhagyása, úgy szerepeltetésével egyidejűleg minimáljuk a reziduális négyzetösszeget, és a magyarázó változókkal korrelálatlan reziduumokat biztosítunk.

FÜGGELÉK

A KOVARIANCIA LINEÁRIS DEKOMPOZÍCIÓJA

Tekintsük az Xj centrált (átlagtól vett eltéréssel helyettesített) változók aj súlyokkal definiált

j p j ajX

X å

= = 1

és az Yt változók btsúlyokkal képzett

t q t btY Y å

= = 1

lineáris kombinációit. Ekkor az X és Y változók közötti (i=1,…,N megfigyelés alapján számított) CX,Y kovari- ancia felírható, mint az Xj és Yt változók közötti kovarianciák lineáris kombinációja, az alábbi módon:

t jY X t p j

q

t j

N

i i i

Y

X X Y a bC

C N ,

1 1 , 1

1 å å å

= =

= =

=

vagy mátrix jelöléssel bi-kvadratikus formában:

CX,Y = aT CXY b ,

ahol a és b a súlyokat tartalmazó vektorok, CXY pedig az Xj és Yt változók közötti kovarianciákat tartalmazó (p,q) rendű, tehát nem föltétlenül szimmetrikus mátrix.

IRODALOM GREEN, H. (1993): Econometric analysis. Macmillan, New York.

HAJDU O. – HERMAN S. – PINTÉR – RAPPAI G.– RÉDEY K. (1994): Statisztika I-II. Janus Pannonius Tudományegyetem, Pécs.

11 Természetesen a tengelymetszetet tartalmazó modell minimált reziduális négyzetösszege kisebb (nem nagyobb), mint a tengelymetszet nélkül specifikált modell minimált reziduális négyzetösszege.

(14)

HAJDU O. – HUNYADI L. – VITA L. (2001): Statisztikai elemzések. Egyetemi jegyzet. Aula, Budapest.

HUNYADI, L. (2001): Statisztikai következtetéselmélet közgazdászoknak. Központi Statisztikai Hivatal, Budapest.

HUNYADI L. – MUNDRUCZÓ GY. – VITA L. (1996): Statisztika. Aula, Budapest.

KERÉKGYÁRTÓ GY-– MUNDRUCZÓ GY. –SUGÁR A. (2001): Statisztikai módszerek és alkalmazásuk a gazdasági, üzleti elem- zésekben. Aula, Budapest.

KÖVES, P. – PÁRNICZKY, G. (1982): Általános Statisztika I-II. (3. átdolgozott kiadás). Közgazdasági és Jogi Könyvkiadó, Buda- pest.

MUNDRUCZÓ, GY. (1981): Alkalmazott regressziószámítás. Akadémiai Kiadó, Budapest.

MYERS, R. (1990): Classical and modern regression with applications. 2nd PWS-KENT, Boston.

WEISBERG, S. (1985): Applied linear regression. Wiley, New York.

SUMMARY

The paper discusses the structure of the linear regression model. The focus is on the initial assumption of an error term uncorrelated with the explanatory variables. The main question is what further model properties can be derived assuming merely an error term that meets the initial requirement. The paper shows that several basic model parameters such as regression coefficients, multiple R2 and partial correlation coefficients can also be defined as model components analogous to those calculated from the sample. Further, the study high- lightes the meaning of the parameters.

Finally, the paper investigates the similarities and differences between the estimators of the regression co- efficients, based on the one hand on an uncorrelated error term and on the other hand on a least squares resid- ual term.

Hivatkozások

KAPCSOLÓDÓ DOKUMENTUMOK

Az olyan tartalmak, amelyek ugyan számos vita tárgyát képezik, de a multikulturális pedagógia alapvető alkotóelemei, mint például a kölcsönösség, az interakció, a

Az ábrázolt ember tárgyi és személyi környezete vagy annak hiánya utalhat a fogyatékosság társadalmi megíté- lésére, izolált helyzetre, illetve a rajzoló

Közismert, hogy mind a lineáris, mind a logisztikus regressziós modell esetén, az alkalmazott függvénytípus következtében, csak a célváltozó tekintetében monoton

Közismert, hogy mind a lineáris, mind a logisztikus regressziós modell esetén, az alkalmazott függvénytípus következtében, csak a célváltozó tekintetében monoton

ebben az esetben logiszti- kus regressziós modellel dolgoztunk (Hajdu [2003]). táblázat foglalja össze az 1. modellhez tartozó eredményeket. a modell magyarázó ereje

Összefoglalva tehát: téves a logisztikus regressziós modell során a modellben szereplő független változók együtthatóit, azaz hatását két hasonló felépítésű – akár

innovációs képesség segítségével Egy térökonometriai modell.. „INNOVÁCIÓS RENDSZEREK, elmélet, politikák és mikroszereplők” konferencia

A második szakasz már a mentori munka végzése közben részben öthetenkénti foglalkozásokat jelent, amelyet december hónap során még egy egyhetes intenzív kurzus követ