• Nem Talált Eredményt

A diszkriminancia elemzés alkalmazásának feltételei

In document Többváltozós adatelemzés (Pldal 197-0)

6. Faktorelemzés

7.2. A diszkriminancia elemzés alkalmazásának feltételei

A lineáris döntési függvényt két előfeltevés mellett keressük:

1. a változók többváltozós normális eloszlást követnek, és 2. minden csoportnak azonos a kovariancia mátrixa.

Mivel a számítási lépések sorába többváltozós normalitási teszt106 nincs beépítve, e feltétel teljesüléséről csak „hozzávetőlegesen” győződhetünk meg. A változókra külön-külön grafikus vagy numerikus normalitásvizsgálatot végezve feltárhatjuk azokat a változókat, amelyek eloszlása erősen eltér a normálistól.

Ha változó-transzformációval sem tudjuk biztosítani a normális eloszlást, akkor biztosan el kell vetnünk az együttes normális eloszlás feltevését. E mögött az a valószínűségszámítási tétel húzódik meg, hogy a többváltozós normális eloszlás peremeloszlásai biztosan normális eloszlást követnek, de a tétel nem megfordítható.

A csoport kovarianciákat a Box-féle M és ennek F-eloszlású transzformáltja teszteli.

Ez a teszt érzékeny a normalitástól való eltérésre, ezért egyenlőtlennek ítélhetünk kicsit eltérő kovariancia mátrixokat akkor, ha a normalitási feltevés nem helytálló.

Mivel az M kiszámításában a kovarianciák eltérését a csoportok méretével

106 Az SPSS-ben nem szerepel olyan statisztikai próba, amellyel a többváltozós normalitás tesztelhető.

súlyozzuk, kis eltérések is szignifikánsnak tűnnek, ha nagy a csoport mérete107. Kis méretű csoportokra a lineáris diszkrimináló függvény alkalmazható akkor is, ha a kovariancia mátrixok kissé eltérőek. Ha a kovariancia mátrixok nem egyenlők – de a minta elég nagy – akkor kvadratikus diszkriminancia függvény alkalmazása ajánlható. Ilyen választást az SPSS nem tesz lehetővé.

Ha csak két osztályunk van, azaz dichotom változóval írható le a csoportosítás, akkor a logisztikus regresszió alkalmazása célravezető. E módszernél ugyanis kevesebb előfeltevést kell figyelembe vennünk. Ezt a módszert az 5. fejezet ismerteti.

Vegyes mérési skálájú adatok elemzésére számos nemparametrikus módszer áll rendelkezésre, ilyenkor nem célszerű diszkriminancia elemzést végezni. Problémát okoz az, hogy diszkrét változókra normális eloszlást tételezünk fel, vagy az, hogy ordinális skálán mért változókra kovariancia nem számítható.

Az induló adatok:

Ismerjük p számú változó terében a legalább intervallum szinten mért adatokat, és egy további oszlopban szerepel a csoportosítást megadó nominális változó. A csoportok elemszáma eltérő lehet.

A matematikai háttér:

Az ismert csoportosításból kiindulva a többváltozós szóráselemzés alapgondolatát követjük. Előfeltevéseink:

• A csoportbeli megfigyelések függetlenek és véletlen mintából származnak.

• A független változók többdimenziós normális eloszlást követnek minden csoportban.

• A variancia-kovariancia mátrixok azonosak minden csoportban.

A főátlagtól mért teljes eltérések négyzetösszege két részre bontható: a csoportok közötti és a csoporton belüli eltérések négyzetösszegére108.

B K

T = +

, ahol

T = X

T

X

, (7.1)

ha centírozott adataink vannak, azaz X elemei már a főátlagtól való eltéréseket tartalmazzák.

X mátrix (nxp) méretű, ahol a g csoport elemszámai eltérőek lehetnek:

n n

g

i

i

=

=1

.

107 Ha minden csoport elemszáma közel azonosan nagy, akkor ennek nincs torzító hatása. A súly szerepe akkor fontos, ha vegyesen vannak nagyon nagy és nagyon kisméretű csoportjaink.

108Ha többváltozós elemzést végzünk, akkor átlagvektorok és eltérés négyzetösszeg mátrixok írhatók fel, méretük (pxp).

A B mátrixban az összes megfigyelésre összegezzük a csoportátlagoktól való négyzetes eltéréseket. Alternatív számítása a csoport-kovariancia mátrixok109 (S) súlyozott összege:

A megfigyelt változók lineáris kombinációjaként állítjuk elő a diszkrimináló függvényt, ahol a c együtthatók a főkomponens elemzéshez hasonlóan normalizáltak110:

Xc

y =

és

c

T

c = 1

(7.3)

Különböző c együttható vektorokhoz tehát különböző diszkrimináló függvények tartoznak. Az y vektor értékei nem megfigyeltek, de a centírozás miatt az átlaga zérus, varianciája111 pedig (7.3) és 7.1) felhasználásával a külső és a belső eltérés négyzetösszeg mátrixokból állítható elő:

Bc

Most nem egyszerűen az y variancia maximalizálása a célunk. Feladatunk olyan c együttható becslése, amely mellett a csoportok a lehető legjobban különböznek egymástól, és a belső eltérések kicsik, azaz a külső eltérések maximumát és a belső eltérések minimumát egyszerre keressük, a hányadosukat maximalizáljuk:

→ max

Mindkét oldal logaritmusát vesszük, és c szerint deriváljuk, a derivált zérus helyét keressük:

109 A többváltozós variancia-elemzésben a csoportok variancia-kovariancia mátrixának egyezését tételezzük fel. Ezek összege is invertálható, ha egy csoport S mátrixa invertálható.

Probléma csak akkor lép fel, ha az elemzésbe bevont változók között nagyon szoros a korreláció.

110 A gyakorlatban a csoport kovarianciák súlyozott átlagát is figyelembe vesszük:

= 1 c S

c

T p pótlólagos feltételt alkalmazunk. Ha a változók minden csoportban korrelálatlanok és egységnyi szórásúak, akkor (7.3) szerint számolunk, mert S=E.

111 Itt még csak a számlálót írjuk fel, nem osztjuk (n-1)-vel.

Az egyenletet

c

T

Kc

-vel végig szorozzuk, és (7.5.a) alapján λ-t behelyettesítjük, c-t kiemeljük, így sajátérték-sajátvektor egyenletrendszert kapunk:

0

min (g-1;p), ezért a szorzatuké sem lehet ennél több. Ha (g-1) kisebb, mint p, akkor (g-1) különböző sajátértéket kapunk. Ha p a kisebb, akkor p számú eltérő sajátérték és hozzátartozó sajátvektor határozható meg. Tehát a diszkrimináló függvények számának felső korlátja a (g–1) és a p közül a kisebb érték.

A j-edik diszkrimináló függvény a λj sajátértékhez112 tartozó sajátvektorral írható fel:

y

j

= Xc

j. Ezeket a sztenderdizálatlan együtthatókat használva a származtatott, (itt használt elnevezéssel) kanonikus térbe képezzük le az eredetileg p dimenzióban megfigyelt pontokat.

A j-edik függvény együtthatóit általában sztenderdizáljuk, azaz szórásával osztjuk.

Így a változók hatásának erőssége összehasonlíthatóvá válik. (Hasonló okból számítjuk ki a regressziós modellnél a b mellett a béta együtthatókat is.)

Az egyes diszkrimináló függvények erejét a λj sajátértékek fejezik ki. Ha a sajátértékek összegével osztjuk a λj-t, akkor az adott függvény szétválasztó erejét százalékban fejezzük ki. Bármely másik c együttható vektor kevésbé különíti el a csoportokat, mint a maximális (első) sajátértékhez tartozó c1.

A diszkrimináló függvények együttes szétválasztó erejét a sajátértékekből (7.6) szerint számított – Wilks lambdának nevezett – Λ mutató méri, amely megegyezik a belső és teljes eltérés négyzetösszeg mátrixok determinánsainak arányával. Mivel a nagy λjsajátértékek jelzik az erős diszkrimináló függvényt, a Wilks-lambda kicsi értéke utal szignifikáns függvény(ek)re:

T

Azt, hogy hány függvény mentén van szignifikáns különbség a csoportok között, szükséges-e mind a k kiszámítható függvény az elkülönítéshez, Bartlett nyomán khi-négyzet próbával teszteljük. Wilks lambdáját (7.7) szerint khi-khi-négyzet eloszlásúvá transzformáljuk. A nullhipotézis szerint a diszkrimináló függvény(ek) hatása nem szignifikáns.

112 Itt nem jelent kiválasztási szabályt az, hogy a sajátértékek egynél nagyobbak-e.

In document Többváltozós adatelemzés (Pldal 197-0)