• Nem Talált Eredményt

A kutatás kvantitatív módszerei

C) Projektorientált Szervezet Érettség Modell (Maturity model for the project-oriented company)

2.10. Kutatási modell és módszertan

2.10.2. A kutatás módszertana

2.10.2.1 A kutatás kvantitatív módszerei

A kutatási hipotézisekben megfogalmazott, és a kutatási modellben összefoglalt feltételezések igazolására, statisztikai és ökonometriai elemzések kerültek alkalmazásra, amelyek módszertani hátterét a következőkben ismertetem.

Leíró statisztika

A leíró statisztika eszközeinek alkalmazása szolgálja, a vizsgált jelenség számszerű bemutatását, jellemzését adó adatok rendszerezését és értékelését. A kutatási minta jellemzőinek feltárását, valamint az adathalmazban történő előfordulási arányok bemutatását grafikus eszközök használata támogatja. (Kerékgyártó et al., 2008)

Faktoranalízis

A többváltozós statisztikai elemzések közül a faktoranalízis, nem csupán egyetlen eljárás, hanem a többváltozós statisztikai eljárások egy adott halmazát foglalja magában. A faktorelemzés során olyan „mesterséges dimenziókat, faktorokat hozunk létre, amelyek erősen korrelálnak több megfigyelt változóval, és amelyek egymástól függetlenek.” (Babbie, 2003, 511) A faktorelemzés két alapvető célja: az adatok struktúrájának feltárása, valamint az adatok mennyiségének csökkentése.

Eredményeként olyan új, látens változók (faktorok) hozhatók létre, amelyek jól leképezik a kiinduló adatok viselkedését és tartalmát, valamint mérhetővé teszik az eredeti változók korrelációját.

A faktorelemzés során elsőként meg kell vizsgálnunk, hogy adataink alkalmasak-e a faktoranalízis lefolytatására. Erre a standardizált változók korrelációs, illetve kovariancia mátrixa szolgál, amely az egyes változók közti korrelációkat tükrözi, hiszen ennek megléte alapvető feltétele a faktorelemzésnek. A számítás során a kiinduló adatok standardizált formája kerül elemzésre, valamint hasonlóan standardizáltak lesznek az eredményül kapott faktorok is. A vizsgált korrelációk esetében nem megfelelő az eredmény amennyiben túlságosan alacsonyak a korrelációs együtthatók, illetve, ha túlságosan magas a változók közötti korreláció, azaz multikollinearitás áll fenn. A korrelációs együtthatók elfogadásának, vagyis az adatok alkalmasságának alátámasztására szolgál a Kaiser-Meyer-Olkin (KMO) kritérium, és a Bartlett-teszt vizsgálatának elvégzése is. A Kaiser-Meyer-Olkin mutató esetében, ha 0,5-nél nagyobb értéket kapunk, akkor változóink alkalmasak a faktorelemzésre, és minél közelebb van a KMO értéke az 1-hez, annál jobb eredményeket várhatunk az analízistől. A

Bartlett-teszt esetében a szignifikancia-szint minél kisebb, 0,05-nél alacsonyabb értéke jelzi, hogy a faktoranalízis elvégzése javasolt. (Sajtos – Mitev, 2007)

A következő lépésben a faktorok létrehozása történik, amely során az eredeti adatok közül, az egymással szoros korrelációban lévő tényezőket tömörítő új dimenziók, faktorok kerülnek kiszámításra, amely létrehozott faktorok egymással korrelálatlanok.

Az eredeti változók és a létrejött faktorok közötti korreláció értékét a faktorsúlyok adják meg, melyek segítségével meghatározható, hogy az eredeti információk mekkora részét fedik le a létrehozott látens változók. A faktorelemzés módszerei közül a Maximum-likelihood módszer alkalmazása a leggyakoribb, amely feltételezve a változók többváltozós normáleloszlását, a korrelációs mátrixot legnagyobb valószínűség mellett létrehozó becsléseket ad. (Sajtos – Mitev, 2007)

Végül pedig a faktorok rotációjára kerül sor, a modell könnyebb interpretálhatósága, értelmezhetősége érdekében. A faktorok rotálása során a modell illeszkedése és a faktorok által együttesen lefedett információtartalom természetesen nem változik meg, azonban módosul annak aránya, hogy „az egyes faktorok a megőrzött információ mennyiségén osztozkodnak.” (Székelyi – Barna, 2005, 54) A rotáció eredményeként a faktorok által magyarázott variancia arányosabb, az értelmezés pedig egyszerűbb lesz.

(Sajtos – Mitev, 2007)

A faktorok rotálásának módszerei alapvetően két típusba sorolhatóak. A derékszögű, vagy ortogonális módszerek, mint a Varimax, Equimax és Quartimax esetén a tengelyek merőlegesek egymásra, így a faktorok nem korrelálnak egymással. A hegyesszögű, vagy nem ortogonális módszereknél, mint a Direct Oblimin és a Promax, a tengelyek tetszőleges szöget zárhatnak be egymással, így a faktorok korrelálni fognak egymással.

Mivel a regresszióelemzés elvégzéséhez korrelálatlan faktorokra van szükség, ezért az ortogonális módszerek alkalmazása célszerű. Ezen módszerek közül a Varimax módszer minimalizálja az egy faktort magyarázó változók számát, így a faktorok értelmezhetőségét, felismerhetőségét javítja. A Quartimax módszer minimalizálja a változókat magyarázó faktorok számát, ezáltal csökkenti a magyarázó dimenziók számát. Az Equimax módszer pedig, mint az előző két módszer kombinációja, egyszerre csökkenti az egy faktorra jutó változók számát, és a változók értelmezéséhez szükséges faktorok számát.

Az elemzés során a Varimax módszer alkalmazása indokolt, mivel a módszer maximalizálja a faktorok által magyarázott varianciát és „arányosabban osztja el azok között.” (Sajtos – Mitev, 2007, 267) A Varimax módszer ennek elérése érdekében maximalizálja az egy változóhoz tartozó valamennyi faktorsúly négyzetösszegét:

j

fij2 max , ahol fij, az i-edik változó j-edik faktorhoz tartozó súlyát jelenti.

(Székelyi – Barna, 2005)

Az egyes faktorok összetétele, a rotációt követően létrejött rotált faktorsúlymátrix segítségével határozható meg. A faktorsúlynak el kell érnie legalább a 0,25-ös szintet ahhoz, hogy az adott faktor elemének tekinthessük. Az egyes faktorokat a legnagyobb faktorsúllyal rendelkező változók alkotják, ugyanis minél nagyobb a változóhoz tartozó faktorsúly, annál nagyobb hányadot magyaráz az adott faktor a változó szórásában.

(Székelyi – Barna, 2005)

Lineáris regresszió- és korrelációanalízis

A változók között fennálló kapcsolatok vizsgálatára a lineáris regresszió- és korrelációanalízis szolgál. A vizsgált jelenség változói közötti összefüggés természetét és jellegét regresszióelemzéssel, míg a kapcsolat erősségét és intenzitását korrelációszámítással határozhatjuk meg. (Kerékgyártó – Mundruczó, 1987)

A lineáris regresszió- és korrelációelemzések elvégzése előtt, meg kell győződnünk arról, hogy változóink alkalmasak-e az elemzések lefolytatására. Ennek eldöntéséhez, meg kell vizsgálnunk a változókra, illetve a hibatagokra vonatkozó feltételek teljesülését.

A változókra vonatkozó feltételek:

ƒ A változók normális eloszlást követnek [xi ~ N(0, σ2) és yi ~ N(0, σ2)]

ƒ A magyarázó változók determinisztikusak [xi és uj függetlenek minden i-re és j-re]

ƒ A magyarázó változók függetlenek [xj-kközött nincs lineáris összefüggés]

A lineáris regressziós modell felállításának egyik feltétele a normalitás, vagyis a változók normális eloszlással való egyezősége. Ha nagy a normális eloszlástól való eltérés, akkor több statisztikai próba, úgy, mint az F- és a t-próba nem alkalmazható, és így a kapott eredményeket nem tudjuk értékelni. A normalitás-próba elvégzésére alkalmas tesztek közül, az egyik leggyakrabban használt módszer a Kolmogorov-Smirnov-próba. A próba nullhipotézise (H0) szerint a változó eloszlása nem tér el szignifikánsan a normáleloszlástól. Amennyiben a próba szignifikanciája eltér a nullától (Sig.>0,01), akkor elfogadjuk a nullhipotézist, vagyis a változók normalitásának követelménye teljesül. (Reimann – Tóth, 1985)

A magyarázó változók determinisztikus jellegére vonatkozó feltétel vizsgálatára akkor van szükség, ha valószínűségi változókra vonatkozóan végezzük el az elemzéseket.

Mivel jelen esetben konkrét adatok elemzésére kerül sor, e feltétel teljesülését nem kell külön megvizsgálnunk.

A változókra vonatkozó harmadik feltétel, vagyis a magyarázó változók függetlensége az elemzés során szintén teljesül, mivel a faktoranalízis eredményeként létrejött látens változók vizsgálatát végzem el, amelyek függetlenek egymástól, tehát nincsen köztük lineáris korrelációs kapcsolat

A hibatagokra vonatkozó feltételek:

ƒ A hibatag várható értéke (átlag) nulla [E(ui)=0]

ƒ A hibatag normális eloszlást követ [ui ~ N(0, σ2)]

ƒ A hibatag varianciája állandó [var(ui)=σ2 minden i-re]

ƒ A hibatagok korrelálatlanok [ui és uj függetlenek minden i-re és j-re]

A lineáris regressziós modell felállítása során azt várjuk, hogy a reziduálisok várható értéke nulla, és a kapott hibatagok normális eloszlást követnek. Ezen feltételek teljesülésének vizsgálatára szintén a Kolmogorov-Smirnov-próbát alkalmazhatjuk. A teszt nullhipotézise (H0) szerint a rezidumok eloszlása, nem tér el szignifikánsan a normális eloszlástól. (Reimann – Tóth, 1985)

A hibatagokra vonatkozó következő feltétel alapján azt várjuk, hogy a rezidumok varianciája állandó. Amennyiben ez a feltétel teljesül, akkor elfogadjuk a nullhipotézist,

és homoszkedasztikusnak nevezzük a reziduálisokat. A jelenség ellentéte a heteroszkedaszticitás, vagyis amikor nem teljesül a fenti feltétel. (Ramanathan, 2003) Annak eldöntésére, hogy a homoszkedaszticitás fennáll-e a Goldfeld-Quandt tesztet alkalmazhatjuk, amely során valamilyen ismérv alapján csoportosítjuk az adatokat. A létrehozott csoportokra elvégezzük a lineáris regresszió elemzést, majd a reziduálisok szórása és az F-próba segítségével eldöntjük, hogy egyformák-e a vizsgált csoportok, vagy sem. Az elemzés eredményeként kapott varianciák hányadosából képzett F-statisztika kiszámítása az alábbi képlet alapján történik, ahol ESS a reziduálisok négyzetösszege, n az elemszám és k a regressziós együtthatók száma:

A homoszkedaszticitás fennállása esetén a kapott Fc érték F-eloszlást követ n2-k és n1-k szabadságfokkal. Az F-eloszlás felső küszöbértéke 36-os, illetve 53-as szabadságfoknál

≈1,59 és 1,74 között van, 5%-os szignifikancia-szinten, illetve ≈1,94 és 2,20 között van, 1%-os szignifikancia-szinten. Amennyiben tehát Fc értéke a felső küszöbérték alatt van, akkor elfogadjuk a nullhipotézist, vagyis a homoszkedaszticitás kritériuma teljesül.

(Ramanathan, 2003)

A lineáris regresszióelemzés során feltételezzük továbbá a hibatagok függetlenségét.

Amennyiben ez a feltétel nem teljesül, akkor autokorrelációról beszélünk, melynek következményeként az F- és t- statisztikát nem alkalmazhatjuk. Mivel a kutatás során keresztmetszeti adatok állnak rendelkezésünkre, ezért ebben az esetben nem fordulhat elő autokorreláció, a rezidumokat tehát függetlennek tekinthetjük egymástól.

Amennyiben az elvégzett tesztek eredményei alapján teljesülnek a változókra, illetve a hibatagokra vonatkozó feltételek, úgy megállapíthatjuk, hogy a változók alkalmasak a lineáris regresszió- és korrelációelemzés lefolytatására.

A lineáris regresszióanalízis elvégzésekor a változók közötti kapcsolat meglétére, irányára és erősségére keresünk választ, a függő és független változók megadása mellett. A kétváltozós lineáris regressziószámítás során, egy függő változó mozgását vizsgáljuk egy független változó függvényében, míg a többváltozós lineáris regressziószámításnál, egy függő változó alakulását vizsgáljuk több független változó függvényében. A többváltozós regresszió során a kapcsolat erősségét a többszörös korrelációs együttható (jele: R) négyzetével mutatható ki, amelyet többszörös determinációs együtthatónak is neveznek (jele: R2). Minél nagyobb R2 értéke, annál erősebbnek mondható a kapcsolat, vagyis a modell magyarázó ereje is annál jobbnak bizonyul. A becslés standard hibájának (jele: SEE) minél kisebb értéke az előrejelzés pontosságát támasztja alá, továbbá az F-próba, illetve t-próba alacsony (p<0,05) szignifikanciája szintén a feltételezett kapcsolat meglétét igazolja. (Sajtos – Mitev, 2007)

A regresszióelemzés során a változók szelektálására, vagyis a modellből történő elhagyására többféle módszer áll rendelkezésünkre. Az Enter módszer esetén, valamennyi független változó belép a modellbe, figyelmen kívül hagyva, hogy szignifikáns-e vagy sem az adott változó hatása. A Forward módszer egyesével lépteti be a független változókat a modellbe, mégpedig mindig azt, amelyik a legerősebben korrelál. A Backward módszer, épp az előző módszer ellentéte, vagyis az első lépésben valamennyi független változót tartalmazza, majd mindig a leggyengébb parciális

magyarázatot mutató független változót hagyja el a modellből. A változók szelektálása mindaddig folytatódik, míg minden változó parciális magyarázata szignifikáns nem lesz. A Stepwise módszer pedig, egy-egy új változó belépésékor újravizsgálja a már bent lévő független változók magyarázóerejét, és ha valamelyik változó t-értéke nem éri el a kívánt szignifikancia-szintet, akkor kilép a modellből. A fenti módszerek közül a Backward módszer alkalmazása célszerű, mivel végigkövethető a leggyengébben magyarázó változók elhagyása, amely végül olyan megoldást eredményez, ahol minden magyarázó változó hatása szignifikáns. (Székelyi – Barna, 2005)

A korrelációanalízis során meghatározásra kerül a korrelációs (vagy Pearson-féle) együttható (jele: r), amelynek abszolút értéke a tényezők közötti kapcsolat szorosságát, míg előjele a kapcsolat irányát mutatja. Minél közelebb esik a korrelációs együttható értéke az 1-hez, annál erősebb a kapcsolat a változók között; míg minél inkább a 0-hoz közeli az érték, annál lazább az együttmozgás. (Zwerenz, 2006) A kapcsolat intenzitásának megítélésekor a ±0,3 alatti „r” érték esetén gyenge, ±0,3 és ±0,5 közötti érték esetén közepesen szoros, míg ±0,5 feletti együttható esetén szoros kapcsolatról beszélhetünk. Amennyiben r=0 értéket kapunk, akkor a változók közötti nincsen lineáris kapcsolat. (Field, 2005) A korrelációs együttható négyzete, a determinációs együttható (jele: r2), amely arra ad választ, hogy a független változó a függő változó varianciáját hány százalékban magyarázza. (Sajtos – Mitev, 2007)

Szignifikancia vizsgálat

A lineáris korrelációs együtthatók között megnyilvánuló különbségek elemzésére szignifikancia vizsgálatot végezhetünk. A módszer becslést próbál adni arra, hogy két korrelációs együttható szignifikánsan eltér-e egymástól, illetve szignifikánsan azonos-e adott mintaelemszám mellett.

Két korrelációs együttható (r1, r2) eltérésének szignifikanciáját, az úgynevezett Fisher-féle Z-transzformáció segítségével tesztelhetjük, amely módszer a következő képleteket alkalmazza: korrelációs együtthatók z eloszlásbeli szórásainak különbsége.

A korrelációs együtthatók z eloszlásbeli szórásainak különbségének meghatározására a következő képlet szolgál:

Mivel a vizsgálat során azt szeretnénk feltárni, hogy a két minta átlagai nem térnek el szignifikánsan egymástól, vagyis μz1 −μz2 =0, így a standard normális eloszlás z

Ha ezen z érték a [-1.96,+1.96] intervallumba esik 5%-os szignifikancia-szint mellett, akkor a H0 hipotézisünket megtartjuk, vagyis r1 és r2 korrelációs együtthatók szignifikánsan nem térnek el egymástól. Amennyiben a kapott z értéke a megadott intervallumon kívülre esik, akkor a korrelációs együtthatók között szignifikáns különbség mutatható ki. (Kozmann, 2004)

Variancia- és diszkriminanciaanalízis

A varianciaanalízis (ANOVA) módszerének segítségével azt vizsgáljuk, hogy az egyes csoportok milyen mértékben különböznek egymástól adott változók átlagai alapján. Az elemzés során, a vizsgált csoportok által elért faktorértékek átlagait hasonlítjuk össze, annak érdekében, hogy megtaláljuk azon területeket, változókat, ahol a csoportok által elért átlagértékek szignifikánsan különböznek egymástól. A varianciaanalízis során az eltérést az F-próba alacsony szignifikanciája (Sig.<0,1) igazolja. (Székelyi – Barna, 2005)

A varianciaanalízist követően diszkriminanciaelemzést végezhetünk, amelynek segítségével becsülhető, hogy az adott változók valóban megkülönböztetik-e a függő változók csoportjait egymástól, vagy sem. Az elemzés a Wilks’-lambda statisztikán alapul, amely azt mutatja, hogy egy független változó milyen mértékben járul hozzá a diszkriminancia-függvényhez. A mutató értéke 0 és 1 közé eshet. Amennyiben a 0-hoz közeli értéket vesz fel, akkor a független változónak van hatása a csoportokra, míg az 1-hez közeli mutató esetén nincs jelentős hatása a csoportokra. (Sajtos – Mitev, 2007) 2.10.2.2 A kutatás kvalitatív módszerei

Értekezésemben a kvalitatív eszközök alkalmazása a kvantitatív módszerek használata mellett, azok kiegészítésére szolgál, a statisztikai számokban nem megjeleníthető problémák, komplex kérdések vizsgálatára.

A kvalitatív kutatás alapulhat egyrészről, primer kutatási technikákon, melyek során elsődleges adatgyűjtés történik, mint a megfigyelés, kísérlet, mélyinterjú, vagy kérdőíves vizsgálat. Másrészről, sor kerülhet már meglévő, másodlagos adatok, történeti folyamatok és esettanulmányok feldolgozására és kvalitatív elemzésére is. (Yin, 2003) Az esettanulmányi vizsgálat a többféle és gazdag információs forrás révén részletes és mély adatgyűjtést, és elemzést tesz lehetővé. (Creswell, 1998) A módszer során szisztematikusan kell gyűjteni a vizsgált jelenségről szóló adatokat, információkat a folyamatok, események és problémák teljes részletességgel történő leírása és tanulmányozása érdekében.

Az esettanulmányi vizsgálat során, az érdekes esetek felderítése és elemzése a cél, nem pedig a véletlen mintavétel. Azon szervezeteket, illetve eseteket kell kiválasztani, amelyek megismerése és elemzése, hasznos és érdekes tapasztalatokkal szolgál.

(Eisenhardt, 1989)

Outline

KAPCSOLÓDÓ DOKUMENTUMOK