Valószínűségszámítás B - 12. előadás
Konfidenciaintervallum szerkesztése normális eloszlás várható értékére ismeretlen szórás esetén
Az alábbiakban azt az esetet vizsgáljuk, amikor a normális eloszlású háttérválozóσszórása nem ismert. Ez a szakasz vázlatosabb és technikai szempontból (ill. a tömörség miatt is) valamivel nehezebb a korábbi anyagrészeknél.
Ha a háttéreloszlás szórása nem ismert, akkor kézenfekvőnek tűnhet a korábbi számolás- ban a szórást a korrigált tapasztalati szórással becsülni, azaz a
Pn
i=1Xi−nµ
√nσ
kifejezés helyett a
Pn
i=1Xi−nµ
√nSn∗ =√
n· X−µ Sn∗
változót használni. Vegyük azonban észre, hogy míg az előbbi törtről tudjuk, hogy sztenderd normális eloszlású változó, az utóbbi változó eloszlását (egyelőre) nem ismerjük, ezért most egy rövid kitérőt teszünk.
Először röviden megismerkedünk két újabb eloszlással. Tekintsük azX1, . . . , Xn∼N(0; 1) együttesen független, sztenderd normális eloszlású valószínűségi változókat, ekkor az
Yn:=X12+· · ·+Xn2
valószínűségi változó eloszlásátn szabadságfokú centráltχ2 (ejtsd: "khí négyzet")eloszlásnak nevezzük. Jelölése Yn ∼ χ2(n). Továbbá, ha az X ∼ N(0; 1) és az Yn ∼ χ2(n) független valószínűségi változók, akkor a
Zn :=√ n· X
√Yn
változó eloszlásátn szabadságfokú Student-eloszlásnak (vagyt-eloszlásnak) nevezzük. Ennek jeleZn ∼t(n).
Mivel ezen eloszlásokat illetően mindössze egyetlen egy alkalmazásra szorítkozunk, így a tulajdonságaik részletes leírását itt mellőzzük. Mindazonáltal megemlítjük, hogy a gyakor- laton már érintőlegesen találkozhattunk a Student-eloszlással. Ha Zn ∼ t(n), akkor Zn sűrűségüggvénye
gn(z) = 1
√πn
Γ n+12 Γ n2
1 + z2
n
−n+12 ,
ahol
Γ(a) = Z ∞
0
ya−1e−ydy,
haa >0. Bár ez utóbbiΓ függvény önmagában is rendkívül fontos, itt csak annyit jegyzünk meg róla, hogy egyrészt a fenti előállításból láthatóan a > 0 esetén pozitív értéket vesz fel (hiszen egy pozitív függvény integrálja), valójában pedig pozitív egészneseténΓ(n) = (n−1)!
érvényes, továbbá viszonylag könnyen kiszámolható aΓ 12
=√
π érték is.
Tekintsük most az n = 1 esetet, ekkor a fenti sűrűségfüggvény az előző megjegyzések alapján a
g1(z) = 1 π · 1
1 +z2
alakot ölti. Az 1+z12 függvénynek a primitív függvénye az arctg(z) függvény, így tehát a t(1) eloszlás eloszlásfüggvénye
G1(y) = 1 π
Z y
−∞
1
1 +z2 dz = 1
πarctg(y) + 1 2,
amelyről az 5. feladatsor 10. feladatában már beláttuk, hogy eloszlásfüggvény.
Térjünk vissza a kezdeti problémánkra. Ha adott egy X1, . . . , Xn ∼ N(µ;σ2) független, normális eloszlású minta, akkor egyrészt az előző szakaszban látottak szerint
n
X
i=1
Xi ∼N(nµ;nσ2),
így a normális eloszlás transzformáltjáról tanultak alapjánX−µ∼N(0;σ2/n), vagyis
√n
σ X−µ
∼N(0; 1).
Belátható továbbá, hogy egy normális eloszlásból származó független minta esetén X és Sn∗2 függetlenek, valamint
(n−1)Sn∗2
σ2 ∼χ2(n−1), így definíció szerint
√n−1·
√n X −µ
σ ·
s σ2
(n−1)S∗2 =√
n·X−µ
Sn∗ ∼t(n−1).
(1)
Ezt felhasználva a következőképp szerkeszthetünk 1−ε szintű konfidenciaintervallumot a háttéreloszlás várható értékére: ismét (X−rε;X+rε) alakban keressük az intervallumot, így az
1−ε=P(X−rε < µ < X +rε) =P(−rε < X−µ < rε)
egyenlőségből indulunk ki. Transzformáljuk most úgy a középső változót, hogy az (1) változó kerüljön a helyére:
1−ε =P
−rε√ n Sn∗ <√
n· X−µ
Sn∗ < rε√ n Sn∗
.
Keresünk tehát egy0körüli szimmetrikus (−c;c)intervallumot, amelybe aZn−1 :=√
n·X−µS∗
változó 1−ε valószínűséggel beleesik. Azonban n
P(−c < Zn−1 < c) =Gn−1(c)−Gn−1(−c),
ahol Gn−1 a Zn−1 n−1 szabadságfokú Student-eloszlású változó eloszlásfüggvénye. Mivel a változógn−1 sűrűségfüggvénye páros, így a normális eloszlás eloszlásfüggvényénél bizonyított analóg állítás után tett megjegyzés szerint
Gn−1(−c) = 1−Gn−1(c)
érvényes. Tehát keressük az1−ε = 2Gn−1(c)−1egyenlet megoldását. Mivel aGn−1 függvény gn−1 deriváltja mindenütt pozitív (ez látszik a fenti képletből), így - ahogy azt a Φ függvény
esetén is láttuk - aGn−1 függvény szigorúan monoton növő, ezért kölcsönösen egyértelmű, és létezik az inverzfüggvénye. Mindezt összerakva tehát
rε√ n
Sn∗ =G−1n−1 1− ε
2
adódik. Vezessük be a tε/2(n −1) = G−1n−1 1− ε2
jelölést, ezt a t(n−1) eloszlás 1−ε/2 kvantilisének nevezzük.
Összefoglalva, az 1−ε szignifikanciaszintű intervallum sugarát az
rε= tε/2(n−1)Sn∗
√n
formula határozza meg. Megjegyezzük (a technikai részleteket ezúttal teljesen mellőzve), hogy nagy mintaelemszám esetén a korrigált tapasztalati szórás jól közelíti a háttéreloszlás szórását (azt korábban láttuk, hogy Sn∗2 torzítatlan becslés σ2-re), így ebben az esetben a fenti képlet helyett az előző szakaszban kapott képlet alkalmazható, pontosabban abban a szórás helyére a realizációból kapotts∗ értéket kell beírni. Azaz: "nagy" minta esetén az
rε = Φ−1 1− ε2 s∗n
√n ,
"kis" mintaelemszám esetén pedig az
rε= tε/2(n−1)s∗n
√n
képlet javasolt. A kis ill. nagy jelzők pontosítása persze szükséges: gyakorlati statisztika- könyvekn ≥30-tól beszélnek nagy mintáról.
A Student-eloszlás kvantiliseit táblázatból olvashatjuk ki. Vegyük észre, hogy itt két paraméterünk is van, n ill. ε, ezért a Student-eloszlás táblázatai a kvantiliseket csak a tipikusan használt értékekre (pl. kisn paraméterekre) tartalmazzák.
4.4. Hipotézisvizsgálat
Tegyük fel, hogy egy üzemben cukrot csomagolnak, és 1 kg-os csomagokat szeretnének gyártani. A csomagba kerülő cukor mennyiségét számos tényező befolyásolja, így előfordul- hat, hogy valamelyest eltér 1 kg-tól. A gyártási folyamatot minden esetre úgy szeretnék beállítani, hogy a csomagban lévő cukor várható értéke 1 kg legyen.
A beállítások elvégzése után tesztelni szeretnék, hogy azok megfelelőek-e. Vesznek tehát egy 25 elemű mintát, és megállapítják, hogy a csomagban lévő cukor mennyisége átlagosan 0,98 kg. Mire következtethetnek ezek alapján? Az eltérés lehet a véletlen játéka, hiszen az egyes esetekben különbözhet a tényleges mennyiség a várható értéktől. Hogyan dönthetik el, hogy a kapott eredmény a véletlen műve, vagy pedig a beállítás rossz?
A fenti szituációt most általánosan fogjuk kezelni. Az ilyen típusú problémáthipotézisvizs- gálatnak hívjuk, hiszen van egy előzetes feltevésünk (hipotézisünk) az eloszlásra vonatkozóan, és erről egy konkrétX1, . . . , Xnminta alapján szeretnénk eldönteni, hogy helyes-e. Az elosz- lásra vonatkozó feltevést nullhipotézisnek nevezzük, ezt H0 fogja jelölni. Az H1-gyel jelölt ellenhipotézis a nullhipotézis ellentéte, ez tehát egyszerűen a "nem igaz, hogy H0" állítás.
Azaz a hipotézisvizsgálat során el kell döntenünk, hogy a H0 nullhipotézist elfogadjuk (és ekkor perszeH1-et elvetjük), vagy pedig az ellenhipotézist fogajuk el, ésH0-t elvetjük.
Természetesen, mivel a háttéreloszlásról csak korlátozott információnk van (a mintán keresztül), így teljesen bizonyosan sosem dönthetünk, döntésünk helyességének csupán a valószínűségéről beszélhetünk. Ekkor persze pozitív valószínűséggel előfordulhat, hogy helyte- lenül döntünk. Alapvetően kétféle hibát különböztetünk meg. Lehetséges, hogy a H0 null- hipotézis fennáll, azt mégis elvetjük. Eztelsőfajú hibának nevezzük. Ha a nullhipotézis nem áll fenn, de azt mégis elfogadjuk, akkormásdofajú hibáról beszélünk.
Látni fogjuk, hogy nem feltétlenül tudjuk egyszerre mindkét típusú hibát kontrollálni.
Általában olyan szituációkat kell kezelnünk, ahol az elsőfajú hiba súlyosabbnak bizonyul, mint a másodfajú, éppen ezért a tárgyalt módszereink is olyanok, hogy az elsőfajú hiba valószínűségét vagyunk képesek uralni. Ha ennek valószínűségeε, azaz
P(nem fogadjuk el H0-t|H0) = ε,
akkor azt mondjuk, hogy a döntésszignifikanciaszintje (vagy másképp mondvamegbízhatósági szintje) 1 − ε. Ezt a későbbiekben mindig előre rögzíteni fogjuk. A fenti példában a nullhipotézisünk az, hogy az üzem dolgozói jól végezték el a beállításokat. Szeretnénk lehetőség szerint nagyon alacsonyra (ε kicsire) csökkenteni annak valószínűségét, hogy ártat- lanul megvádoljuk őket az ellenkezőjével. A másodfajú hiba itt azt jelenti, hogy a beállításnál hibáztak, mégis felmentjük a "bűnösöket". Ezt tekintjük tehát a kevésbé súlyos hibának.
Az eljárást, amivel H0 helyességéről döntünk, statisztikai próbának nevezzük. Itt ún.
paraméteres próbákkalfoglalkozunk, ahol a feltevésünk az eloszlás valamilyen paraméterérével kapcsolatos. Bár a paraméteres próbák elmélete lényegesen általánosabban is kidolgozható, mi most egyetlen speciális esetre szorítkozunk, mégpedig arra, amikor a H0 nullhipotézis a háttéreloszlás várható értékére vonatkozik. Egészen pontosan - ahogy a fenti példában is - az E(X) =µ0 hipotézis érvényességét szeretnénk eldönteni. Ekkor az ellenhipotézis egyszerűen az, hogyE(X)̸=µ0.
A próba elvégzéséhez mindig kiszámolunk egyT(X1, . . . , Xn)statisztikát, melynek érték- készletét a diszjunkt Xe elfogadási tartományra és Xk kritikus tartományra osztjuk. Azaz Xe∩ Xk=∅, és
ranT(X1, . . . , Tn) =Xe∪ Xk.
Ha a konkrét realizációra a statisztika értéke az elfogadási tartományba esik, akkor elfogadjuk, ellenkező esetben elvetjükH0-t. Természetesen a tartományokat az előzetesen rögzített1−ε szignifikanciaszint alapján határozzuk meg, mégpedig úgy, hogy
P(T(X1, . . . , Xn)∈ X/ e |H0) = ε teljesüljön.
A próba menetét tehát a következőképp összegezhetjük:
• az alapprobléma ismeretében kiválasztunk egy megfelelő T próbastatisztikát,
• rögzítjük az 1−ε szignifikanciaszintet,
• meghatározzuk az ehhez tartozó elfogadási és kritikus tartományokat,
• kiszámoljuk a próbastatisztikát a minta konkrét realizációjára,
• ha ez az érték az elfogadási tartományba esik, akkor elfogadjuk H0-t, különben pedig elvetjük.
Egymintás u-próba
Tegyük fel, hogy az X ∼ N(µ;σ2) háttérváltozó normális, a σ szórás pedig ismert. Meg szeretnénk állapítani, hogy az X várható értéke megegyezik-e egy adottµ0 értékkel. Vagyis
H0 : µ=µ0, H1 : µ̸=µ0.
A próbát azért nevezzük egymintásnak, mert egyetlen háttérváltozó eloszlásáról döntünk egyetlen minta alapján.
Korábban a háttéreloszlás várható értékét a mintaátlaggal becsültük. Tulajdonképpen most is pontosan ugyanazt tesszük, az elfogadási tartomány meghatározásához pedig az X körüli,1−ε szintű szignifikanciaszintű rε sugarú konfidenciaintervallumból indulunk ki. Ha µ=µ0 teljesül, akkor
1−ε =P(X−rε< µ0 < X+ε) = P X ∈(µ0−rε;µ0+rε) ,
tehát a(µ0−rε;µ0+ε) megfelelő elfogadási tartomány lesz.
A korábban látottak alapján azrεsugár a szignifikanciaszint mellett a minta elemszámától és az háttéreloszlás szórásától is függ. Hogy ezt elkerüljük, módosítjuk a statisztikát, aminek köszönhetően az elfogadási tartományt már a szignifikaniciaszint önmagában meghatározza, a mintától és az eloszlástól való függést pedig teljes egészében a statisztikában kódoljuk el:
X ∈(µ0−rε;µ0+rε)⇐⇒
X−µ0
< rε = Φ−1 1− ε
2 · σ
√n,
ez pedig pontosan akkor teljesül, ha
√n· X−µ0
σ
<Φ−1 1− ε
2
=:uε/2, ahol azuε/2 a sztenderd normális eloszlás 1−ε2
-kvantilise. Eztkritikus értéknek nevezzük, mert ez választja el az elfogadási és a kiritikus tartományt, melyek definícióját hamarosan megadjuk. Előbb azonban rögzítsük a próbastatisztikát:
u(X1, . . . , Xn) = √
n· X−µ0
σ .
Vegyük észre, hogy ez a statisztika a szignifikanciaszinttől már független, így az csak az elfogadási tartományt befolyásolja, amit pedig a (−uε/2;uε/2) intervallum definiál (a kri- tikus tartomány pedig nyilván ennek komplementere). Ilyen módon az ε értékét és a többi paramétert szétválasztottuk. Ez hasznos, ha egy konkrét számolásban azεértékét vagy akár aznmintaelemszámot módosítani szeretnénk a többi paraméter fixálása mellett, hiszen ekkor vagy csak a statisztika értékét, vagy csak az elfogadási tartományt kell újraszámolni.
Összefoglalva: ha X ∼ N(µ;σ2), ahol σ ismert, akkor a H0 : µ = µ0 nullhipotézist az 1−ε szignifikanciaszint mellett pontosan akkor fogadjuk el, ha
|u(X1, . . . , Xn)|< uε/2.
Egymintás t-próba
Legyen most a háttérváltozó X ∼ N(µ;σ2), ahol a σ szórást ezúttal nem ismerjük.
Ugyanúgy, ahogy az előző esetben, H0 : µ = µ0 és így H1 : µ ̸= µ0 valamilyen µ0 ∈ R számra.
Rögzítsünk előzször egy ε-t. Az eljárásunk itt is ugyanaz, mint az imént: az X közép- pontú,rε sugarú konfidenciaintervallumból indulunk ki. Haµ=µ0 teljesül, akkor
1−ε=P(X−rε < µ0 < X+ε).
A fenti egyenlőtlenségekben azrε értékét behelyettesítve X− tε/2(n−1)Sn∗
√n < µ0 < X +tε/2(n−1)Sn∗
√n
adódik, amit átrendezve a következő ekvivalens alakot kapjuk:
√n·X−µ0 Sn∗
< tε/2(n−1),
ahol tε/2(n−1) azn−1szabadságfokú Student-eloszlás (1−ε/2)-kvantilise.
Ebben az esetben tehát a
t(X1, . . . , Xn) = √
n· X−µ0 Sn∗
próbastatisztikát választjuk, az elfogadási tartomány pedig a(−tε/2(n−1);tε/2(n−1)) inter- vallum.
Példa. Tekintsük a bevezető példánkat. Tegyük fel, hogy a csomagban lévő cukor várható értéke normális eloszlást követ 0,05 szórással. Döntsünk 95%-os szignifikanciaszint mellett.
A 25 elem mintára a mintaátlag 0,98 kg, így a próbastatisztikánk értéke u(X1, . . . , Xn) = 5· 0,98−1
0,05 =−2.
Mivel u0,025= 1,96, így a nullhipotézist elvetjük.
Vizsgáljuk meg, hogy mi történik 99%-os szignifikanciaszint mellett. Ekkor a próba- statisztika nem változik, míg u0,005 = 2,58, így ha szigorúbbak vagyunk, akkor már H0-t el kell fogadjuk.
A másodfajú hiba
Végül nagyon röviden kitérünk a másodfajú hiba esélyére. Ez akkor fordul elő, ha a nullhipotézis nem áll fent, mi mégis elfogadjuk. Ekkor persze a hiba valószínűsége nem csak a korábbi paraméterektől, de magától a µ várható értéktől is függ. Kiszámolható, hogy a másodfajú hiba valószínűsége akkor nagy, haµa µ0 közelében van. Ez persze nem meglepő, ha a tippünk csak egy kicsit rossz, akkor elég nagy az esélye, hogy a hiba nem tűnik fel a minta alapján.
Ha a szignifikanciaszintet növeljük (vagyisε-t csökkentjük), akkor kiderül, hogy a másod- fajú hiba valószínűsége nő. Az elsőfajú hiba esélyének csökkentésével párhuzamosan tehát azt az árat fizetjük, hogy a kevésbé súlyos másodfajú hiba viszont valószínűbb.
Az is belátható, hogy a mintaelemszám növelésével a másodfajú hiba valószínűsége0-hoz tart, ilyen módon tehát mégis lehetséges valamiféle kontroll a másodfajú hiba felett is (még ha a gyakorlatban arról nincs is szó, hogy előírhatnánk a valószínűségét).