• Nem Talált Eredményt

Valószínűségszámítás B - 9. előadás 3. Valószínűségi változók viszonya

N/A
N/A
Protected

Academic year: 2022

Ossza meg "Valószínűségszámítás B - 9. előadás 3. Valószínűségi változók viszonya"

Copied!
8
0
0

Teljes szövegt

(1)

Valószínűségszámítás B - 9. előadás

3. Valószínűségi változók viszonya

A véletlen jelenségekhez rendelt számszerű értékek (azaz a valószínűségi változók) alapvető szerepet játszanak a valószínűségszámítás alkalmazásaiban, azonban a legtöbb esetben egy- szerre több ilyen értéket is kezelnünk kell. Számos esetben ezeket függetlennek érezzük egymástól, például ha dobunk két kockával, akkor úgy érezzük, hogy az egyik kocka ered- ménye nem befolyásolja a másik eredményét. Ezzel a szituációval foglalkozunk e fejezet első szakaszában.

Más esetekben világos, hogy effajta függetlenségről nem beszélhetünk. Ha például véletlen- szerűen kiválasztunk egy embert egy nagyobb csoportból, akkor az életkora és a magassága két olyan számszerű adat, amik között valamiféle összefüggésnek lennie kell, hiszen mond- juk a választott ember magassága sok esetben eshet 170 és 180 cm közé, továbbá lehet a csoportban számos 0 és 5 év közötti ember, egyszerre a kettő azonban nyilván nagyon kis valószínűséggel teljesül. A második szakaszban leírjuk több változó együttes eloszlását, a harmadik szakaszban pedig példát mutatunk arra, hogy hogyan lehet számszerűsíteni a két változó közötti összefüggést.

Egyes esetekben az összefüggés matematikai formulákkal leírható, a gyakorlaton láttuk például, hogy a hőmérséklet Celsius ill. Fahrenheit fokban mért értékei között lineáris kap- csolat áll fent, az egyik érték a másikból aX +b alakban kifejezhető, ahol a és b megfelelő konstansok, X pedig a hőmérsékletet jelöli. Sok esetben előfordul, hogy ugyan ilyen lineáris kapcsolatról szigorú értelemben nem beszélhetünk, azonban ha csak az a cél, hogy az egyik változó értékét jól közelítsük, akkor ilyenaX+balakú függvények erre alkalmasak. Vagy úgy is fogalmazhatunk, hogy a két változó kapcsolata "közel lineáris". Ezt a közelítést lineáris regressziónak hívjuk, ez a negyedik szakasz témája.

Egy másik szituáció, ahol több változót kell egyszerre kezelnünk, amikor sok adatból szeretnénk általánosan érvényes következtetéseket levonni. Ez a statisztikai alkalmazásokban gyakorta előfordul. Itt fontos szerepet játszik az ún. nagy számok törvénye ill. a centrális határeloszlás tétele, amelyeket a fejezet utolsó szakaszában tárgyalunk.

3.1. Valószínűségi változók függetlensége

A függetlenséget korábban definiáltuk már események esetén. Emlékeztetünk rá, hogy az A és B eseményeket pontosan akkor nevezzük függetlennek, ha P(A∩B) = P(A)P(B) teljesül. Két valószínűségi változót lényegében akkor fogunk függetlennek nevezni, ha a segít- ségükkel kifejezhető események mind függetlenek egymástól. Ezt az informális megfogal- mazást a következő definíció pontosítja:

Definíció. Az X, Y : Ω → R ugyanazon valószínűségi mezőn értelmezett valószínűségi vál- tozókatfüggetlennek nevezzük, ha minden s, t∈R esetén az {X < s}és {Y < t}események függetlenek, azazP(X < s)P(Y < t) = P(X < sés Y < t) teljesül.

Megjegyzés. Nyilván alapvető fontosságú, hogy a valószínűségi változók ugyanazon a mezőn legyenek értelmezve. Akkor van értelme a véletlen jelenségekhez kapcsolt értékek viszonyát vizsgálni, ha azok ugyanazon véletlen jelenséghez kapcsolódnak. Ez persze biztosítja, hogy a definícióban szereplő {X < s} és az {Y < t} halmazok ugyanazon eseménytér eseményei, ami miatt természetesen a metszetük is az. Mivel az események függetlensége a valószínűség szintjén van definiálva, így a mezőhöz tartozó valószínűségi mérték is ugyanaz kell legyen

(2)

mind azX, mind az Y esetén. Éppen ezt jelenti az, hogy ugyanazon a valószínűségi mezőn vannak definiálva.

Kettőnél több változó függetlenségének vizsgálatát szintén visszavezetjük események vizs- gálatára, és mivel ilyenkor kettőnél több eseményről van szó, így ebben az esetben páronkénti ill. együttes függetlenséget is vizsgálhatunk:

Definíció. Az X1, . . . , Xn : Ω→Rugyanazon valószínűségi mezőn értelmezett valószínűségi változókat páronként/együttesen függetlennek nevezzük, ha minden t1, . . . , tn ∈ R esetén az {X1 < t1}, . . . ,{Xn < tn} események páronént/együttesen függetlenek.

Diszkrét valószínűségi változók esetén az alábbi állításban adott feltétel gyakran egysze- rűbbé teszi a függetlenség vizsgálatát a definíció alkalmazásánál:

Állítás. Az X, Y : Ω → R azonos valószínűségi mezőn értelmezett valószínűségi változók pontosan akkor függetlenek, ha az {X = s} és az {Y = t} események függetlenek minden s∈ranX és t∈ranY esetén, azaz ha ezekre P(X =s)P(Y =t) = P(X =s, Y =t) teljesül.

A fenti állítás tehát egyrészt megszámlálható (ill. egyszerű valószínűségi változók esetén véges) sok s, t párra redukálja a vizsgálatot, másrészt a diszkrét esetben gyakran jobban kezelhető {X =s}alakú eseményeket tekint. Vegyük észre, hogy a függetlenség cáfolásához elég egyetlens, t párt találni, amelyekre az{X =s} és{Y =t}események nem függetlenek, míg a függetlenség igazolásához az összes lehetséges párt meg kell vizsgálni.

Példa. Dobunk egy szabályos kockával, jelölje X a dobott szám kettővel vett osztási mara- dékát (tehát lényegében a paritását),Y pedig a hármas maradékát. Ekkor ranX ={0,1} és ranY ={0,1,2}, továbbáX minden lehetséges értékét1/2, míg Y minden lehetséges értékét 1/3 eséllyel veszi fel. Viszont könnyen látható, hogy ha fixáljuk a dobott szám paritását és hármas maradékát is, az egyértelműen meghatározza azt. Így tehát

P(X =s, Y =t) = 1 6 = 1

2 ·1

3 =P(X =s)P(Y =t) mindens∈ranX és t∈ranY esetén, tehát X ésY függetlenek.

Független valószínűségi változók esetén a várható érték nem csak lineáris, de a szorzásra nézve is szépen viselkedik. A következő állítás bizonyítása egyszerű valószínűségi változókra megtalálható Mészáros Szabolcsjegyzetében(de persze maga az állítás általában is érvényes).

Állítás. Ha X és Y független valószínűségi változók, továbbá E(X), E(Y) és E(XY) véges, akkor E(XY) = E(X)E(Y).

A fenti állításban mindhárom várható érték létezését fel kell tenni, egyik sem következik a másik kettő létezéséből. Ennek a fejezetnek a további részében azonban lényegében mindig olyan szituációkkal foglalkozunk, amikor mind azX, mind azY szórásnégyzete véges. Ebben az esetben belátható, hogy mindhárom fenti várható érték véges, és ezt az alábbiakban gyakran kis is fogjuk használni.

Következmény. Ha X és Y független valószínűségi változók, melyekre D2(X) és D2(Y) véges, akkorD2(X+Y) = D2(X) +D2(Y).

(3)

Bizonyítás. A szóráségyzetre korábban bizonyított formula alapján D2(X+Y) =E((X+Y)2)−E(X+Y)2

=E(X2+ 2XY +Y2)−(E(X) +E(Y))2

=E(X2) + 2E(XY) +E(Y2)−(E(X)2+ 2E(X)E(Y) +E(Y)2)

=E(X2)−E(X)2+E(Y2)−E(Y)2+ 2(E(XY)−E(X)E(Y)),

ahol a várható érték linearitásának alkalmazásánál felhasználtuk, hogy a szórásnégyzetek létezéséből E(X), E(Y), E(X2), E(Y2) és (a fenti megjegyzés szerint) E(XY) létezése is következik. Az X és az Y függetlensége miatt az előző állítás szerint az utolsó tag nulla, továbbá a szórásnégyzetre vonatkozó, az első lépésben már használt formula alapján az utolsó

sorban lévő összeg éppenD2(X) +D2(Y). □

A fentihez nagyon hasonló számolások megadják az analóg állítást n változó esetén is:

Következmény. Ha X1, . . . , Xn páronként független valószínűségi változók, melyek szórás- négyzete véges, akkor

D2(X1+· · ·+Xn) =D2(X1) +· · ·+D2(Xn).

Figyeljük meg, hogy a fenti állításban elegendő a változóknak apáronkénti függetlenségét feltenni, tehát nem kell, hogy együttesen függetlenek legyenek. Ennek oka könnyen látszik, ha végiggondoljuk a bizonyítás menetét. Az előző bizonyításban látott számolást azn tagú összegre végrehajtva az első lépésében ugyanis az (X1+· · ·+Xn)2 várható értéke, illetve az (E(X1) +· · ·+E(Xn))2 kifejezés jelenik meg, ami miatt az E(XiXj) ill. E(Xi)E(Xj) tagok keletkeznek, ezek pedig már páronkénti függetlenség esetén is kiejtik egymást.

A fentiek alkalmazásaként (újra) kiszámoljuk a binomiális eloszlás szórásnégyzetét. Legyen X ∼ B(n;p), ekkor X eloszlása megyezik egy 1A1 + · · ·+ 1An összeg eloszlásával, ahol A1, . . . , An együttesen független, p valószínűségű események, 1A1, . . . ,1An pedig az ezekhez tartozó indikátor valószínűségi változók. Könnyen belátható, hogy azAi események független- sége miatt ekkor ezek az indikátorok együttesen (és így persze páronként is) függetlenek, ezért

D2(X) =D2(1A1 +· · ·+1An) = D2(1A1) +· · ·+D2(1An) = np(1−p), hiszen - ahogy korábban már láttuk - az indikátorok szórásnégyzetep(1−p).

3.2. Diszkrét valószínűségi változók együttes eloszlása

Ebben a szakaszban minden valószínűségi változóról feltesszük, hogy diszkrét. Folytonos (és egyéb) valószínűségi változók együttes eloszlásával ezen kurzus keretein belül nem foglal- kozunk, az érdeklődő olvasó pl. Mészáros Szabolcsjegyzetében olvashat ezekről részletesen.

Definíció. Legyenek X, Y : Ω → R ugyanazon a valószínűségi mezőn értelmezett diszkrét valószínűségi változók. Ekkor a P(X =k, Y =l) valószínűségek összességét, ahol k végigfut X értékkészletén, l pedig Y értékkészletén, az X ésY együttes eloszlásának nevezzük.

Megjegyzés. Természetesen kettőnél több diszkrét változó esetén is megadható az együttes eloszlás a fentihez hasonló valószínűségek összességeként, ahol persze az összes változó értékét fixálva adódnak az egyes valószínűségek.

(4)

Két egyszerű valószínűségi változó együttes eloszlása kényelmesen megadható táblázatos formában, ahol az egyes oszlopok az egyik, míg a sorok a másik változó által felvett (véges sok) lehetséges értékekhez tartoznak, és a k ∈ ranX oszlopának ill. az l ∈ ranY sorának metszéspontjába a P(X =k, Y =l) valószínűség kerül.

Példaként tekintsük az X és Y valószínűségi változókat, melyekre ranX = {2,3,5} és ranY ={0,1,2}, továbbá az együttes eloszlásukat a következő táblázat adja meg:

Y

X 2 3 5

0 0,05 0,15 0,1

1 0,1 0,2 0,1

2 0,05 0,2 0,05

Mivel az {X = k, Y = l} események, ahol k végigfut az X értékkészletén, l pedig az Y értékkészletén, teljes eseményrendszert alkotnak, ezért egy együttes eloszlást megadó táblázatban szereplő valószínűségek összege szükségszerűen a teljes eseménytér valószínűsége, azaz1(ahogy ez a fenti táblázatra is igaz). Másrészt, nemnegatív számok egy táblázata, ahol az egyes elemek összege 1, mindig egy együttes eloszlást ad meg.

Legyen adott két változó együttes eloszlása. Hogyan vizsgálhatjuk meg, hogy a változók függetlenek-e? Ehhez mindenképp szükség van az egyes változók eloszlására külön-külön.

Definíció. LegyenekX ésY diszkrét valószínűségi változók. Ha adott azX és azY együttes eloszlása, akkor azX ill. azY eloszlásait az együttes eloszlásmarginális eloszlásainak nevez- zük.

Az X marginális eloszlásához az P(X = k) valószínűségeket kell meghatározni, ahol k végigfut az X értékkészletén. Ehhez az {X = k} eseményt az Y értéke szerint páronként egymást kizáró részeseményekre oszthatjuk:

{X =k}= [

l∈ranY

{X =k, Y =l},

és így

P(X =k) = X

l∈ranY

P(X =k, Y =l).

Vegyük észre, hogy a jobb oldali összegben az együttes eloszlás táblázatának k-hoz tartozó oszlopelemei szerepelnek. Hasonlóan, a P(Y = l) valószínűség meghatározásához X értékei szerint bonthatjuk páronként kizáró részekre az {Y = l} eseményt, így a táblázat l-hez tartozó sorelemeit összeadva adódik a keresett valószínűség:

P(Y =l) = X

k∈ranX

P(X =k, Y =l).

A fenti példában:

P(X = 2) =P(X = 2, Y = 0) +P(X = 2, Y = 1) +P(X = 2, Y = 2)

= 0,05 + 0,1 + 0,05 = 0,2 P(X = 3) = 0,15 + 0,2 + 0,2 = 0,55 P(X = 5) = 0,1 + 0,1 + 0,05 = 0,25

(5)

P(Y = 0) =P(X = 2, Y = 0) +P(X = 3, Y = 0) +P(X = 5, Y = 0)

= 0,05 + 0,15 + 0,1 = 0,3 P(Y = 1) = 0,1 + 0,2 + 0,1 = 0,4 P(Y = 2) = 0,05 + 0,2 + 0,05 = 0,3.

Látható, hogy a példában megadott valószínűségi változók nem függetlenek, hiszen például P(X = 2, Y = 0) = 0,05̸=P(X= 2)P(Y = 0) = 0,2·0,3 = 0,06.

Az előző szakaszban láttuk, hogy független X és Y esetén E(XY) =E(X)E(Y) teljesül, azonban nekünk általában is szükségünk leszE(XY) értékére. Nézzük meg, hogyan kapható meg ez az együttes eloszlás segítségével. A technikai nehézségek elkerülése végett feltesszük, hogy egyszerű valószínűségi változókról van szó. A várható érték definíciója szerint

E(XY) = X

m∈ranXY

m·P(XY =m).

Ebből némi (itt nem részletezett) átalakítással levezethető az a formula, amivel az együttes eloszlás segítségével valóban könnyen számolható ez a várható érték:

E(XY) = X

k∈ranX

X

l∈ranY

k·l·P(X =k, Y =l).

Végezetül számoljuk ki azXY várható értékét a fenti példában:

E(XY) = 2·0·0,05 + 3·0·0,15 + 5·0·0,1 + 2·1·0,1 + 3·1·0,2 + 5·1·0,1 + 2·2·0,05 + 3·2·0,2 + 5·2·0,05

= 0,2 + 0,6 + 0,5 + 0,2 + 1,2 + 0,5 = 3,2.

3.3. Kovariancia és korreláció

Az előző szakaszban megadott együttes eloszlás leírja ugyan a két változó együttes visel- kedését, azonban a két változó közötti esetleges összefüggés nem feltétlenül olvasható le közvetlenül. Ebben a szakaszban egy példát mutatunk arra, hogy hogyan számszerűsíthető egy ilyen összefüggés.

Definíció. Legyenek X, Y : Ω→R ugyanazon a valószínűségi mezőn értelmezett valószínű- ségi változók. EkkorX és Y kovarianciája a

cov(X, Y) = E (X−E(X))(Y −E(Y))

várható érték, amennyiben létezik.

Rögtön érdemes megjegyezni, hogy egy valószínűségi változónak az önmagával vett ko- varianciája a változó szórásnégyzetével egyezik meg (ha létezik):

cov(X, X) = E (X−E(X))2

=D2(X).

Ahogy a szórásnégyzet esetében, sokszor a kovariancia esetén sem a definíciót használjuk a konkrét számolásoknál:

(6)

Állítás. Ha X és Y ugyanazon az eseménytéren értelmezett valószínűségi változók, akkor cov(X, Y) =E(XY)−E(X)E(Y),

ami úgy értendő, hogy ha az egyenlőség egyik oldalán álló kifejezés létezik, akkor a másik oldalon álló is, és egyenlők.

Az állítás azon részét, ami a kifejezések létezésére vonatkozik, nem bizonyítjuk, de a for- mulák egyenlősége (azok létezése esetén) könnyen megkapható a várható érték linearitásából:

cov(X, Y) = E (X−E(X))(Y −E(Y))

=E XY −E(X)·Y −E(Y)·X+E(X)E(Y)

=E(XY)−2E(X)E(Y) +E(E(X)E(Y)) =E(XY)−E(X)E(Y).

Korábban láttuk, hogy ha X és Y szórásnégyzete létezik, akkor az E(X), E(Y) ill. E(XY) várható értékek is, így a fenti állítás szerint a kovariancia is. Így a továbbiakban mindig fel fogjuk tenni, hogy a valószínűségi változók véges szórásúak, ami minden számunkra szükséges érték létezését garantálja, azzal az alábbi állításokban nem kell foglalkozni, továbbá ezek nagy általánosságban kimondhatók.

A fenti állítás első alkalmazásaként térjünk vissza két változó összegének szórásnégyzetére.

A fejezet első szakaszában láttuk, hogy független X és Y valószínűségi változók esetén D2(X + Y) = D2(X) + D2(Y) érvényes. Ennek bizonyításánál a függetlenséget csak az utolsó lépésben használtuk ki, ugyanaz a számolás az előző állítással együtt most a következő általános formulát adja:

D2(X+Y) = D2(X) +D2(Y) + 2(E(XY)−E(X)E(Y)) = D2(X) +D2(Y) + 2cov(X, Y).

Látjuk tehát, hogy a szórásnégyzet pontosan akkor additív, ha a két változó kovarianciája nulla, ami a változók függetlensége esetén teljesül. Most összefoglaljuk a kovariancia alapvető tulajdonságait, az előző következtetést is beleértve.

Állítás (A kovariancia alaptulajdonságai). Legyenek X, Y és Z ugyanazon a valószínűségi mezőn értelmezett véges szórású valószínűségi változók.

a) A kovarinacia szimmetrikus, azaz cov(X, Y) = cov(Y, X).

b) A kovariancia bilineáris, azaz ha a, b∈R, akkor

cov(X, aY +bZ) = a·cov(X, Y) +b·cov(X, Z), cov(aX+bY, Z) = a·cov(X, Z) +b·cov(Y, Z).

c) Ha X vagy Y konstans, akkor cov(X, Y) = 0.

d) Ha X és Y függetlenek, akkor cov(X, Y) = 0.

Bizonyítás.

a) cov(X, Y) =E(XY)−E(X)E(Y) = E(Y X)−E(Y)E(X) = cov(Y, X).

(7)

b) A szimmetria miatt elég az első állítást igazolni. Az előző állítás és a várható érték linearitása miatt

cov(X, aY +bZ) = E(X(aY +bZ))−E(X)E(aY +bZ)

=a·E(XY) +b·E(XZ)−(a·E(X)E(Y) +b·E(X)E(Z))

=a· E(XY)−E(X)E(Y)

+b· E(XZ)−E(X)E(Z)

=a·cov(X, Y) +b·cov(X, Z).

c) A szimmetria miatt feltehető, hogy X =ckonstans. Ekkor a várható érték linearitása miatt cov(X, Y) =E(XY)−E(X)E(Y) = E(cY)−c·E(Y) = 0.

d) Korábbal láttuk, hogy a X és Y független, akkor E(XY) = E(X)E(Y). Ebből és az előző állításból azonnal következik az állítás d) része.

□ Példa. Megjegyezzük, hogy abból, hogy cov(X, Y) = 0, nem következik, hogy X és Y függetlenek. Legyen például X egy olyan valószínűségi változó, melyre ranX = {−1,0,1}, valamint P(X =−1) = P(X = 1) = 14 és P(X = 0) = 12 teljesül. Legyen továbbá Y = |X|.

EkkorranY ={0,1}, ésP(Y = 0) =P(Y = 1) = 12. A várható érték defincíciójából könnyen látható, hogy ekkor E(X) = 0 és E(Y) = 12.

Számoljuk ki az XY eloszlását is. Nyilván ranXY ={−1,0,1}, és P(XY =−1) =P(X =−1) = 1

4,

P(XY = 1) =P(X = 1) = 1 4,

P(XY = 0) =P(X = 0) = 1 2, tehátE(XY) = 0. Így cov(X, Y) =E(XY)−E(X)E(Y) = 0, de

P(X = 0)P(X = 1) = 1 2 ·1

2 = 1

4 ̸= 0 =P(X = 0, Y = 1), tehátX és Y nem függetlenek.

A kovariancia abból a szempontból biztosan nem a legjobb mérőszám az összefüggőség mérésére, hogy abszolút értéke bármekkora lehet. Például az X nyilván összefügg saját magával, cov(X, X) =D2(X) viszont bármilyen kicsi vagy nagy pozitív értéket felvehet, ezt az összefüggőséget tehát önmagában a kovariancia abszolút értéke biztosan nem mutatja ki.

Azonban a változó paramétereitől függően mégis adhatunk felső becslést, és ahogy a fenti példa sugallja, ez a felső korlát a szórások függvénye.

Állítás. Ha X, Y ugyanazon a valószínűségi mezőn értelmezett véges szórású valószínűségi változók, akkor|cov(X, Y)| ≤D(X)D(Y).

Az állítás akkor is igaz persze, ha valamelyik szórás 0, de ez a kevésbé érdekes eset.

Ugyanis belátható, hogy a szórás pontosan akkor0, ha a változó1 valószínűséggel konstans, ekkor pedig a kovariancia is0. (Ezt láttuk konstans változókra, az pedig, hogy a változó csak 1valószínűséggel vesz fel konstans értéket, voltaképpen csak technikai nehézség, a bizonyítás lényegében ugyanúgy megy.)

Ha viszont mindkét szórás pozitív, akkor a fenti állítás éppen azt adja, hogy a szórások szorzatával normálva a kovarianciát egy −1és 1 közötti számot kapunk.

(8)

Definíció. Legyenek X, Y ugyanazon a valószínűségi mezőn értelmezett valószínűségi vál- tozók, melyeknek szórása pozitív és véges. Ekkor a

corr(X, Y) = cov(X, Y) D(X)D(Y)

mennyiséget az X és Y korrelációjának nevezzük. Ha corr(X, Y) = 0, akkor azt mondjuk, hogyX ésY korrelálatlanok.

A fentiek értelmében tehát a korreláció egy−1és1közötti szám. Megjegyezzük, hogy ha X ésY függetlenek és pozitív, véges szórásúak, akkor a kovarianciájuk és így a korrelációjuk is nulla, azaz a fenti definíció értelmében korrelálatlanok.

A korreláció értéktartományának másik két extrémuma is nagyon fontos. Ugyanis a vál- tozók korrelációja már egy jó mérőszám egy speciális összefüggőségre. Hogy pontosan mi- lyenre, azt a szélsőséges értékek vizsgálata mutatja:

Tétel. LegyenekX és Y ugyanazon a valószínűségi mezőn értelmezett valószínűségi változók, melyeknek szórása pozitív és véges. Ekkor corr(X, Y) =±1 pontosan akkor teljesül, ha

P(Y =βX +α) = 1

valamilyen α, β ∈R valós számokra, azaz az egyik változó 1 valószínűséggel a másik lineáris transzformáltja. Ebben az esetben az β szám előjele megegyezik corr(X, Y) előjelével.

A tétel állítása úgy is fogalmazható a korreláció a lineáris összefüggőséget méri. Ezt majd a következő szakaszban tárgyalt lineáris regresszió még jobban megvilágítja.

Itt még megemlítjük, hogy más típusú összefüggésekre a korreláció érzéketlen lehet.

Például megadható olyanX valószínűségi változó, melyre corr(X, X2) = 0.

Hivatkozások

KAPCSOLÓDÓ DOKUMENTUMOK

(Kiz´ ar´ olag a pontok megad´ asa nem el´ eg, mert nagyon sokf´ ele ´ ut lehet k¨ oz¨ ott¨ uk.) Amit az L 1 -be tartoz´ as sor´ an ellen˝ orizni kell: ezek t´ enyleg utak

Megjegyezzük még, hogy a linearitás (azaz a fenti tétel állítása) abban az esetben is igaz, ha a diszkrét valószínűségi változók értékkészlete végte- len (feltéve, hogy

A fenti számolás mutatja, hogy az előző formula érvényes minden páros sűrűség- függvénnyel rendelkező eloszlás eloszlásfüggvényére, hiszen csak azt használtuk ki a

Az is belátható, hogy a mintaelemszám növelésével a másodfajú hiba valószínűsége 0-hoz tart, ilyen módon tehát mégis lehetséges valamiféle kontroll a másodfajú hiba felett

cikkek alapján. Az egyik eljárás a folytonos eloszlású véletlen számok generálására használt takarékos módszert [De 81] általánosítja diszkrét valószínűségi

Lemma: Ha és független valószínűségi változók, és folytonos függvények, akkor és is

Ezt a kérdést teljes részle- tességgel nem tisztázzuk, de megjegyezzük, hogy azért kell megszorításokat tennünk, mert egy tetszőleges g függvényre nem feltétlenül lesz g(X)

Azonban arra is ügyelni kell, hogy ez az elemszám elegendően nagy legyen ahhoz, hogy a kapott eredményt kellően megalapozottnak tekinthessük.. Egy 10 elemű, bizonyos esetekben