• Nem Talált Eredményt

A paraméterek becslése

In document Sztochasztikus modellezés (Pldal 108-0)

3. Többdimenziós normális eloszlás 103

3.2. A paraméterek becslése

Legyen X1,X2, . . . ,XN egy N méretű, Np(µ,Σ) eloszlásból vett véletlen minta, ahol N > p. Ekkor a µ és a Σ maximum likelihood becslése a következő:

AΣbecslésének korrigálásával könnyen megkapható azS=A/ntorzítatlan becslés, aholn=N−p.

A sűrűségfüggvény konstans tagja következmények nélkül elhagyható, így a likelihood függvény:

ahol az egyenlőség akkor és csak akkor teljesül, haµ=X, amelynél felhasz-náltuk azt tényt, hogy

X−µT

Σ−1 X−µ

= 0 (3.11)

akkor és csak akkor ha µ = X, ugyanis Σ−1 pozitív definit. Ebből az kö-vetkezik, hogy X a maximum likelihood becslése µ-nek, bármely Σ esetén.

Ezután már csak a

L X,Σ

függvényt kell maximalizálni (Σ-ra), vagy ami ezzel ekvivalens,

függvénynek egyetlen maximuma van, mégpedig az x = N helyen, azaz a maximumNlnN−N, amiből az következik, hogy

g(Σ)≤ 1 amelynél az egyenlőség akkor és csak akkor áll fenn, ha

λi =N,(i= 1, . . . , p). (3.17) Ez utóbbi feltétel ekvivalens az

A1/2Σ−1A1/2 =N Ip (3.18) egyenlőséggel, ezértΣ = (1/N)A. Összefoglalva,

L(µ,Σ)≤NpN/2e−pN/2|A|−N/2 (3.19) kifejezésben az egyenlőség akkor és csak akkor áll fenn, ha µ = X és Σ = (1/N)A. Ezzel az állítást igazoltuk.

Habár ezek a becslések könnyen meghatározhatók, valamint jól megállapított tulajdonságokkal rendelkeznek, döntéselméleti szempontból mégsem optimá-lisak, ugyanis nem megengedhetőek. A négyzetes veszteségfüggvény összegé-ből kiindulva

L(µ,µ,ˆ Σ) = (µ−µ)ˆ TΣ−1(µ−µ)ˆ , (3.20)

James és Stein [15] megmutatta, hogy a becslésnek

kisebb a várható vesztesége, mint az X-nek,p≥3,ezért X nem megenged-hető a p≥3esetben.

Sajátos becslési problémák merülnek fel, amikor a vizsgálandó többváltozós normális eloszlású adatok között hiányzó értékek is vannak. Nézzünk egy kétváltozós esetet, ahol legyen a hiányos minta (x1, x2, . . . , xn, xn+1, . . . , xN) és

(y1, y2, . . . , yn), a várható érték vektor (µ1, µ2), a közös szórásnégyzet σ2, valamint a korrelációs együttható ̺. A maximum likelihood becslés meg-kapható, ha a likelihood függvényt felírjuk az x likelihoodjának és az y, x melletti feltételes likelihood függvényének szorzataként. A becslést tehát a következő négy egyenlet megoldásai adják:

ˆ

A[−1,1] intervallumon pontosan egy gyöknek egyezik meg az előjele azS12 -ével, ami a harmadfokú egyenlet megoldása

f(ˆ̺) = n S1∗2−S12 ˆ

̺3−(N −n)S12̺ˆ2+ +

N S12+S22

−n S1∗2−S2∗2 ˆ

̺−(N+n)S12 = 0.

Ez a valós gyök az egyetlen maximum likelihood becslése (MLE)̺-nak.

3.3. Hipotézis vizsgálat, konfidencia intervallum

Az alábbi állításokat (tulajdonságokat) felhasználjuk a többváltozós normális eloszláshoz kapcsolodó statisztikák minta eloszlásainak származtatásához.

1. Legyen Z eloszlása Np(0,Σ), ekkor a ZTΣ−1Z kvadratikus alakja χ2p eloszlású.

2. HaA egy p×pdimenziójú pozitív definit mátrix és felírható a

m

X

α=1

ZαZTα (3.30)

alakban, ahol Z1, . . . ,Z(m) függetlenek és Np(0,Σ) eloszlásúak, akkor az A elemei Wishart eloszlásúak, m szabadságfokkal és Σ kovarianca mátrixal. Ennek a jelölésére az A ∼ Wp(m,Σ) kifejezést használják, ahol az index az A dimenzióját mutatja.

3. LegyenZ ∼Np(0,Σ)és A∼Wp(m,Σ), ahol Zés A független elosz-lásúak, akkor a

ZT(A/m)−1Z (3.31)

eloszlására azt mondjuk, hogy Hotelling-féle Tm2 eloszlású, m szabad-ságfokkal.

Az egyváltozós normális esetbeli mintaátlag és szórásnégyzet függet-lenségének analógiájára alapozva, az X és S itt is független eloszlású, ahol

X∼Np(µ,Σ/N) és S∼Wp(n,Σ/n). (3.32)

A Σ kovariancia mátrix ismeretében felhasználhatjuk az 1. tulajdonságot,

Ennek következményeként, hipotézisvizsgálatokat és konfidencia intervallu-mokat készíthetünkµ paraméterhez.

AH0 :µ=µ0 vizsgálatára az N X−µ0T

Σ−1 X−µ0

≥χ2p,α (3.34)

elfogadási tartományt használjuk, aholχ2p,αapszabadságfokúχ2eloszlás fel-ső1−αpontját jelöli. X-ből kiindulva, aµ(1−α)konfidencia intervalluma

N µ−XT

Σ−1 µ−X

≤χ2p,α, (3.35) ami egy Xközéppontú ellipszoid felülete és belseje.

A3. tulajdonságot felhasználva, következésképpen kapjuk, hogy N X−µT

S−1 X−µ

∼Tn2. (3.36)

Ennek eredményeként, ha Σ ismeretlen akkor is állíthatunk fel µ-re vonat-kozó próbákat a következő egyenlőtlenséget felhasználva

N X−µT

S−1 X−µ

≥Tn,α2 . (3.37)

Aµ-re vonatkozó (1−α)konfidencia intervallum pedig N µ−XT

leegyszerűsíti ezeket a számításokat, ugyanis azF-eloszlás percentilisei azon-nal elérhetők. A szóban forgó eredmények kiterjeszthetők két sokaság várható érték vektorát vizsgáló próbákra és konfidencia intervallumokra is.

Egyéb hipotézis vizsgálatok (pl.: diszkriminancia analízis, k várható érték vektorok egyenlőségének vizsgálata, MANOVA, kovariancia mátrixok egyen-lősége, kanonikus korreláció) különböző Wishart eloszlásokból származtatott karakterisztikus gyökök együttes eloszlásfüggvényén alapulnak.

3.4. Normalitás vizsgálat

Módszer annak vizsgálatára, hogy egy populáció normális eloszlású-e vagy sem. Meglehetősen sokféleképpen térhet el a vizsgált eloszlás a normálistól, és ezek meghatározására irányuló különböző eljárások egyesítése nem len-ne hatékony. Mivel nincs egyetlen átfogó, minden esetben jól alkalmazható módszer sem, így a megfelelő kiválasztása történhet a legvalószínűbbnek vélt eltérés alapján, vagy amelyikkel a leghasználhatóbb eredmények kaphatók.

A vizsgálat előtt érdemes az adatokat ábrázolni és a nagyon kiugró pontokat elhagyni, mert ezek miatt hamis eredményeket is kaphatunk a nem normali-tásra vonatkozólag.

Amikor egy tesztet sok változón kell végrehajtani, akkor előfordulhat, hogy a legjelentősebb nem normalitást okozó tényezők hatását elrejti a többi változó ún. "hígító" hatása. Ilyen esetben csak azokat kell kiválasztani, amelyek a vizsgálat tárgyát képezik.

Feltéve, hogy diszjunkt részhalmazokat választottunk, amelyek hozzávetőleg függetlenek, és nem okoz gondot a szignifikancia szint meghatározása a teljes tesztet átfogóan, a következő vizsgálatok közül választhatunk:

1. Perem normalitás vizsgálat.

2. Egydimenziós vizsgálat részleges vagy együttes normalitást illetően.

3. Többváltozós módszerek az együttes normalitás vizsgálatára.

Legyenx1,x2, . . . ,xn egyXvéletlen vektorból vettnhosszúságú megfigyelés sorozat, és legyen az X p darab komponense X1, X2, . . . , Xp. Legyen X és Sa mintabeli átlag és a szórásmátrix, valamint µ és Σ a megfelelő sokasági paraméterek. A nullhipotézis az, hogyX többváltozós normális.

Az xi Mahalanobis távolsága X-től a következőképp definiálható

ri2= (xi−X)TS−1(xi−X). (3.40) Az xi−X és xj−Xközti Mahalanobis szög

rij = (xi−X)TS−1(xj−X). (3.41) Askálázott reziduálisok

yi=S−1/2(xi−X). (3.42)

3.4.1. Perem normalitás vizsgálat

Emlékezzünk rá, hogy a határ normalitásból nem következik az együttes normalitás, fordítva viszont igen. A legegyszerűbb lehetőség az, ha megvizs-gáljuk a határeloszlások egyváltozós normalitását és megbecsüljük a teljes szignifikancia szintet.

Legyen v1 és v2 két p×1 dimenziójú vektor, melyek a ferdeség és a lapult-ság értékeit tartalmazzák. Johnson SU transzformációjának alkalmazásával, kapunk belőlük egy w1 és w2 vektort, melyek megközelítőleg standard nor-mális eloszlásúak. Jelöljew1 és w2 kovariancia mátrixait U1 és U2, melyek főátlóiban egyesek állnak. A nem főátlóbeli elemek aszimptotikusan ̺3ij és

̺4ij, ahol ̺ij a corr(Xi, Xj), mely a mintabeli korrelációk által lett becsül-ve. AQ1 =wT1U−11 w1 és Q2 = wT2U−12 w2 próbastatisztikák megközelítőleg függetlenek, és null-eloszlásúak, hozzávetőlegesenχ2p.

Mivel megmutatják, hogy egy önmagában álló határeloszlásban fellelhető-e a normálistól való eltérés, ezért az ilyen tesztek elvégzése mindig javasolt.

3.4.2. Egydimenziós vizsgálaton alapuló módszerek

Egy egyszerű, de jól alkalmazható módszer a többváltozós normalitás megha-tározására, az, hogy ábrázoljuk a rendezett Mahalanobis távolságokat a nekik megfelelő null eloszlások várható statisztikáinak függvényében. A p = 2 és a n ≥ 25 esetben ez az eloszlás a χ22-tel közelíthető. A p > 2 esetben a χ2p eloszlással való közelítás már nem alkalmas, ilyenkor a Beta-eloszlás statisz-tikáinak becslése sokkal célravezetőbb. Mivel az ri2 null eloszlása ismert, így egy mennyiségi teszt végezhető azáltal, hogy normál pontokká alakítjuk őket és egyváltozós normalitás vizsgálatot végzünk.

A módszerek egy másik fajtája az, hogy a többváltozós normális eloszlás jellemzőit a váltózok összes lineáris kombinációján végzett egyváltozós nor-malitástesztek alapján vizsgálják.

A harmadik módszer két dimenziós adathalmazokon végzendő, de itt a pró-bastatisztikát a változók egyenkénti lineáris kombinációjával kapott függvény maximuma adja.

3.4.3. Együttes normalitás vizsgálat

Egy lehetséges geometriai megközelítés, hogy az yi skálázott reziduálisokat polár koordinátákká alakítjuk, amivel kapunkpdarabr2i =yiTyikoordinátát, valamint

(p−1) független szöget. Az egyik szög egyenletes eloszlású lesz a [0,2π) intervallumon, így ez könnyen ábrázolható. p >2esetén a fennmaradó szögek eloszlásának sűrűsége

sinj−1ϑ (0≤ϑ≤π, j = 2, . . . , p−1). (3.43) Mardia statisztikái a ferdeség és a lapultság mérésére:

b1,p= 1 n2

n

X

i=1 n

X

j=1

rij3 és b2,p= 1 n

n

X

i=1

r4i. (3.44) Aszimptotikusan,

nb1,p

6 (3.45)

eloszlásaχ2,

p(p+ 1)(p+ 2)

6 (3.46)

szabadsági fokkal, és b2,p eloszlása pedig

N(p(p+ 2),8p(p+ 2)

n . (3.47)

Andrews és mások a Box-Cox-féle egyváltozós normalitásba transzformáló módszert kiterjesztették a többváltozós esetre is, amellyel egy likelihood há-nyados próba végezhető el a többváltozós normalitás megállapítására.

3.5. Példák

3.5.1. Kétváltozós normális eloszlás

AzXésYvalószínűségi változó kétváltozós normális eloszlású, ha az együttes sűrűségfüggvényük a következő:

f(x, y) =

= exp

"

− 1

2(1−̺2)

x−µ1 σ1

2

−2̺(x−µ1)(y−µ2) σ1σ2 +

y−µ2 σ2

2!#

2πσ1σ2p 1−̺2

ahol −∞< x <∞,−∞< y <∞, σ1>0,σ2 >0és −1< ̺ <1.

Az alábbi MAPLE program megrajzolja a sűrűségfüggvényt. Az ábrán két független standard normális valószínűségi változó együttessűrűségfüggvénye látható.

restart:

with(plots,display,textplot3d):

f:=(x,y,mu1,mu2,sigma1,sigma2,rho)->exp((-1/(2*(1-rho^2)))*

(((x-mu1)/sigma1)^2-2*rho*(x-mu1)*(y-mu2)/(sigma1*sigma2)+

((y-mu2)/sigma2)^2))/(2*Pi*sigma1*sigma2*sqrt(1-rho^2));

plot3d(f(x,y,0,0,1,1,0),x=-3..3,y=-3..3,axes=frame);

Az ábrán két független standard normális valószínűségi változó együttessű-rűségfüggvénye látható.

Az ellipszis alakú szintvonalak ábrázolása:

with(plots):contourplot(f(x,y,0.9,0,1,1,0.5),x=-4..4,y=-4..4, grid=[40,40]);

3.5.2. T

2

próba

Vizsgáljuk meg H0 :µ= (9,5)T hipotézist az alábbi adatokon:

X =

 6 9 10 6 8 3

.

Ebből megkapjuk, hogyX = (8,6)T és S =

4 −3

−3 9

. Tehát

S−1=

 1 3

1 1 9 9

4 27

és

A 2 és 1 szabadsági fok és 5%-os szignifikancia szint mellett még bőven bele-esik a megbízhatósági intervallumba, így elfogadhatjuk aH0 hipotézist.

3.5.3. Konfidencia intervallum meghatározása

A konfidencia intervallumot alapvetően aH0 hipotézis által elfogadott összes paramaméter érték határozza meg. Például egy egymintás, két oldalút-próba esetén

−t≤ x−µ s/√

n ≤t,

ahol taz eloszlás megfelelő értéke, µ pedig aH0 hipotézis feltevése.

Alkalmazzuk ugyanezt a gondolatmenetet aT2 próbára is: határozzuk meg azokat aµ= (µ1, µ2)T értékeket, melyekre igaz, hogyT2≤F. Térjünk vissza

Ahhoz, hogy beleessen a 90%-os konfidencia intervallumba, teljesülnie kell annak, hogy T2 ≤ 49,5. Mivel µ1 = 10, µ2 = 20, d1 = 8−10 = −2, d2 = 6−20 = −14. TehátT2 = 27,44<49,5,ezért belesik.

Továbbá, µ1 = 20, µ2 = 15, d1 = 8−20 = −12, d2 = 6−15 = −9. Tehát T2 = 63>49,5, azaz kívűlre esik.

4. fejezet

Feltételes várható érték, folyamatok

4.1. Bevezetés

4.1. Példa. Dobjunk fel egy dobókockát és az eredmény pontszám legyen Y. Továbbá, legyen az X = 1, ha az Y páros és X = 0, ha az Y páratlan.

Tudjuk, hogy E(Y) = 3.5. De mennyi az Y várható értéke, ha az eredmény páros, azaz X = 1. Az utóbbi információból következik, hogy az Y 2, 4, 6 lehet 1

3 valószínűséggel. Tehát az Y várható értéke az X = 1feltétel esetén E(Y|X = 1) = 2 + 4 + 6

3 = 4.

Hasonlóképpen

E(Y|X = 0) = 1 + 3 + 5 3 = 3.

Összefoglalva

E(Y|X) = 3 +X. (4.1)

4.2. Megjegyzés. Ebben a példában azY =y feltételes valószínűségeX =

xesetén

P(Y =y|X =x) =P(Y =y és X =x) P(X =x) =

=P({y} ∩ {2,4,6})

P({2,4,6}) = P({y}) P({2,4,6}) =

=1

3 hax= 1és y ∈ {2,4,6}

=P({y} ∩ {2,4,6})

P({2,4,6}) = P(∅) P({2,4,6}) =

=0 ha x= 1 és y6∈ {2,4,6}

=P({y} ∩ {1,3,5})

P({1,3,5}) = P({y}) P({1,3,5}) =

=1

3 hax= 0és y ∈ {1,3,5}

=P({y} ∩ {1,3,5})

P({1,3,5}) = P(∅) P({1,3,5}) =

=0 ha x= 0 és y6∈ {1,3,5}, így

6

X

y=1

yP(Y =y|X =x) = 3 +x.

Tehát abban az esetben, amikor azY és azX valószínűségi változó is diszkrét azE(Y|X)feltételes várható érték a következőképpen definiálható

E(Y|X) =X

y

yp(y|X), (4.2)

ahol p(y|x) =P(Y = y|X =x)amikor P(X =x)> 0.

4.3. Példa. Vezessük be a következő jelölést:

I(A) =

(1, ha x∈A, 0, ha x6∈A.

Legyen X ∼U(0,1).Ha X =x, akkor legyen Y ∼U(0, x),ekkor

amikor 0< y <1. Tehát az Y sűrűségfüggvénye fy(y) =

(−lny, ha y ∈(0,1), 0, ha y 6∈(0,1).

Ebből a várható érték

E(Y) =

De mennyi az Y várható értéke, ha X = x. Az utóbbi információ alapján mostY ∼(0, x).Tehát a várható érték

4.4. Megjegyzés. Ebben a példában a két valószínűségi változó folytonos, azaz léteznek a sűrűségfüggvények. Ekkor

E(Y|X =x) = Z+∞

−∞

yf(y|x)dy =g(x).

Tehát általánosítva

E(Y|X) = Z+∞

−∞

yf(y|X)dy=g(X). (4.3) A példák két alapvető tulajdonságát mutatják a feltételes várható érték-nek. Egyrészt,E(Y|X)az X függvénye, amely a következőképpen fordítha-tó le: LegyenY és X két olyan valószínűségi vátozó, amelyek ugyanazon az {Ω,F, P}valószínűségi mezőn értelmezettek, és legyen FX =σ(X),azaz az X által generáltσ-algebra. Ekkor

Z =E(Y|X) mérhetőFX-re nézve. (4.4) Másrészt,

E((Y −E(Y|X))I(X ∈B)) = 0 ∀B ∈ B(R) esetén. (4.5)

4.2. Feltételes várható érték

Legyen X valószínűségi vátozó az {Ω,F, P}valószínűségi mezőn, ekkor E(X) =

Z

XdP = Z

R

xdFX(x), ahol FX az eloszlásfüggvény.

4.5. Definíció. Jelölje PC aC feltétel melletti feltételes valószínűséget. Az Z

XdPC (4.6)

integrált, ha létezik az X C feltétel melletti feltételes várható értékének ne-vezzük.

Jele: E(X|C). azaz PC abszolút folytonosP-re nézve. Ez alapján

dPC

dP = I(A) P(C) az ún. Radon-Nikodym derivált.

Tulajdonságok: Ezután meghatározhatjuk a feltételes várható érték általános fogalmát.

4.8. Definíció. Adott azX valószínűségi változó az{Ω,F, P}valószínűségi mezőn, E(X) véges és A ⊂ F σ-algebra. Az Y valószínűségi változó az X valószínűségi változó Afeltétel melletti feltételes várható értéke, ha

1. Y mérhetőA-re nézve, azaz σ(Y)⊂ A,

2. bármely A∈ A esetén E(Y|A) =E(X|A),azaz Z

A

Y dP = Z

A

XdP.

4.9. TÉTEL. Ha A ⊂ F és azX valószínűségi változó, amelyreE(X)véges, akkor a P valószínűség szerint 1 valószínűséggel egyértelműen létezik az 1-2.

tulajdonságoknak eleget tevő Y valószínűségi változó.

Jelölés: Y =E(X|A) =E(X|A)(ω).

4.10. Megjegyzés. Ha Z valószínűségi változó, akkor σ(Z) ⊂ F. Tekint-hetjük aσ(Z)-re vonatkozó feltételes várható értéket, amelyet azE(X|σ(Z)) helyett rövidenE(X|Z)-vel jelölünk. Tehát

1. E(X|σ(Z)) mérhető σ(Z)-re nézve és 2. bármely A∈ A esetén

Z

A

E(X|σ(Z))dP = Z

A

XdP.

4.3. A feltételes várható érték tulajdonságai

4.11. TÉTEL. E(E(X|A) =E(X).

4.12. TÉTEL. Ha P(X ≤Y, akkor P(E(X|A))≤P(E(Y|A)).

4.13. TÉTEL. Ha E(|X|)< ∞ és E(|Y|)<∞ akkor

P(E(αX +βY|A) =αE(X|A) +βE(Y|A)) = 1.

4.14. TÉTEL. Legyen E(|X|)< ∞. Ha X F-mérhető, akkor P(E(X|A) =X) = 1.

4.15. TÉTEL. Legyen E(|X|)< ∞. Ha X F-mérhető, akkor P(E(X|{∅,Ω}) =E(X)) = 1.

4.16. TÉTEL. Legyen E(|X|)< ∞ és U =X −E(X|A), akkor P(E(U|A) = 0) = 1.

4.17. TÉTEL. (torony tulajdonság) Legyen E(|X|)<∞ és A0 ⊂ A1 ⊂ A σ-algebrák, akkor

P(E(E(X|A1)|A0) =E(X|A0)) = 1.

4.18. TÉTEL. (monoton konvergencia) Legyen azXn nem-negatív való-színűségi változók sorozata az{Ω,F, P} valószínűségi mezőn úgy, hogy

P(Xn ≤Xn+1) = 1 és

E(sup

n≥1

Xn)<∞, ekkor

P

n→∞lim E(Xn|A) =E( lim

n→∞Xn|A)

= 1.

4.19. TÉTEL. Legyen X A-mérhető, E(|X|)<∞ és E(|XY|)<∞, akkor P(E(XY|A) =XE(Y|A)) = 1.

4.20. TÉTEL. Legyen X és Y valószínűségi változók az {Ω,F, P} valószí-nűségi mezőn és E(|Y|) < ∞, ekkor létezik g Borel-mérhető függvény úgy, hogy

P (E(Y|X) =g(X)) = 1.

4.21. TÉTEL. LegyenX ésY független valószínűségi változók. HaE(|Y|)<

∞, akkor

P(E(Y|X) =E(Y)) = 1.

4.22. TÉTEL. Ha E(Y2)<∞, akkor ψ(X) =E(Y|X)esetén E((Y −ψ(X))2)

minimális.

4.23. Megjegyzés. Ez a tétel az alapja a regresszióanalízisnek.

4.24. Példa. Legyenek

X1, X2, . . . , Xn független, azonos eloszlású ésXi ∼U(0,1).Legyen

Y1, Y2, . . . , Yn a rendezett minta, ekkor

E(Y1|Yn = y) =y n, E(Yk|Yl =x) =k

lx, E(Yk) = k

n+ 1, E( Yk

Yk+1) = k k+ 1.

Bizonyítás.

E(Yk) =E(E(Yk|Yn)) = Z1

0

k

nxnxn−1dx= k n+ 1.

E( Yk

Yk+1|Yk+1=t) = 1

tE(Yk|Yk+1 =t) = 1 t

k

k+ 1t= k k+ 1.

4.4. Martingál

4.25. Definíció. Legyen az {Ω,F, P} valószínűségi mező. Az

A1 ⊂ A2 ⊂ · · · ⊂ F (4.8) σ-algebra sorozatotszűrésnek nevezzük.

4.26. Megjegyzés. An jelenti a "tudást" az n-edik időpontban. An tartal-mazza az összes olyanAeseményt azn-edik időpontban, amelyről eldönthe-tő, hogy bekövetkezett vagy nem. Han növekszik, akkor ezen Aesemények halmaza is bővül. Ha hosszabb ideig élsz bölcsebbé válsz!

4.27. Definíció. Az X1, X2, . . . valószínűségi változó sorozat adaptált az A1⊂ A2⊂. . . szűrésre nézve, ha Xn An-mérhető bármely n∈N esetén.

4.28. Megjegyzés. AzAn =σ(X1, X2, . . . , Xn)a legszűkebb szűrés, amely-re azX1, X2, . . . valószínűségi változó sorozat adaptált.

4.29. Definíció. Az X1, X2, . . . valószínűségi változó sorozat martingál az A1⊂ A2⊂. . . szűrésre nézve, ha bármely n∈N esetén

1. E(Xn) véges, azaz integrálható, 2. Xn An-mérhető, azaz σ(Xn)⊂ An, 3. P(E(Xn+1|An) =Xn) = 1.

Jelölés:(Xn,An).

4.30. Megjegyzés. A harmadikat szokás martingál tulajdonságnak nevez-ni.

4.31. Példa. Legyen az Y1, Y2, . . . független valószínűségi változó sorozat, ahol E(Yn) = 0 minden nesetén. Legyen

Xn =Y1+Y2+· · ·+Yn és An = σ(Y1, Y2, . . . , Yn), ekkor E(Xn) = 0 és Xn An-mérhető. Ezenkívül

E(Xn+1|An) =E(Yn+1|An) +E(Xn|An) =E(Yn+1) +Xn = Xn. Tehát(Xn,An) martingál.

4.32. Példa. Az Y valószínűségi változó, amelyre E(Y) véges és legyen A1 ⊂ A2 ⊂ · · · ⊂ F egy szűrés. Továbbá, legyen Xn = E(Y|An). Ekkor Xn An-mérhető és

|Xn|=|E(Y|An)| ≤E(|Y| |An),

amelyből

E(|Xn|)≤E(E(|Y| |An)) =E(|Y|)<∞. A feltételes várható érték torony tulajdonsága alapján pedig

E(Xn+1|An) =E(E(Y|An+1)|An) =E(Y|An) =Xn. Tehát(Xn,An) martingál.

4.33. ÁLLÍTÁS. Ha (Xn,An) martingál, akkor E(X1) =E(X2) =. . . .

4.34. ÁLLÍTÁS. Ha (Xn,An) martingál, akkor (Xn, σ(X1, X2, . . . , Xn)) is martingál.

4.35. Példa. Legyen Xn a szimmetrikus bolyongás, azaz Xn =Y1+Y2+· · ·+Yn,

ahol azY1, Y2, . . . független, azonos eloszlású valószínűségi változók sorozata úgy, hogy

P(Yn =−1) =P(Yn = 1) = 1 2, ekkor (Xn2−n, σ(Y1, Y2, . . . , Yn)) martingál.

Bizonyítás. Az Xn2 −n = (Y1 + Y2 + · · · + Yn)2 − n egy függvénye az Y1, Y2, . . . , Yn valószínűségi változóknak, így mérhetőσ(Y1, Y2, . . . , Yn)-re néz-ve. Továbbá

|Xn| ≤ |Y1|+|Y2|+· · ·+|Yn|=n.

Tehát adódik, hogy E(

Xn2−n

)≤E(Xn2) +n≤n2+n <∞. Legyen An =σ(Y1, Y2, . . . , Yn),ekkor

E(Xn+12 |An) =E(Yn+12 + 2Yn+1Xn+Xn2|An) =

=E(Yn+12 |An) + 2E(Yn+1Xn|An) +E(Xn2|An) =

=E(Yn+12 ) + 2XnE(Yn+1) +Xn2=

=1 +Xn2.

TehátE(Xn+12 −1−n|An) =Xn2−n.

4.36. Definíció. AzX1, X2, . . . valószínűségi változó sorozat szupermartin-gál (szubmartinszupermartin-gál) az A1 ⊂ A2 ⊂ . . . szűrésre nézve, ha bármely n ∈ N esetén

1. E(Xn) véges, azaz integrálható, 2. Xn An-mérhető, azaz σ(Xn)⊂ An,

3. P(E(Xn+1|An)≤Xn) = 1 (P(E(Xn+1|An)≥Xn) = 1).

4.37. Megjegyzés. Ha (Xn,An)martingál, akkor (Xn2,An)szubmartingál.

4.38. Példa. Legyen az Y1, Y2, . . . valószínűségi változó sorozat véges vár-ható értékkel és A1 ⊂ A2⊂ · · · ⊂ F egy szűrés. Legyen

Xn =

n

X

i=1

(E(Yi|Ai)−E(Yi|Ai−1)) és A0 ={F,∅},

ekkor (Xn,An) martingál. Speciális esete, amikor a valószínűségi változók függetlenek és An =σ(Y1, Y2, . . . , Yn),ekkor

Xn =

n

X

i=1

(Yi−E(Yi)).

Tehát független nulla várható értékű valószínűségi változók összege martin-gál.

4.39. Példa. Legyen az Y1, Y2, . . . független valószínűségi változó sorozat véges, nemnulla várható értékkel, ekkor

Xn =

n

Y

i=1

Yi

E(Yi), σ(Y1, Y2, . . . , Yn)

!

martingál.

4.40. Példa. (Kvíz) Egy játék során egy kérdésre a válaszpvalószínűséggel jó éssösszeg nyerhető. Rossz válasz esetén mindent elveszítünk. Tegyük fel, hogy a kérdésekre egymástól függetlenül adjuk meg a választ. Vezessük be a következő jelöléseket:

Xn a nyeremény az n-edik kérdésig bezárólag.

Yi=

(1, ha jó a válasz az i-edik kérdésre, 0, ha rossz a válasz az i-edik kérdésre,

és An =σ(Y1, Y2, . . . , Yn),ekkor egy ideig növekszik, majd csökken.

4.41. Példa. (Fogadás) Legyen X0 a kezdő tőke. Az a1, a2, . . . , (0≤ai ≤ 1) a stratégia és Xn jelölje a játékos pillanatnyi tőkéjét az n-edik játék (lé-pés) után. A játék menete: Az(n+ 1)-edik játszmában a játékos kockáztatja a pillanatnyi tőkéjének az an+1-ed részét a bank azonos tőkéjével szemben.

Tegyük fel, hogy a játszmák függetlenek és a játékos mindegyikben p való-színűséggel nyer, azaz azaz az átlagos nyeremény:

E(Xn+1|An) =E(Xn(1+Yn+1an+1|An) =XnE(1+an+1Yn+1) =Xn(1+an+1(2p−1)).

Tehát

(Xn,An) −





szubmartingál, hap >0.5, martingál, hap= 0.5, szupermartingál, hap <0.5.

4.5. Sztochasztikus folyamatok

4.42. Definíció. Legyen adva egy (Ω,A, P) valószínűségi mező és egy tet-szőlegesT (index)halmaz. Valószínűségi változóknak az(Ω,A, P) valószínű-ségi mezőn definiált és aT halmaz elemeivel indexelt{Xt,t∈T}rendszerét sztochasztikus folyamatnak nevezzük.

4.43. Definíció. Adott aT halmaz és legyen a T halmaz minden {t1, . . . , tn} ⊂T

részhalmazához egy ezen halmaz elemeivel indexelt Ft1,...,tn(xt1, . . . , xtn) el-oszlásfüggvény hozzárendelve. A véges dimenziós eloszlások ezen rendszerét kompatibilisnek nevezzük, ha tetszőleges véges {t1, . . . , tn} ⊂T halmazra

Ft1,...,tn(xt1, . . . , xtn) =Ft1,...,tn,tn+1,...,tn+m(xt1, . . . , xtn,∞, , . . . ,∞), ahol

Ft1,...,tn,tn+1,...,tn+m(xt1, . . . , xtn,∞, , . . . ,∞) (4.9)

= lim

xtn+1→∞· · · lim

xtn+m→∞Ft1,...,tn(xt1, . . . , xtn, xtn+1, . . . , xtn+m), és tetszőleges{t1, . . . , tn} ⊂T halmazra és annak tetszőleges{tπ(1), . . . , tπ(n)} permutációjára

Ft1,...,tn(xt1, . . . , xtn) =Ftπ(1),...,tπ(n)(xtπ(1), . . . , xtπ(n)).

4.44. TÉTEL. (Kolmogorov) Adott egy T halmaz, valamint Ft1,...,tn(xt1, . . . , xtn)

véges dimenziós eloszlásfüggvényeknek egy a T halmaz {t1, . . . , tn} ⊂T véges részhalamazaival indexelt kompatibilis rendszere, ekkor létezik egy {Xt, t ∈ T} sztochasztikus folyamat úgy, hogy minden {t1, . . . , tn} ⊂T véges halmaz-ra az (Xt1, . . . , Xtn) véletlen vektor eloszlásfüggvénye az Ft1,...,tn(xt1, . . . , xtn) eloszlásfüggvény.

4.45. Definíció. ω∈Ω esetén az X(·, ω) függvényttrajektóriának (realizá-ciónak) nevezzük.

A következőkben néhány speciális folyamat fogalmát adjuk meg.

4.46. Definíció. Egy folyamat Gauss-folyamat, ha minden véges dimenziós eloszlás Gauss, azaz normális.

4.47. Definíció. Az {Xt, t∈T} Markov-folyamat,ha

P(Xtn+1 < xn+1|Xtn) =xn) =P(Xtn+1 < xn+1|Xt1 =x1, . . . , Xtn = xn), (4.10) ahol t1 < t2 <· · ·< tn < tn+1 tetszőleges (ti∈T).

4.48. Megjegyzés. Ilyen folyamat például a Poisson-folyamat, a Wiener-folyamat (Brown-mozgás) stb.

4.49. Definíció. Az {X(t), t≥0}számláló folyamat, ha 1. N(0) = 0.

2. N(t)csak nem-negatív egész értékeket vesz fel.

3. Ha s < t,akkor N(s)≤N(t).

4. N(t)−N(s)az (s, t]intervallumban bekövetkező események száma.

4.6. Stacionárius folyamatok

Legyen {X(t), t ∈ T} sztochasztikus folyamat, amelyet stacionáriusnak ne-vezünk, ha

(X(t1+h), X(t2+h), . . . , X(tn+h)), n∈N, t1< t2<· · · < tn, (4.11) n-dimenziós eloszlása független h-tól. Szokás szigorúan stacionáriusnak is nevezni.

Egy folyamatot gyengén stacionáriusnak nevezünk, ha

E(X(t)) =m, m∈R, (4.12)

C(s, s+t) =R(t) =cov(X(s+t), X(s)), (4.13) azaz a várható érték konstans és a kovariancia függvény csak az eltolástól (késéstől) függ.

4.50. Megjegyzés. Négyzetesen integrálható stacionárius folyamat gyen-gén stacionárius is.

4.51. Definíció. Az{Xt, t≥0}folyamatotOrnstein-Uhlenbeck folyamatnak nevezzük, ha Gauss-folyamat és

E(X(t)) = 0, C(s, t) =e−γ|t−s|, ahol γ >0 és X0 ∼N(0,1).

4.1. ábra. Ornstein-Uhlenbeck folyamat trajektóriái

A kovarianciafüggvény reprezentálható, mint Fourier transzformált R(t) =

Z+∞

−∞

eixtdF(x), (4.14)

ahol azF függvényt spektrál eloszlásfüggvénynek nevezzük.

Jellemző tulajdonságai:

1. Szimmetria: dF(x) =dF(−x).

2. Monotonitás: hax < y, akkor F(x)≤F(y).

3. Korlátosság: F(+∞)−F(−∞) =R(0)<∞.

4.52. Megjegyzés. F egy additív konstanstól eltekintve meghatározott, ezért gyakranF(−∞) = 0.

Ha F abszolút folytonos, akkor F(x) =

Zx

−∞

f(s)ds, (4.15)

és ekkor a spektrumot abszolút folytonosnak nevezzük ésf a spektrál sűrű-ségfüggvény.

A

λk = Z+∞

−∞

xkdF(x) (4.16)

mennyiségetk-adik spektrál momentumnak nevezzük.

4.53. Megjegyzés. Az F szimmetriája miatt minden páratlan momentum 0, míg a párosak lehetnek végesek vagy végtelenek. A spektrál momentumok végessége összekapcsolható a folyamat simaságával. Mivel

E((X(s+t)−X(s))2) = 2(R(0)−R(t)), (4.17) ezért a folytonosság kifejezhető a kovariancia függvénnyel. Rögtön adódik, hogyX(t+h)→ X(t)négyzetes középben, amint h→ 0, ha R folytonos a nullánál. AX(t)stacionárius sztochasztikus folyamat realizációi folytonosak, ha

R(t) =R(0)− O

|t|

|ln|t||q

, t→0, q >3. (4.18) 4.54. TÉTEL. Legyen 0 = t0 < t1 < · · · < tn = T egy felosztása a [0, T] intervallumnak, ekkor

max(tklim−tk1)→0

X[X(tk)−X(tk−1)]2w2T (1 valószínűséggel). (4.19)

Bármely stacionárius kovariancia függvény esetén létezik egy konstans szó-rásnégyzet, amelyre

R(t) =σ2̺(t), (4.20)

ahol ̺(t) a korreláció függvény, amely általánosan

̺(s, s+t) = cov(X(s+t), X(s))

pcov(X(s), X(s))cov(X(s+t), X(s+t)). (4.21)

4.2. ábra. Izotróp felület

4.55. Definíció. A stacionárius véletlen folyamat izotróp, ha a kovariancia függvény csak a távolságtól függ, azaz

R(t, s) =C(τ), (4.22)

ahol τ =d(t, s).

4.3. ábra. Anizotróp felület

4.56. Megjegyzés. d(t, s) a metrika a folyamat indexhalmazán. Pl. euk-lideszi norma. Izotróp mezőket akkor alkalmazunk, ha forgatás és tükrözés invariáns esettel állunk szemben. Előnye, hogy elegendő egy profilogram a teljes leíráshoz.

4.57. Definíció. A stacionárius véletlen folyamat anizotróp, ha a korreláció függvény csak a távolságtól függ, azaz

̺(t, s) =̺(τ), (4.23)

ahol τ =||t−s||K és ||t||K =√

tTKt egy K pozitív szemidefinit mátrixszal.

4.58. TÉTEL. Az anizotróp korrelációs függvény̺(||t−s||K)pozitív definit Rn-ben, ha̺(τ)pozitív definit izotrópRn-ben ésK egy szimmetrikus, pozitív szemidefinitn×n-mátrix.

4.59. Megjegyzés. A ||t−s||K norma a folyamat indexhalmazán, amely ellipszoid szimmetriát biztosít. HaK egységmátrix visszakapjuk az izotróp esetet. Anizotróp esetben becsülnünk kell a K elemeit is. Az ilyen típusú leírás megkönnyíti az abrazív befejező megmunkálások esetén az egységes leírást és a szimulációt. Megmutatja, hogy anizotróp felületek esetén miért szükséges a több különböző irányú profilogram.

5. fejezet

Markov-láncok, folyamatok

5.1. Markov-láncok

5.1. Definíció. A véges vagy megszámlálhatóan végtelen állapotterű Markov-folyamatot Markov-láncnak nevezzük.

A Markov-lánc jellemzése (leírása) azt jelenti, hogy megadjuk, mely időpon-tokban milyen valószínűséggel melyik állapotban van. Legyenek a Markov-lánc állapotai azE1, E2, . . . , Ek , ekkorXtn =ijelöli azt, hogy a Markov-lánc a tn időpontban az Ei állapotban van. Az egyszerűség kedvéért az Ei álla-potot röviden az i állapotnak fogjuk hívni. Így a definíciónk ekvivalens a következővel.

5.2. ÁLLÍTÁS. Legyen Xn Markov-lánc, ekkor tetszőleges t1 < t2 < . . . <

tn < tn+1 és i1, i2, . . . , in, in+1 esetén P Xtn+1 =in+1

Xt1 =i1, Xt2 =i2, . . . , Xtn1 =in−1, Xtn =in

=

=P Xtn+1 =in+1|Xtn =in .

Ha a diszkrét tk időpontokban a Markov-lánc állapotátXtk helyett röviden Xk jelöli, akkor a fenti állítás (a Markov tulajdonság) a következő egyszerűbb alakban írható le:

P(Xn+1=in+1|X1 =i1, X2 =i2, . . . , Xn−1 =in−1, Xn =in) =

=P (Xn+1= in+1|Xn =in).

Az állítás azt hangsúlyozza, hogy a Markov-lánc jövőbeli viselkedésére vo-natkozó összes információnk az utolsó megfigyelt állapotban van.

A diszkrét idejű Markov-láncot úgy tekintjük, hogy mindegyik lehetséges idő-pontban (lépésben) állapotot változtat (megengedve azt is, hogy ugyanabban az állapotban marad, amelyikben volt). Azn-edik időpontban azi-edik álla-potból azn+ 1-edik időpontban aj-edik állapotba való átmenet (feltételes) valószínűsége

Pij(n,n+1)=P(Xn+1 =j|Xn =i).

Az ezen valószínűségekből képzett mátrixot nevezzük (egylépéses) átmeneti valószínűség mátrixnakP(n,n+1).

5.3. Definíció. A

P(n,n+m) = [P(Xn+m=j|Xn = i)]

mátrixotm-lépéses átmeneti valószínűség mátrixnak nevezzük.

Az egylépéses átmeneti valószínűség mátrixok ismeretében meghatározhatjuk

Az egylépéses átmeneti valószínűség mátrixok ismeretében meghatározhatjuk

In document Sztochasztikus modellezés (Pldal 108-0)