3. Többdimenziós normális eloszlás 103
3.5. Példák
3.5.2. T 2 próba
Vizsgáljuk meg H0 :µ= (9,5)T hipotézist az alábbi adatokon:
X =
6 9 10 6 8 3
.
Ebből megkapjuk, hogyX = (8,6)T és S =
4 −3
−3 9
. Tehát
S−1=
1 3
1 1 9 9
4 27
és
A 2 és 1 szabadsági fok és 5%-os szignifikancia szint mellett még bőven bele-esik a megbízhatósági intervallumba, így elfogadhatjuk aH0 hipotézist.
3.5.3. Konfidencia intervallum meghatározása
A konfidencia intervallumot alapvetően aH0 hipotézis által elfogadott összes paramaméter érték határozza meg. Például egy egymintás, két oldalút-próba esetén
−t≤ x−µ s/√
n ≤t,
ahol taz eloszlás megfelelő értéke, µ pedig aH0 hipotézis feltevése.
Alkalmazzuk ugyanezt a gondolatmenetet aT2 próbára is: határozzuk meg azokat aµ= (µ1, µ2)T értékeket, melyekre igaz, hogyT2≤F. Térjünk vissza
Ahhoz, hogy beleessen a 90%-os konfidencia intervallumba, teljesülnie kell annak, hogy T2 ≤ 49,5. Mivel µ1 = 10, µ2 = 20, d1 = 8−10 = −2, d2 = 6−20 = −14. TehátT2 = 27,44<49,5,ezért belesik.
Továbbá, µ1 = 20, µ2 = 15, d1 = 8−20 = −12, d2 = 6−15 = −9. Tehát T2 = 63>49,5, azaz kívűlre esik.
4. fejezet
Feltételes várható érték, folyamatok
4.1. Bevezetés
4.1. Példa. Dobjunk fel egy dobókockát és az eredmény pontszám legyen Y. Továbbá, legyen az X = 1, ha az Y páros és X = 0, ha az Y páratlan.
Tudjuk, hogy E(Y) = 3.5. De mennyi az Y várható értéke, ha az eredmény páros, azaz X = 1. Az utóbbi információból következik, hogy az Y 2, 4, 6 lehet 1
3 valószínűséggel. Tehát az Y várható értéke az X = 1feltétel esetén E(Y|X = 1) = 2 + 4 + 6
3 = 4.
Hasonlóképpen
E(Y|X = 0) = 1 + 3 + 5 3 = 3.
Összefoglalva
E(Y|X) = 3 +X. (4.1)
4.2. Megjegyzés. Ebben a példában azY =y feltételes valószínűségeX =
xesetén
P(Y =y|X =x) =P(Y =y és X =x) P(X =x) =
=P({y} ∩ {2,4,6})
P({2,4,6}) = P({y}) P({2,4,6}) =
=1
3 hax= 1és y ∈ {2,4,6}
=P({y} ∩ {2,4,6})
P({2,4,6}) = P(∅) P({2,4,6}) =
=0 ha x= 1 és y6∈ {2,4,6}
=P({y} ∩ {1,3,5})
P({1,3,5}) = P({y}) P({1,3,5}) =
=1
3 hax= 0és y ∈ {1,3,5}
=P({y} ∩ {1,3,5})
P({1,3,5}) = P(∅) P({1,3,5}) =
=0 ha x= 0 és y6∈ {1,3,5}, így
6
X
y=1
yP(Y =y|X =x) = 3 +x.
Tehát abban az esetben, amikor azY és azX valószínűségi változó is diszkrét azE(Y|X)feltételes várható érték a következőképpen definiálható
E(Y|X) =X
y
yp(y|X), (4.2)
ahol p(y|x) =P(Y = y|X =x)amikor P(X =x)> 0.
4.3. Példa. Vezessük be a következő jelölést:
I(A) =
(1, ha x∈A, 0, ha x6∈A.
Legyen X ∼U(0,1).Ha X =x, akkor legyen Y ∼U(0, x),ekkor
amikor 0< y <1. Tehát az Y sűrűségfüggvénye fy(y) =
(−lny, ha y ∈(0,1), 0, ha y 6∈(0,1).
Ebből a várható érték
E(Y) =
De mennyi az Y várható értéke, ha X = x. Az utóbbi információ alapján mostY ∼(0, x).Tehát a várható érték
4.4. Megjegyzés. Ebben a példában a két valószínűségi változó folytonos, azaz léteznek a sűrűségfüggvények. Ekkor
E(Y|X =x) = Z+∞
−∞
yf(y|x)dy =g(x).
Tehát általánosítva
E(Y|X) = Z+∞
−∞
yf(y|X)dy=g(X). (4.3) A példák két alapvető tulajdonságát mutatják a feltételes várható érték-nek. Egyrészt,E(Y|X)az X függvénye, amely a következőképpen fordítha-tó le: LegyenY és X két olyan valószínűségi vátozó, amelyek ugyanazon az {Ω,F, P}valószínűségi mezőn értelmezettek, és legyen FX =σ(X),azaz az X által generáltσ-algebra. Ekkor
Z =E(Y|X) mérhetőFX-re nézve. (4.4) Másrészt,
E((Y −E(Y|X))I(X ∈B)) = 0 ∀B ∈ B(R) esetén. (4.5)
4.2. Feltételes várható érték
Legyen X valószínűségi vátozó az {Ω,F, P}valószínűségi mezőn, ekkor E(X) =
Z
Ω
XdP = Z
R
xdFX(x), ahol FX az eloszlásfüggvény.
4.5. Definíció. Jelölje PC aC feltétel melletti feltételes valószínűséget. Az Z
Ω
XdPC (4.6)
integrált, ha létezik az X C feltétel melletti feltételes várható értékének ne-vezzük.
Jele: E(X|C). azaz PC abszolút folytonosP-re nézve. Ez alapján
dPC
dP = I(A) P(C) az ún. Radon-Nikodym derivált.
Tulajdonságok: Ezután meghatározhatjuk a feltételes várható érték általános fogalmát.
4.8. Definíció. Adott azX valószínűségi változó az{Ω,F, P}valószínűségi mezőn, E(X) véges és A ⊂ F σ-algebra. Az Y valószínűségi változó az X valószínűségi változó Afeltétel melletti feltételes várható értéke, ha
1. Y mérhetőA-re nézve, azaz σ(Y)⊂ A,
2. bármely A∈ A esetén E(Y|A) =E(X|A),azaz Z
A
Y dP = Z
A
XdP.
4.9. TÉTEL. Ha A ⊂ F és azX valószínűségi változó, amelyreE(X)véges, akkor a P valószínűség szerint 1 valószínűséggel egyértelműen létezik az 1-2.
tulajdonságoknak eleget tevő Y valószínűségi változó.
Jelölés: Y =E(X|A) =E(X|A)(ω).
4.10. Megjegyzés. Ha Z valószínűségi változó, akkor σ(Z) ⊂ F. Tekint-hetjük aσ(Z)-re vonatkozó feltételes várható értéket, amelyet azE(X|σ(Z)) helyett rövidenE(X|Z)-vel jelölünk. Tehát
1. E(X|σ(Z)) mérhető σ(Z)-re nézve és 2. bármely A∈ A esetén
Z
A
E(X|σ(Z))dP = Z
A
XdP.
4.3. A feltételes várható érték tulajdonságai
4.11. TÉTEL. E(E(X|A) =E(X).
4.12. TÉTEL. Ha P(X ≤Y, akkor P(E(X|A))≤P(E(Y|A)).
4.13. TÉTEL. Ha E(|X|)< ∞ és E(|Y|)<∞ akkor
P(E(αX +βY|A) =αE(X|A) +βE(Y|A)) = 1.
4.14. TÉTEL. Legyen E(|X|)< ∞. Ha X F-mérhető, akkor P(E(X|A) =X) = 1.
4.15. TÉTEL. Legyen E(|X|)< ∞. Ha X F-mérhető, akkor P(E(X|{∅,Ω}) =E(X)) = 1.
4.16. TÉTEL. Legyen E(|X|)< ∞ és U =X −E(X|A), akkor P(E(U|A) = 0) = 1.
4.17. TÉTEL. (torony tulajdonság) Legyen E(|X|)<∞ és A0 ⊂ A1 ⊂ A σ-algebrák, akkor
P(E(E(X|A1)|A0) =E(X|A0)) = 1.
4.18. TÉTEL. (monoton konvergencia) Legyen azXn nem-negatív való-színűségi változók sorozata az{Ω,F, P} valószínűségi mezőn úgy, hogy
P(Xn ≤Xn+1) = 1 és
E(sup
n≥1
Xn)<∞, ekkor
P
n→∞lim E(Xn|A) =E( lim
n→∞Xn|A)
= 1.
4.19. TÉTEL. Legyen X A-mérhető, E(|X|)<∞ és E(|XY|)<∞, akkor P(E(XY|A) =XE(Y|A)) = 1.
4.20. TÉTEL. Legyen X és Y valószínűségi változók az {Ω,F, P} valószí-nűségi mezőn és E(|Y|) < ∞, ekkor létezik g Borel-mérhető függvény úgy, hogy
P (E(Y|X) =g(X)) = 1.
4.21. TÉTEL. LegyenX ésY független valószínűségi változók. HaE(|Y|)<
∞, akkor
P(E(Y|X) =E(Y)) = 1.
4.22. TÉTEL. Ha E(Y2)<∞, akkor ψ(X) =E(Y|X)esetén E((Y −ψ(X))2)
minimális.
4.23. Megjegyzés. Ez a tétel az alapja a regresszióanalízisnek.
4.24. Példa. Legyenek
X1, X2, . . . , Xn független, azonos eloszlású ésXi ∼U(0,1).Legyen
Y1, Y2, . . . , Yn a rendezett minta, ekkor
E(Y1|Yn = y) =y n, E(Yk|Yl =x) =k
lx, E(Yk) = k
n+ 1, E( Yk
Yk+1) = k k+ 1.
Bizonyítás.
E(Yk) =E(E(Yk|Yn)) = Z1
0
k
nxnxn−1dx= k n+ 1.
E( Yk
Yk+1|Yk+1=t) = 1
tE(Yk|Yk+1 =t) = 1 t
k
k+ 1t= k k+ 1.
4.4. Martingál
4.25. Definíció. Legyen az {Ω,F, P} valószínűségi mező. Az
A1 ⊂ A2 ⊂ · · · ⊂ F (4.8) σ-algebra sorozatotszűrésnek nevezzük.
4.26. Megjegyzés. An jelenti a "tudást" az n-edik időpontban. An tartal-mazza az összes olyanAeseményt azn-edik időpontban, amelyről eldönthe-tő, hogy bekövetkezett vagy nem. Han növekszik, akkor ezen Aesemények halmaza is bővül. Ha hosszabb ideig élsz bölcsebbé válsz!
4.27. Definíció. Az X1, X2, . . . valószínűségi változó sorozat adaptált az A1⊂ A2⊂. . . szűrésre nézve, ha Xn An-mérhető bármely n∈N esetén.
4.28. Megjegyzés. AzAn =σ(X1, X2, . . . , Xn)a legszűkebb szűrés, amely-re azX1, X2, . . . valószínűségi változó sorozat adaptált.
4.29. Definíció. Az X1, X2, . . . valószínűségi változó sorozat martingál az A1⊂ A2⊂. . . szűrésre nézve, ha bármely n∈N esetén
1. E(Xn) véges, azaz integrálható, 2. Xn An-mérhető, azaz σ(Xn)⊂ An, 3. P(E(Xn+1|An) =Xn) = 1.
Jelölés:(Xn,An).
4.30. Megjegyzés. A harmadikat szokás martingál tulajdonságnak nevez-ni.
4.31. Példa. Legyen az Y1, Y2, . . . független valószínűségi változó sorozat, ahol E(Yn) = 0 minden nesetén. Legyen
Xn =Y1+Y2+· · ·+Yn és An = σ(Y1, Y2, . . . , Yn), ekkor E(Xn) = 0 és Xn An-mérhető. Ezenkívül
E(Xn+1|An) =E(Yn+1|An) +E(Xn|An) =E(Yn+1) +Xn = Xn. Tehát(Xn,An) martingál.
4.32. Példa. Az Y valószínűségi változó, amelyre E(Y) véges és legyen A1 ⊂ A2 ⊂ · · · ⊂ F egy szűrés. Továbbá, legyen Xn = E(Y|An). Ekkor Xn An-mérhető és
|Xn|=|E(Y|An)| ≤E(|Y| |An),
amelyből
E(|Xn|)≤E(E(|Y| |An)) =E(|Y|)<∞. A feltételes várható érték torony tulajdonsága alapján pedig
E(Xn+1|An) =E(E(Y|An+1)|An) =E(Y|An) =Xn. Tehát(Xn,An) martingál.
4.33. ÁLLÍTÁS. Ha (Xn,An) martingál, akkor E(X1) =E(X2) =. . . .
4.34. ÁLLÍTÁS. Ha (Xn,An) martingál, akkor (Xn, σ(X1, X2, . . . , Xn)) is martingál.
4.35. Példa. Legyen Xn a szimmetrikus bolyongás, azaz Xn =Y1+Y2+· · ·+Yn,
ahol azY1, Y2, . . . független, azonos eloszlású valószínűségi változók sorozata úgy, hogy
P(Yn =−1) =P(Yn = 1) = 1 2, ekkor (Xn2−n, σ(Y1, Y2, . . . , Yn)) martingál.
Bizonyítás. Az Xn2 −n = (Y1 + Y2 + · · · + Yn)2 − n egy függvénye az Y1, Y2, . . . , Yn valószínűségi változóknak, így mérhetőσ(Y1, Y2, . . . , Yn)-re néz-ve. Továbbá
|Xn| ≤ |Y1|+|Y2|+· · ·+|Yn|=n.
Tehát adódik, hogy E(
Xn2−n
)≤E(Xn2) +n≤n2+n <∞. Legyen An =σ(Y1, Y2, . . . , Yn),ekkor
E(Xn+12 |An) =E(Yn+12 + 2Yn+1Xn+Xn2|An) =
=E(Yn+12 |An) + 2E(Yn+1Xn|An) +E(Xn2|An) =
=E(Yn+12 ) + 2XnE(Yn+1) +Xn2=
=1 +Xn2.
TehátE(Xn+12 −1−n|An) =Xn2−n.
4.36. Definíció. AzX1, X2, . . . valószínűségi változó sorozat szupermartin-gál (szubmartinszupermartin-gál) az A1 ⊂ A2 ⊂ . . . szűrésre nézve, ha bármely n ∈ N esetén
1. E(Xn) véges, azaz integrálható, 2. Xn An-mérhető, azaz σ(Xn)⊂ An,
3. P(E(Xn+1|An)≤Xn) = 1 (P(E(Xn+1|An)≥Xn) = 1).
4.37. Megjegyzés. Ha (Xn,An)martingál, akkor (Xn2,An)szubmartingál.
4.38. Példa. Legyen az Y1, Y2, . . . valószínűségi változó sorozat véges vár-ható értékkel és A1 ⊂ A2⊂ · · · ⊂ F egy szűrés. Legyen
Xn =
n
X
i=1
(E(Yi|Ai)−E(Yi|Ai−1)) és A0 ={F,∅},
ekkor (Xn,An) martingál. Speciális esete, amikor a valószínűségi változók függetlenek és An =σ(Y1, Y2, . . . , Yn),ekkor
Xn =
n
X
i=1
(Yi−E(Yi)).
Tehát független nulla várható értékű valószínűségi változók összege martin-gál.
4.39. Példa. Legyen az Y1, Y2, . . . független valószínűségi változó sorozat véges, nemnulla várható értékkel, ekkor
Xn =
n
Y
i=1
Yi
E(Yi), σ(Y1, Y2, . . . , Yn)
!
martingál.
4.40. Példa. (Kvíz) Egy játék során egy kérdésre a válaszpvalószínűséggel jó éssösszeg nyerhető. Rossz válasz esetén mindent elveszítünk. Tegyük fel, hogy a kérdésekre egymástól függetlenül adjuk meg a választ. Vezessük be a következő jelöléseket:
Xn a nyeremény az n-edik kérdésig bezárólag.
Yi=
(1, ha jó a válasz az i-edik kérdésre, 0, ha rossz a válasz az i-edik kérdésre,
és An =σ(Y1, Y2, . . . , Yn),ekkor egy ideig növekszik, majd csökken.
4.41. Példa. (Fogadás) Legyen X0 a kezdő tőke. Az a1, a2, . . . , (0≤ai ≤ 1) a stratégia és Xn jelölje a játékos pillanatnyi tőkéjét az n-edik játék (lé-pés) után. A játék menete: Az(n+ 1)-edik játszmában a játékos kockáztatja a pillanatnyi tőkéjének az an+1-ed részét a bank azonos tőkéjével szemben.
Tegyük fel, hogy a játszmák függetlenek és a játékos mindegyikben p való-színűséggel nyer, azaz azaz az átlagos nyeremény:
E(Xn+1|An) =E(Xn(1+Yn+1an+1|An) =XnE(1+an+1Yn+1) =Xn(1+an+1(2p−1)).
Tehát
(Xn,An) −
szubmartingál, hap >0.5, martingál, hap= 0.5, szupermartingál, hap <0.5.
4.5. Sztochasztikus folyamatok
4.42. Definíció. Legyen adva egy (Ω,A, P) valószínűségi mező és egy tet-szőlegesT (index)halmaz. Valószínűségi változóknak az(Ω,A, P) valószínű-ségi mezőn definiált és aT halmaz elemeivel indexelt{Xt,t∈T}rendszerét sztochasztikus folyamatnak nevezzük.
4.43. Definíció. Adott aT halmaz és legyen a T halmaz minden {t1, . . . , tn} ⊂T
részhalmazához egy ezen halmaz elemeivel indexelt Ft1,...,tn(xt1, . . . , xtn) el-oszlásfüggvény hozzárendelve. A véges dimenziós eloszlások ezen rendszerét kompatibilisnek nevezzük, ha tetszőleges véges {t1, . . . , tn} ⊂T halmazra
Ft1,...,tn(xt1, . . . , xtn) =Ft1,...,tn,tn+1,...,tn+m(xt1, . . . , xtn,∞, , . . . ,∞), ahol
Ft1,...,tn,tn+1,...,tn+m(xt1, . . . , xtn,∞, , . . . ,∞) (4.9)
= lim
xtn+1→∞· · · lim
xtn+m→∞Ft1,...,tn(xt1, . . . , xtn, xtn+1, . . . , xtn+m), és tetszőleges{t1, . . . , tn} ⊂T halmazra és annak tetszőleges{tπ(1), . . . , tπ(n)} permutációjára
Ft1,...,tn(xt1, . . . , xtn) =Ftπ(1),...,tπ(n)(xtπ(1), . . . , xtπ(n)).
4.44. TÉTEL. (Kolmogorov) Adott egy T halmaz, valamint Ft1,...,tn(xt1, . . . , xtn)
véges dimenziós eloszlásfüggvényeknek egy a T halmaz {t1, . . . , tn} ⊂T véges részhalamazaival indexelt kompatibilis rendszere, ekkor létezik egy {Xt, t ∈ T} sztochasztikus folyamat úgy, hogy minden {t1, . . . , tn} ⊂T véges halmaz-ra az (Xt1, . . . , Xtn) véletlen vektor eloszlásfüggvénye az Ft1,...,tn(xt1, . . . , xtn) eloszlásfüggvény.
4.45. Definíció. ω∈Ω esetén az X(·, ω) függvényttrajektóriának (realizá-ciónak) nevezzük.
A következőkben néhány speciális folyamat fogalmát adjuk meg.
4.46. Definíció. Egy folyamat Gauss-folyamat, ha minden véges dimenziós eloszlás Gauss, azaz normális.
4.47. Definíció. Az {Xt, t∈T} Markov-folyamat,ha
P(Xtn+1 < xn+1|Xtn) =xn) =P(Xtn+1 < xn+1|Xt1 =x1, . . . , Xtn = xn), (4.10) ahol t1 < t2 <· · ·< tn < tn+1 tetszőleges (ti∈T).
4.48. Megjegyzés. Ilyen folyamat például a Poisson-folyamat, a Wiener-folyamat (Brown-mozgás) stb.
4.49. Definíció. Az {X(t), t≥0}számláló folyamat, ha 1. N(0) = 0.
2. N(t)csak nem-negatív egész értékeket vesz fel.
3. Ha s < t,akkor N(s)≤N(t).
4. N(t)−N(s)az (s, t]intervallumban bekövetkező események száma.
4.6. Stacionárius folyamatok
Legyen {X(t), t ∈ T} sztochasztikus folyamat, amelyet stacionáriusnak ne-vezünk, ha
(X(t1+h), X(t2+h), . . . , X(tn+h)), n∈N, t1< t2<· · · < tn, (4.11) n-dimenziós eloszlása független h-tól. Szokás szigorúan stacionáriusnak is nevezni.
Egy folyamatot gyengén stacionáriusnak nevezünk, ha
E(X(t)) =m, m∈R, (4.12)
C(s, s+t) =R(t) =cov(X(s+t), X(s)), (4.13) azaz a várható érték konstans és a kovariancia függvény csak az eltolástól (késéstől) függ.
4.50. Megjegyzés. Négyzetesen integrálható stacionárius folyamat gyen-gén stacionárius is.
4.51. Definíció. Az{Xt, t≥0}folyamatotOrnstein-Uhlenbeck folyamatnak nevezzük, ha Gauss-folyamat és
E(X(t)) = 0, C(s, t) =e−γ|t−s|, ahol γ >0 és X0 ∼N(0,1).
4.1. ábra. Ornstein-Uhlenbeck folyamat trajektóriái
A kovarianciafüggvény reprezentálható, mint Fourier transzformált R(t) =
Z+∞
−∞
eixtdF(x), (4.14)
ahol azF függvényt spektrál eloszlásfüggvénynek nevezzük.
Jellemző tulajdonságai:
1. Szimmetria: dF(x) =dF(−x).
2. Monotonitás: hax < y, akkor F(x)≤F(y).
3. Korlátosság: F(+∞)−F(−∞) =R(0)<∞.
4.52. Megjegyzés. F egy additív konstanstól eltekintve meghatározott, ezért gyakranF(−∞) = 0.
Ha F abszolút folytonos, akkor F(x) =
Zx
−∞
f(s)ds, (4.15)
és ekkor a spektrumot abszolút folytonosnak nevezzük ésf a spektrál sűrű-ségfüggvény.
A
λk = Z+∞
−∞
xkdF(x) (4.16)
mennyiségetk-adik spektrál momentumnak nevezzük.
4.53. Megjegyzés. Az F szimmetriája miatt minden páratlan momentum 0, míg a párosak lehetnek végesek vagy végtelenek. A spektrál momentumok végessége összekapcsolható a folyamat simaságával. Mivel
E((X(s+t)−X(s))2) = 2(R(0)−R(t)), (4.17) ezért a folytonosság kifejezhető a kovariancia függvénnyel. Rögtön adódik, hogyX(t+h)→ X(t)négyzetes középben, amint h→ 0, ha R folytonos a nullánál. AX(t)stacionárius sztochasztikus folyamat realizációi folytonosak, ha
R(t) =R(0)− O
|t|
|ln|t||q
, t→0, q >3. (4.18) 4.54. TÉTEL. Legyen 0 = t0 < t1 < · · · < tn = T egy felosztása a [0, T] intervallumnak, ekkor
max(tklim−tk−1)→0
X[X(tk)−X(tk−1)]2 =σw2T (1 valószínűséggel). (4.19)
Bármely stacionárius kovariancia függvény esetén létezik egy konstans szó-rásnégyzet, amelyre
R(t) =σ2̺(t), (4.20)
ahol ̺(t) a korreláció függvény, amely általánosan
̺(s, s+t) = cov(X(s+t), X(s))
pcov(X(s), X(s))cov(X(s+t), X(s+t)). (4.21)
4.2. ábra. Izotróp felület
4.55. Definíció. A stacionárius véletlen folyamat izotróp, ha a kovariancia függvény csak a távolságtól függ, azaz
R(t, s) =C(τ), (4.22)
ahol τ =d(t, s).
4.3. ábra. Anizotróp felület
4.56. Megjegyzés. d(t, s) a metrika a folyamat indexhalmazán. Pl. euk-lideszi norma. Izotróp mezőket akkor alkalmazunk, ha forgatás és tükrözés invariáns esettel állunk szemben. Előnye, hogy elegendő egy profilogram a teljes leíráshoz.
4.57. Definíció. A stacionárius véletlen folyamat anizotróp, ha a korreláció függvény csak a távolságtól függ, azaz
̺(t, s) =̺(τ), (4.23)
ahol τ =||t−s||K és ||t||K =√
tTKt egy K pozitív szemidefinit mátrixszal.
4.58. TÉTEL. Az anizotróp korrelációs függvény̺(||t−s||K)pozitív definit Rn-ben, ha̺(τ)pozitív definit izotrópRn-ben ésK egy szimmetrikus, pozitív szemidefinitn×n-mátrix.
4.59. Megjegyzés. A ||t−s||K norma a folyamat indexhalmazán, amely ellipszoid szimmetriát biztosít. HaK egységmátrix visszakapjuk az izotróp esetet. Anizotróp esetben becsülnünk kell a K elemeit is. Az ilyen típusú leírás megkönnyíti az abrazív befejező megmunkálások esetén az egységes leírást és a szimulációt. Megmutatja, hogy anizotróp felületek esetén miért szükséges a több különböző irányú profilogram.
5. fejezet
Markov-láncok, folyamatok
5.1. Markov-láncok
5.1. Definíció. A véges vagy megszámlálhatóan végtelen állapotterű Markov-folyamatot Markov-láncnak nevezzük.
A Markov-lánc jellemzése (leírása) azt jelenti, hogy megadjuk, mely időpon-tokban milyen valószínűséggel melyik állapotban van. Legyenek a Markov-lánc állapotai azE1, E2, . . . , Ek , ekkorXtn =ijelöli azt, hogy a Markov-lánc a tn időpontban az Ei állapotban van. Az egyszerűség kedvéért az Ei álla-potot röviden az i állapotnak fogjuk hívni. Így a definíciónk ekvivalens a következővel.
5.2. ÁLLÍTÁS. Legyen Xn Markov-lánc, ekkor tetszőleges t1 < t2 < . . . <
tn < tn+1 és i1, i2, . . . , in, in+1 esetén P Xtn+1 =in+1
Xt1 =i1, Xt2 =i2, . . . , Xtn−1 =in−1, Xtn =in
=
=P Xtn+1 =in+1|Xtn =in .
Ha a diszkrét tk időpontokban a Markov-lánc állapotátXtk helyett röviden Xk jelöli, akkor a fenti állítás (a Markov tulajdonság) a következő egyszerűbb alakban írható le:
P(Xn+1=in+1|X1 =i1, X2 =i2, . . . , Xn−1 =in−1, Xn =in) =
=P (Xn+1= in+1|Xn =in).
Az állítás azt hangsúlyozza, hogy a Markov-lánc jövőbeli viselkedésére vo-natkozó összes információnk az utolsó megfigyelt állapotban van.
A diszkrét idejű Markov-láncot úgy tekintjük, hogy mindegyik lehetséges idő-pontban (lépésben) állapotot változtat (megengedve azt is, hogy ugyanabban az állapotban marad, amelyikben volt). Azn-edik időpontban azi-edik álla-potból azn+ 1-edik időpontban aj-edik állapotba való átmenet (feltételes) valószínűsége
Pij(n,n+1)=P(Xn+1 =j|Xn =i).
Az ezen valószínűségekből képzett mátrixot nevezzük (egylépéses) átmeneti valószínűség mátrixnakP(n,n+1).
5.3. Definíció. A
P(n,n+m) = [P(Xn+m=j|Xn = i)]
mátrixotm-lépéses átmeneti valószínűség mátrixnak nevezzük.
Az egylépéses átmeneti valószínűség mátrixok ismeretében meghatározhatjuk azm-lépéses átmeneti valószínűség mátrixot is.
5.4. ÁLLÍTÁS. (Chapman-Kolmogorov-tétel)Azm-lépéses átmeneti va-lószínűség mátrix tetszőleges r, (1≤r < m) esetén előállítható az r és az (m−r)-lépéses átmeneti valószínűség mátrixok segítségével
Pij(n,n+m) =
∞
X
k=0
Pik(n,n+r)Pkj(n,n+m−r). (5.1) Bizonyítás. Aziállapotból indulvarlépés múlva egy és csak egy állapotban lesz a folyamat, így alkalmazhatjuk a teljes valószínűség tételét.
5.5. ÁLLÍTÁS. Legyen P(n,n+1)= h
Pij(n,n+1)i
egy Markov-lánc átmeneti va-lószínűség mátrixa, akkor
X
j
Pij(n,n+1)= 1.
Bizonyítás. Mivel a Markov-lánc minden egyes tn időpillanatban átmegy egy (nem feltétlenül különböző) j állapotba, így az Xn+1 = j események teljes eseményrendszert alkotnak azXn =i feltétel mellett, tehát
X
j
P(Xn+1 =j|Xn =i) =X
j
Pij(n,n+1)= 1.
5.6. Definíció. Ha az átmeneti valószínűség mátrix független az időtől (az átmeneti valószínűségek stacionáriusak), akkor a Markov-láncot homogén Markov-láncnak nevezzük
Pij =P(Xn+1 =j|Xn =i).
Mivel homogén Markov-láncok esetében az egylépéses átmeneti valószínűség mátrix nem függ az időponttól, így a Pij(n,n+1) helyett az egyszerűbb Pij je-lölést használjuk, valamint az egylépéses átmeneti valószínűség mátrixot is P(n,n+1) helyett röviden P-vel jelöljük.
5.7. ÁLLÍTÁS. Homogén Markov-láncok esetében a Chapman-Kolmogorov-tétel szerint azm-lépéses átmeneti valószínűség mátrix előáll, mint az egylé-péses átmeneti valószínűség mátrix m-edik hatványa
h
Pij(n,n+m)i
=Pm.
Bizonyítás. Azr= 1esetben a Chapman-Kolmogorov-tétel azt állítja, hogy az m-lépéses átmeneti valószínűség mátrix előáll, mint az egylépéses átme-neti valószínűség mátrix és az(m−1)-lépéses átmeneti valószínűség mátrix szorzata. Innen teljes indukcióval kapjuk az állításunkat.
5.8. Példa. (Keresd a bűnözőt!) Bevezető példánk legyen egy rendőrségi probléma. Keresnek egy bűnözőt, aki a három barátnője valamelyikénél buj-kál. Naponta maximum egy alkalommal változtatja a helyét a(5.2)formula szerint. Jelölje Xn = i azt az eseményt, hogy az n-edik napon az i-edik barátnőjénél van.
P(Xn+1 =j|Xn =i) =Pij,
3
X
j=1
Pij = 1. (5.2)
Xn nyilvánvalóan Markov folyamat, és mivel három lehetséges állapota van, tehát Markov-lánc. MivelT = 1,2,3, . . ., így diszkrét idejű Markov-lánc. Ha sem a bűnöző nem unja meg a barátnőit, sem azok őt, tehát a preferenciák változatlanok, akkor
P(Xn+1=in+1|X1 =i1, X2 =i2, . . . , Xn−1 =in−1, Xn =in) =
=P (Xn+1= in+1|Xn =in), tehát a Markov-lánc homogén, vagyis időben stacionárius
P(Xn+1=j|Xn =i) =Pij,
3
X
j=1
Pij = 1.
5.9. Példa. (Független valószínűségi változók) Legyen a Markov-lánc n = 1,2,3, . . .időpontban felvettXnértéke független, azonosX eloszlású diszkrét valószínűségi változó
Ekkor az átmeneti valószínűség mátrix
P =
azaz az átmeneti valószínűség mátrix minden sora megegyezik. (És ha az át-meneti valószínűség mátrix minden sora megegyezik, akkor aj-edik állapot-ba való átmenet (feltételes) valószínűsége független a Markov-lánc jelenlegi állapotától.)
5.10. Példa. (Diszkrét kiszolgálási rendszerek) Egy kiszolgálási egység (pl.
egy borbély, egy online rendszer szervere) egy időegység alatt egy igényt (ven-déget, kérést) szolgál ki. Minden időegység alatt ugyanolyan eloszlás szerint
érkeznek igények (vendégek, kérések). Legyen az időegység alatt beérkező igények száma egy (az előzményektől független) Y valószínűségi változó
P(Y =k) =pk (k = 0,1,2,3, . . .)
Ha nincs igény, akkor a kiszolgáló egység vár, ha a kiszolgáló egység foglalt, akkor az igények várnak, beállnak a sorba. Jelölje azXn azn-edik időegység alatt a sorban tartózkodók számát. Egy időegység alatt a sorban állók száma csökken eggyel (ha volt kiszolgálni való igény) és nő a beérkezők számával, így az átmeneti valószínűség mátrix
P =
5.11. Példa. (Véletlen bolyongás) Nagyon sok fizikai, műszaki, gazdasági jelenséget jól lehet modellezni véletlen bolyongás segítségével. Az egydimen-ziós véletlen bolyongásnál egy pont mozog a számegyenes origójából kiindul-va. Mindentnidőpontbanp(0< p <1)valószínűséggel egy egységgel jobbra, q= 1−pvalószínűséggel balra mozdul el a pont. (A szemléletesség kedvéért ezt szokták a részeg tengerész problémájának nevezni). JelöljeXn az n-edik időpontban a pont helyzetét (koordinátáját). Nyilvánvaló, hogyXn diszkrét idejű homogén Markov-lánc, mivel a pont n+ 1-edik időpontbeli helyzete csak a közvetlenül megelőző állapottól függ (és persze a p értékétől). Az állapottér most az egész számok halmaza(i=. . . ,−2,−1,0,1,2, . . .).Mivel
így az átmeneti valószínűség mátrixa
Pontosan ezzel a modellel írható le például egy korlátlan hitellel rendelkező játékos vagyoni helyzete n játék után, ha egy végtelen tőkéjű ellenfél ellen játszik, és minden játékbanp valószínűséggel egy egységet nyer és q= 1−p valószínűséggel egy egységet veszít.
5.12. Példa. Egy véges tőkéjű játékos egy végtelen tőkéjű ellenféllel játszik és minden játékbanpvalószínűséggel egy egységet nyer és q= 1−p valószí-nűséggel egy egységet veszít, és nincs hitel. JelöljeXn azn-edik időpontban a játékosunk vagyonát. Xn ismét diszkrét idejű homogén Markov-lánc, mivel a játék múltja csak a jelen állapoton keresztül befolyásolja a következő állapo-tot. Az állapottér ekkor a nem-negatív egész számok halmaza(i= 0,1,2, . . .)
Az átmeneti valószínűség mátrix tehát
P =
Ezt a Markov-láncot tekinthetjük egy úgynevezett balról elnyelő falú véletlen bolyongásnak, azaz a Markov-lánc állapotai a számegyenesen a nem-negatív egész számok, éspvalószínűséggel egyet lép jobbra,q= 1−pvalószínűséggel egyet lép balra, kivéve ha a nullában van, mert akkor ott marad. Ennek általánosítása az alkalmazások szempontjából fontos elnyelő falú véletlen bo-lyongás:
5.13. Példa. Az elnyelő falú véletlen bolyongás esetében a Markov-lánc ál-lapotai a0≤n≤begész számok a számegyenesen, éspvalószínűséggel egyet lép jobbra,q= 1−pvalószínűséggel egyet lép balra, kivéve ha a két végpont valamelyikében van, mert akkor ott marad. Az átmeneti valószínűség mátrix
P =
5.14. Példa. (Sikersorozatok) Végezzünk el egymás után és egymástól füg-getlenül egy Bernoulli-kísérletsorozatot. A kísérlet két lehetséges kimenetele legyen pvalószínűséggelS siker ésq= 1−pvalószínűséggel B balsiker. Azt mondjuk, hogyn hosszúságú sikersorozatunk van, ha a B esemény bekövet-kezése után n alkalommal az S siker következett be. Legyen Xn az n-edik időpontban a sikersorozat hossza. (Például aBBSBSSBkísérletsorozat ese-ténX1 = 0, X2 = 0, X3 = 1, X4 = 0, X5 = 1, X6= 2, X7 = 0.) A sikersorozat hossza vagypvalószínűséggel eggyel nő , vagyq= 1−pvalószínűséggel0lesz (marad), tehát homogén Markov-lánc és az átmeneti valószínűség mátrix
P =
Jelölje egy Markov-lánc kezdeti valószínűség-eloszlását, azaz annak a valószí-nűségét, hogy a kiinduló időpillanatban a Markov-lánc a k-adik állapotban van:
Π(0)= (P (X0 = 1), P(X0 = 2), P(X0= 3), . . .). Hasonlóan jelölje ak-adik lépés után a folyamat eloszlását
Π(k)= (P(Xk = 1), P(Xk = 2), P(Xk = 3), . . .).
A kezdeti valószínűség-eloszlás és az átmeneti valószínűség mátrix segítségé-vel meg tudjuk határozni a Markov-lánc valószínűség-eloszlását az első lépés után.
5.15. ÁLLÍTÁS. Legyen P egy Markov-lánc átmeneti valószínűség mátrixa ésΠ(0)a kezdeti valószínűség-eloszlás, akkor a Markov-láncΠ(1) valószínűség-eloszlása az első lépés után
Π(1)= Π(0)P.
Bizonyítás. Ha a Markov-lánc lehetséges állapotai a0,1,2,3, . . . , akkor az X0 = 0, X0 = 1, X0 = 2, X0 = 3, . . . események teljes eseményrendszert alkotnak, így a teljes valószínűség tétele értelmében
P(X1 =j) = 5.16. Példa. (Keresd a bűnözőt! - folytatás) Ha tudjuk, hogy a bűnöző a kezdeti napon milyen Π(0) valószínűség-eloszlás szerint választja az i-edik barátnője lakását búvóhelynek, akkor az átmeneti valószínűség mátrix segí-ségével meghatározhatjuk annak aΠ(1) valószínűség-eloszlását, hogy hol lesz a következő napon. Legyen például az átmeneti valószínűség mátrix
P =
és a kezdeti eloszlás Akkor az első "váltás" utáni valószínűség eloszlás
Π(1)= Π(0)·P =
= (0.3542 0.2917 0.3542). A második nap végén
Π(2) = Π(1)·P = Π(0)·P2 = (0.3628 0.2743 0.3628). A negyedik nap után a valószínűség eloszlás
Π(4) = Π(0)·P4 = (0.3636 0.2727 0.3636), míg például a tizedik nap után
Π(10) = Π(0)·P10 = (0.3636 0.2727 0.3636).
Azaz már (4 tizedes pontosságig) ugyanazt az eredményt kaptuk. Úgy néz ki, hogy egy időtől független ún. stacionárius eloszlást kapunk. Most annak a feltételeit szeretnénk vizsgálni, hogy mikor garantált az ilyen stacionárius eloszlás.
5.2. Állapotok osztályozása
Azt mondjuk, hogy a j állapot elérhető az i állapotból, ha véges számú lépésben pozitív az iállapotból aj állapotba kerülés valószínűsége, azaz ha van olyann, hogy a Pjin n-lépéses átmeneti valószínűség pozitív.
5.17. Definíció. Ha minden állapot elérhető minden állapotból, akkor a Markov-láncotirreducibilisnek nevezzük.
Például a 5.9 példa Markov-lánca irreducibilis, ha mindenpi pozitív, hiszen ekkor Pji1 =pi >0.
Ha az i és j állapotok kölcsönösen elérhetőek, azaz az i állapotból elérhető a j állapot és a j állapotból is elérhető az i állapot, akkor a két állapotot kapcsolódónak nevezzük és a következő jelölést használjuk:
i←→j.
5.18. ÁLLÍTÁS. A kapcsolódás reláció ekvivalencia reláció, azaz teljesül a következő három tulajdonság:
a) (reflexív) i←→i,
b) (szimmetrikus) ha i←→j, akkor j ←→i,
c) (tranzitív) ha i←→j, és j ←→k,akkor i←→k.
Bizonyítás. a) Mivel definíció szerint Pii0 = 1 , így minden állapot saját magával azonos osztályban van.
b) Nyilvánvaló, hogy hai←→j,azaz az i állapotból elérhető a j állapot és
b) Nyilvánvaló, hogy hai←→j,azaz az i állapotból elérhető a j állapot és