• Nem Talált Eredményt

A normális eloszlás lineáris regressziós becslései

4. Egydimenziós közelítések 49

4.2. A többdimenziós normális eloszlás egy egyenes mentén való közelítései

4.2.1. A normális eloszlás lineáris regressziós becslései

Legyen a 0 várható értékű, R korreláció mátrixszú m-dimenziós normális eloszlás elos-zlásfüggvénye adott a következőképpen:

Feltesszük, hogy az eloszlás nem degenerált, tehát R pozitív definit mátrix, minden komponens szórása 1 – a nemstandard eloszlások lineáris transzformációval kezelhetők.

AΦ(h)függvényértékek kiszámítására használt Monte Carlo módszerek egyηvalószínűségi változó y1, . . . , yn független realizációit állítják elő, ahol E(η) = Φ(h). A függvényérték

torzítatlan becslését használják a numerikus számításokban a Φ(h) közelítő értékeként.

Ha D2(η) = σ2, akkor D2(y) = σ2/n, vagyis az y becslés szórása σ/√

n. A centrális határeloszlás tétel alapján azηvalószínűség változóról feltesszük, hogy normális eloszlású, azaz η∈N(Φ(h), σ).

Jelölje a többdimenziós normális eloszlás eloszlásfüggvényének egy egyenes mentén valóR1 →R1 függvényét f(x), vagyis legyen

f(x) = Φ(z+x(d−z)),

ahol z,d rögzítettek, valamint feltesszük, hogy d növekvő irány, tehát f(x1)< f(x2), hax1 < x2 – ez a feltevés csak a csonkolás és a gyökkeresés leírásának leegyszerűsítésére szolgál, de egyébként nem lényeges kikötés és nem szűkíti az általánosságot.

Három olyan eljárást írunk le, amelyek segítségével az f(x)függvény közelítéseit lehet megkonstruálni. Ezeknek az egyváltozós közelítéseknek az alkalmazása végsősoron azt eredményezi, hogy azm-dimenziós térben lévő feladatok helyett csak egydimenziós felada-tokat kell megoldani (például a gyökkeresésnél, vagy a gradiens kiszámításánál). Továbbá

egy iteratív eljárás segítségével a közelítések egy adott pontban egyre pontosabbakká tehetők – anélkül, hogy pontosan tudnánk, hogy hol van ez a pont.

Tegyük fel, hogy a rendelkezésünkre áll egy Monte Carlo eljárás, amelynek segítségével az f(xi), i= 1, . . . , n függvényértékek (zajos) pi becsléseit meg tudjuk határozni, ahol pi

egy valószínűségi változó, amelyre pi = f(xi) + ξ, ξ ∈ Ne(0,eσ). Itt Ne(0,eσ) a nulla várható értékű,σszórású egydimenziós normális eloszlásnak egy csonkolt változata, vagyis a csonkolt eloszlás 0 várhatóértékű, eσ szórású, sűrűségfüggvénye pedig

φ(x) =e Cexp

− x22

, x∈[−3σ,3σ], ahol a konstans értékeC = 1.0028/(√

2πσ). Feltesszük még, hogy0< f(xi)−3σ, f(xi) + 3σ <1fennáll, vagyis 0< pi <1,∀i.

Legyen adott az xi pontoknak egy halmaza, amelyekhez meghatározhatjuk a Φ füg-gvényértékek pi közelítéseit, tehát rendelkezésünkre áll a S = {xi, pi}ni=1 halmaz. Ebből kiindulva af(·)függvénynek egyt(·)regressziós becslését határozzuk meg. At(·)alakjára vonatkozóan három különböző feltevést fogadunk el, ennek megfelelően háromfajta bec-slést konstruálunk. Itt tulajdonképpen azt használjuk ki, hogy a 4.1 részben alkalmazott közelítések viszonylag jól közelítették a normális eloszlásfüggvényt, ezért a hasonló alakú becslések várhatólag jók lesznek itt is.

Az alapbecslés – az eredeti f(·) függvény kvadratikus approximációja

Keressük a t1(x) becslést, amelynek alakja g1(x) = a1x2 +b1x +c1, ahol az a1, b1, c1 paramétereket úgy határozzuk meg, hogy a hibák négyzeteinek összege minimális legyen.

Ezt a

amin1,b1,c1

n

X

i=1

[pi−(a1x2i +b1xi+c1)]2 (4.12) feladat megoldásával lehet elvégezni. Az elsőrendű szükséges optimalitási feltételek alapján a fenti összeget az a1, b1, c1 szerint deriváljuk, és a deriváltakat 0-val egyenlővé tesszük. A keletkezett egyenletrendszer lineáris a paraméterekben, tehát könnyen megold-ható (a teljes jelölésrendszer és megoldás például a [De 98b] cikkben találmegold-ható).

Nyilvánvalóan a0≤f(x)≤1egyenlőtlenségek teljesülnek, tehát azonnal csonkolnunk kell a kapott függvényt, ezt null–csonkolásnak nevezzük: jelöljeIa számunkra elfogadható intervallumot I ={x|0≤g1(x)≤1}, és ekkor becslésünk alakja t1(x) =g1(x), ha x∈I.

A feltevés alapján f(x) monoton növekvő, tehát a g1(x) függvénynek a monoton növekvő része használható, mint az f(x) függvény egy becslése. A Φ eloszlásfüggvény logaritmikusan konkáv, tehát a g1(x)függvénynek is konkávnak kell lennie (most eltekin-tünk azoktól az esetektől, amikorpi kiszámított értékekben fellépő véletlen hibák miatt a g1(x)függvény esetleg konvexszé válik). Ennek alapján egy újabb csonkolást hajtunk vé-gre, amelyet az állandó–csonkolásnak nevezünk. Legyen a g10(xt) = 0 egyenlet megoldása

xt=−b1/(2a1), akkor a null–csonkolás és az állandó–csonkolás figyelembevételével at1(x) becslést a következőképpen definiáljuk:

t1(x) =

( max(0,min(1, g1(x))), ha−∞< x≤xt, max(0,min(1, g1(xt))), haxt < x <∞,

ahol g1(xt) = c1 −b21/(4a1). Egyes esetekben másmilyen csonkolásra is szükségünk lehet; nevezzük lineáris csonkolásnak azt, amikor a függvény levágott részét a g1(xt) ál-landó helyett egy olyan monoton növő lineáris függvénnyel helyettesítjük, amely a g1(x) függvény érintője az xtt =xt−κ pontban (ahol κ >0 egy kis szám), de csak addig, míg az 1 értéket el nem éri. Pontosabban legyen az egyenes egyenleteatx+bt, akkor a

atxtt+bt =g(xtt), 2a1xtt+b1 =at

egyenlőségekből határozhatók meg az egyenes at, bt paraméterei. Tehát a t1(x) alap-becslés a null-csonkolás és a lineáris csonkolás esetén

t1(x) =





max(0,min(1, g1(x))), ha −∞< x≤xtt

max(0,min(1, atx+bt)), ha xtt < x≤(1−bt)/at, 1, ha (1−bt)/at< x < ∞.

A további becslések esetén az egyszerűség kedvéért csak az állandó–csonkolást írjuk le, bár a null–csonkolást mindig el kell végezni és a lineáris csonkolás is végrehajtható (az állandó csonkolás helyett). Hasonlóképpen nem foglalkozunk azzal az esettel, amikorf(x) függvény definíciójában szereplődirány nem növekvő irány. Ezek az elhanyagolások csak a gyökkeresés folyamatának egyszerűbb leírásához vezetnek – azf(x) mindig közelíthető egyg1(x)alakú függvénnyel.

Jegyezzük meg, hogy a t1(x) approximáló függvény monoton növővé tehető, de a konkávitását nem lehet garantálni. Hasonlóképpen a továbbit2(x), t3(x) becslések esetén sem lehet a konkávitást biztosítani, csak arra hivatkozhatunk, hogy a legtöbb gyakor-lati számítás során ezt aszimptotikusan (a felvett pontok számának megfelelően naggyá választásával) mindig elértük.

Logaritmikus becslés – a logf(·) kvadratikus approximációja

Azf(x)függvény közvetlen approximációja helyett most egyg2(x) =a2x2+b2x+c2 alakú függvényt használunk alogf(x)függvény közelítésére, tehát azf(x)közelítésére használt logaritmikus becslésünkt2(x) = exp{g2(x)}. Ez a becslés is könnyen meghatározható: egy lineáris egyenletrendszerből kaphatók a paraméterek. Vezessük be a qi = logpi jelölést, akkor a megoldandó feladatunk

min

a2,b2,c2

n

X

i=1

qi−(a2x2i +b2xi+c2)2

wi, (4.13)

ahol a wi normalizált súlyokat is használtuk (ezeket később adjuk meg). Az a2, b2, c2 paramétereket a (4.13) feladatból az előzőleg leírtak szerint lehet kiszámítani (lásd még [De 98b]). Prékopa eredményei alapján [Pr 95] a Φ(h) logkonkáv, tehát a logf(x) füg-gvény konkáv és monoton növekvő, tehátg2(x)függvényt is konkávvá és monoton növővé kell tenni. Legyenxt =−b2/(2a2)a csonkolási pont, amivel at2(x)becslés a következőkép-pen adható meg.

t2(x) =

( max(0,min(1,exp{g2(x)})), ha −∞< x≤xt, max(0,min(1,exp{g2(xt)})), ha xt< x <∞.

A fordított–logaritmikus becslés – a log(1−f(x)) kvadratikus approximációja Alog(1−f(x))függvényt egyg3(x) = a3x2+b3x+c3 alakú függvénnyel közelítjük, tehát a t3(x) = 1−exp{g3(x)} függvény az eredeti f(x) függvény egy becslése lesz. Ez is egy lineáris regresszió, melynek paramétereit a

a3min,b3,c3

n

X

i=1

[ri−(a3x2i +b3xi+c3)]2wi.

minimalizálási feladat elsőrendű szükséges feltételeiből lehet meghatározni – itt használ-tuk az ri = log(1−pi), i= 1, . . . , n jelölést, a wi normalizált súlyokat később határozzuk meg. Aza3, b3, c3meghatározása egyszerűen úgy végezhető, hogy aza2, b2, c2esetén kapott kifejezésekben aqi jelöléseketri-re cseréljük. Alog(1−f(x))függvény monoton csökkenő.

Egy megfelő csonkolás eléréséhez feltesszük, hogy az approximáló függvény konkáv (a konvex eset hasonlóan kezelhető) és azxt=−b3/(2a3) pontot használjuk csonkolási pon-tként. A fordított logaritmikus becslés a null– és az állandó–csonkolás alkalmazása esetén a következő:

t3(x) =

( max(0,min(1,1−exp{g3(xt)})), ha −∞< x≤xt max(0,min(1,1−exp{g3(x)})), ha xt< x <∞.

Emlékeztetünk arra, hogy a 4.1 részben leírtak szerint egy ilyen alakú és módon számolt, az egydimenziós normális eloszlásfüggvényt közelítő függvény három tizedesre pontos eredményt ad, így remélhetőleg ez a becslés jól közelíti az m-dimenziós normális eloszlásfüggvény egy egyenes mentén való függvényét is.