• Nem Talált Eredményt

2.4 Képrekonstrukció algebrai összefüggésekkel

2.4.4 Statisztikai alapú képrekonstrukciós stratégiák

Egészítsük ki korábbi egyenletünket azzal a megfontolással, hogy lineáris egyenletrendszerünk csak, mint a mért adatok, mint statisztikai mennyiségek várható értékére ( ) igaz:

tehát rendszerünk bemenő információi, a mérési adatok nem "kőbe vésett" egzakt értékek, hanem még ha zajjal egyáltalán nem is terhelt rendszerről van szó, több értéket is "legálisan"

felvehetnek úgy, hogy az x ismeretlenek értéke állandó. Az ismeretleneket a mért értékek terébe vetítő operátor lineáritását értelmezhetjük statisztikai függetlenségnek is, pl. emissziós tomográfia esetén az egyes voxelekben bekövetkező radioaktív bomlások függetlenek a szomszéd voxel bomlásaitól, transzmissziós tomográfia esetén ez a spektrális változás figyelmen kívül hagyásig igaz csak. Általánosítsuk modellünket úgy, hogy a mért adatokat és az ismeretleneket egy valószínűség-sűrűség függvény köti össze olyan értelemben, hogy egy adott x mellett milyen valószínűség-eloszlással kapunk egy adott y kimenetelt; jelöljük ezt a valószínűség-sűrűség függvényt -vel. Amennyiben x-et is valváltozónak tekintjük, jelölésünk lenne.

A Maximum-Likelihood becslés

A statisztikai becsléselmélet alapvető technikája a Maximum-Likelihood becslés, amikor keressük azt az x paramétervektort, ahol az adott mérési eredmény maximális valószínűséggel fordulna elő, azaz becslésünk a következő lenne:

A mérhető fizikai mennyiségek döntő hányada az exponenciális eloszláscsaládból származik, ezért a likelihood-függvény logaritmusára (log-likelihood-függvény) fogalmazzák meg a maximalizációs kritériumot.

A Maximum-Likelihood becslés elmélete és gyakorlata alapvető matematikai technika, melyet itt nem kívánunk részletesen bemutatni, mindössze egy példát közlünk az ismétlés kedvéért.

Példa külön oldalon Maximum-Likelihood becslésre.

Bayes becslés és a Maximum Aposteriori kritérium

Tekintsük most a modell x paramétereit is valószínűségi változóknak, és tekintsük annak a valószínűségét, hogy az y mért adatokat kaptunk, mi volna a sűrűségfüggvénye a paramétereknek:

A Bayes-becslés ezt a valószínűség-sűrűség függvényt maximalizálja, ezzel ad választ arra a kérdésre, hogy mi volna a legvalószínűbb paraméter-eloszlás, feltéve a mért értékeket. Ezt a valószínűséget tekinthetjük az aposteriori, azaz a mérés utáni eloszlásfüggvénynek, a módszer a Maximum Aposteriori (MAP) elnevezést kapta. Matematikai szimbólumokban a Bayes-tétel felhasználásával:

49 Az első maximalizációs tag a Maximum-Likelihood becslésből már ismert kifejezés, a második a paraméterek sűrűségfüggvényétől függ, ez tartalmazhatja a paramétereket illető előzetes, apriori tudásunkat, magát a függvényt pedig angol terminológiával priornak nevezehetjük. Értelmezése abban áll, hogy a paraméterek sem vehetnek föl tetszőleges értéket, hiszen például az aktivitás-koncentráció értéke nem haladhatja meg a beadott radiofarmakon aktivitás-koncentrációját, vagy a vizsgált objektum (pl. agy) megszabja az aktivitás lokalizáltságát. A priorban megfogalmazható előzetes tudásunkat a paraméter-eloszlásokról nagyban befolyásolja az, hogy mennyire sikerül matematizálni. A gyakorlatban a priorok egészen egyszerű feltételeket tartalmazhatnak, pl. a rekonstruálandó eloszlás folytonosságát ill. simaságát jellemzik. Tekintve az ln függvény gyakori alkalmazását, a priorokat exponenciális formában fogalmazzák meg, ezt Gibbs-priornak hívjuk:

Ha például előzetes tudásunk arra vonatkozik, hogy ha egy voxelben van rekonstruált értékünk, akkor a szomszédai értéke sem térhet el ettől, az U(x) potenciál lehet arányos a voxelértékek átlagos távolságával a kérdéses voxelértéktől.

Maximum-Likelihood Expectation Maximisation (ML-EM algoritmus)

A Maximum Likelihood módszer bővítését jelenti a Maximum-Likelihood Expectation Maximisation módszer, mely a modellezés kiterjesztését jelenti olyan virtuális valószínűségi változók bevonásával, melyek a modellezést pontosabbá, a maximalizációs eljárást egyszerűbbé teszik. Az ML-EM algoritmus is alkalmazhat priorokat, ekkor a fentiekkel analógiában MAP-EM módszernek hívják.

Mivel az ML-EM eljárás alapvető eszköze az iteratív orvosi képalkotásnak, bővebben foglalkozunk vele a következő fejezetben.

2.4.4.1 Példa Maximum-Likelihood becslésre

Vegyünk N db yi mérési eredményt, melyek feltehetőleg függetlenek egymástól, de azonos folyamat eredményeként jöttek létre, mely leírható egy várható értékű, szórású normális eloszlással:

A független yi események együttes sűrűség függvénye az egyedi valószínűség-sűrűség függvények szorzata:

Ebből a log-likelihood-függvény:

50

Keressük a maximumot a paraméterek szerinti deriváltakat nullával egyenlővé téve:

ebből becslésünk -re:

a mért adatok átlaga. A szerinti parciális derivált:

ebből:

A teljesség kedvéért megemlítjük, hogy a szórásnégyzetre kapott képletben még van egy ismeretlenünk, , melyet kézenfekvő volna -vel helyettesíteni. Mint ismeretes, ezzel a behelyettesítéssel a szórás becslése torzított lesz, melyet korrigálhatunk egy N/(N-1)-es szorzófaktorral.

A továbbiakban folytatjuk a becsléselméleti megfontolásainkat a Bayes-becslés tárgyalásával.

2.4.5 Az ML-EM algoritmus

A Maximum-Likelihood Expectation Maximisation (ML-EM módszer)

Az ML-EM módszer lényege, hogy a mért értékek együttes sűrűségfüggvénye nem tartalmazza a - tegyük fel - kimaradt mérések sűrűségfüggvényét, melyek mégis döntően befolyásolják a becslést. Ezt a hiányzó információt iteratívan próbáljuk közelíteni, mely során minden iterációs lépésben elvégezzük a ML-becslést is. Gondolhatunk például arra, hogy a mért adatok egymástól teljesen függetlenek, és teljesen független paramétercsoportokkal állnak összefüggésben. Ha tudnánk, hogy melyik adat melyik csoportba tartozik, sokkal pontosabb ML becslést végezhetnék ezeken a csoportokon. Az ML-EM módszer E lépése megpróbálja ennek a hiányzó paraméternek a hatását figyelembe venni anélkül, hogy konkrétan ezekre az értékekre is becslést szolgáltatna.

Tegyük fel, hogy a mért y adatok kiegészíthetőek egy s adatvektorrá, mely tartalmazza a hiányzó információkat. Ekkor felállítható egy statisztikai modell a következő sűrűségfüggvénnyel:

Az ML-EM módszer a következő lépések ismétlésével végzi az iterációt:

1) A módszer E (Expectation) lépése

Az n. iterációban kapott xn paraméterbecslés alapján a staisztikai modellünk segítségével kiszámoljuk a likelihood-függvényünket a következő feltételes várhatóértékkel minden lehetséges x paraméterre:

51

2) A módszer M (Maximization) lépése

Az előállt likelihood-függvénnyel hagyományos ML lépést végzünk:

Az ML-EM módszer konvergenciája

Felmerül a kérdés: ha a hiányzó adatok nem mérhetőek, hogyan nyerünk plusz információt, mellyel pontosíthatjuk a becslésünket? A válasz a modellezésben magában van, a módszerrel a statisztikai modell árnyalása ad módot a jobb becslésre. Be kell azonban látnunk, hogy ez a plusz információ legalábbis nem ront a korábbi becslési eljárásunkon. Ehhez írjuk fel a teljes adathalmazra vonatkozó sűrűségfüggvényt a Bayes-tétel segítségével:

A log-likelihood függvény tehát kifejezhető:

Nézzük meg, hogy hogyan változik a log-likelihood-függvény értéke az E és M lépések elvégzése után, ahol a várható érték az s valószínűségi változóra értendő:

A baloldal s-et nem tartlamazza, tehát a várható értéke önmaga. Nézzük most meg, hogy az n.

és n+1. iterációs lépés között a log-likelihood-függvény hogyan változik, ha behelyettesítjük a becsült paramétereket:

Az algoritmus M lépése a tagot, amennyiben sikeresen maximalizálta, akkor a behelyettesített értékek különbsége pozitív. A második tag várható értékét becsülhetjük a következő egyenlőtlenség felhasználásával:

tehát:

Azaz az E és M lépések hatására R változása negatív.

Beláttuk tehát, hogy

Ezzel beláttuk, hogy az algoritmus legalábbis nem ront az egyszerű ML algoritmuson.

A következő fejezeteben az ML-EM algoritmus alkalmazását tekintjük át az Emissziós Tomográfiában.

52