2.4 Képrekonstrukció algebrai összefüggésekkel
2.4.4 Statisztikai alapú képrekonstrukciós stratégiák
Egészítsük ki korábbi egyenletünket azzal a megfontolással, hogy lineáris egyenletrendszerünk csak, mint a mért adatok, mint statisztikai mennyiségek várható értékére ( ) igaz:
tehát rendszerünk bemenő információi, a mérési adatok nem "kőbe vésett" egzakt értékek, hanem még ha zajjal egyáltalán nem is terhelt rendszerről van szó, több értéket is "legálisan"
felvehetnek úgy, hogy az x ismeretlenek értéke állandó. Az ismeretleneket a mért értékek terébe vetítő operátor lineáritását értelmezhetjük statisztikai függetlenségnek is, pl. emissziós tomográfia esetén az egyes voxelekben bekövetkező radioaktív bomlások függetlenek a szomszéd voxel bomlásaitól, transzmissziós tomográfia esetén ez a spektrális változás figyelmen kívül hagyásig igaz csak. Általánosítsuk modellünket úgy, hogy a mért adatokat és az ismeretleneket egy valószínűség-sűrűség függvény köti össze olyan értelemben, hogy egy adott x mellett milyen valószínűség-eloszlással kapunk egy adott y kimenetelt; jelöljük ezt a valószínűség-sűrűség függvényt -vel. Amennyiben x-et is valváltozónak tekintjük, jelölésünk lenne.
A Maximum-Likelihood becslés
A statisztikai becsléselmélet alapvető technikája a Maximum-Likelihood becslés, amikor keressük azt az x paramétervektort, ahol az adott mérési eredmény maximális valószínűséggel fordulna elő, azaz becslésünk a következő lenne:
A mérhető fizikai mennyiségek döntő hányada az exponenciális eloszláscsaládból származik, ezért a likelihood-függvény logaritmusára (log-likelihood-függvény) fogalmazzák meg a maximalizációs kritériumot.
A Maximum-Likelihood becslés elmélete és gyakorlata alapvető matematikai technika, melyet itt nem kívánunk részletesen bemutatni, mindössze egy példát közlünk az ismétlés kedvéért.
Példa külön oldalon Maximum-Likelihood becslésre.
Bayes becslés és a Maximum Aposteriori kritérium
Tekintsük most a modell x paramétereit is valószínűségi változóknak, és tekintsük annak a valószínűségét, hogy az y mért adatokat kaptunk, mi volna a sűrűségfüggvénye a paramétereknek:
A Bayes-becslés ezt a valószínűség-sűrűség függvényt maximalizálja, ezzel ad választ arra a kérdésre, hogy mi volna a legvalószínűbb paraméter-eloszlás, feltéve a mért értékeket. Ezt a valószínűséget tekinthetjük az aposteriori, azaz a mérés utáni eloszlásfüggvénynek, a módszer a Maximum Aposteriori (MAP) elnevezést kapta. Matematikai szimbólumokban a Bayes-tétel felhasználásával:
49 Az első maximalizációs tag a Maximum-Likelihood becslésből már ismert kifejezés, a második a paraméterek sűrűségfüggvényétől függ, ez tartalmazhatja a paramétereket illető előzetes, apriori tudásunkat, magát a függvényt pedig angol terminológiával priornak nevezehetjük. Értelmezése abban áll, hogy a paraméterek sem vehetnek föl tetszőleges értéket, hiszen például az aktivitás-koncentráció értéke nem haladhatja meg a beadott radiofarmakon aktivitás-koncentrációját, vagy a vizsgált objektum (pl. agy) megszabja az aktivitás lokalizáltságát. A priorban megfogalmazható előzetes tudásunkat a paraméter-eloszlásokról nagyban befolyásolja az, hogy mennyire sikerül matematizálni. A gyakorlatban a priorok egészen egyszerű feltételeket tartalmazhatnak, pl. a rekonstruálandó eloszlás folytonosságát ill. simaságát jellemzik. Tekintve az ln függvény gyakori alkalmazását, a priorokat exponenciális formában fogalmazzák meg, ezt Gibbs-priornak hívjuk:
Ha például előzetes tudásunk arra vonatkozik, hogy ha egy voxelben van rekonstruált értékünk, akkor a szomszédai értéke sem térhet el ettől, az U(x) potenciál lehet arányos a voxelértékek átlagos távolságával a kérdéses voxelértéktől.
Maximum-Likelihood Expectation Maximisation (ML-EM algoritmus)
A Maximum Likelihood módszer bővítését jelenti a Maximum-Likelihood Expectation Maximisation módszer, mely a modellezés kiterjesztését jelenti olyan virtuális valószínűségi változók bevonásával, melyek a modellezést pontosabbá, a maximalizációs eljárást egyszerűbbé teszik. Az ML-EM algoritmus is alkalmazhat priorokat, ekkor a fentiekkel analógiában MAP-EM módszernek hívják.
Mivel az ML-EM eljárás alapvető eszköze az iteratív orvosi képalkotásnak, bővebben foglalkozunk vele a következő fejezetben.
2.4.4.1 Példa Maximum-Likelihood becslésre
Vegyünk N db yi mérési eredményt, melyek feltehetőleg függetlenek egymástól, de azonos folyamat eredményeként jöttek létre, mely leírható egy várható értékű, szórású normális eloszlással:
A független yi események együttes sűrűség függvénye az egyedi valószínűség-sűrűség függvények szorzata:
Ebből a log-likelihood-függvény:
50
Keressük a maximumot a paraméterek szerinti deriváltakat nullával egyenlővé téve:
ebből becslésünk -re:
a mért adatok átlaga. A szerinti parciális derivált:
ebből:
A teljesség kedvéért megemlítjük, hogy a szórásnégyzetre kapott képletben még van egy ismeretlenünk, , melyet kézenfekvő volna -vel helyettesíteni. Mint ismeretes, ezzel a behelyettesítéssel a szórás becslése torzított lesz, melyet korrigálhatunk egy N/(N-1)-es szorzófaktorral.
A továbbiakban folytatjuk a becsléselméleti megfontolásainkat a Bayes-becslés tárgyalásával.
2.4.5 Az ML-EM algoritmus
A Maximum-Likelihood Expectation Maximisation (ML-EM módszer)
Az ML-EM módszer lényege, hogy a mért értékek együttes sűrűségfüggvénye nem tartalmazza a - tegyük fel - kimaradt mérések sűrűségfüggvényét, melyek mégis döntően befolyásolják a becslést. Ezt a hiányzó információt iteratívan próbáljuk közelíteni, mely során minden iterációs lépésben elvégezzük a ML-becslést is. Gondolhatunk például arra, hogy a mért adatok egymástól teljesen függetlenek, és teljesen független paramétercsoportokkal állnak összefüggésben. Ha tudnánk, hogy melyik adat melyik csoportba tartozik, sokkal pontosabb ML becslést végezhetnék ezeken a csoportokon. Az ML-EM módszer E lépése megpróbálja ennek a hiányzó paraméternek a hatását figyelembe venni anélkül, hogy konkrétan ezekre az értékekre is becslést szolgáltatna.
Tegyük fel, hogy a mért y adatok kiegészíthetőek egy s adatvektorrá, mely tartalmazza a hiányzó információkat. Ekkor felállítható egy statisztikai modell a következő sűrűségfüggvénnyel:
Az ML-EM módszer a következő lépések ismétlésével végzi az iterációt:
1) A módszer E (Expectation) lépése
Az n. iterációban kapott xn paraméterbecslés alapján a staisztikai modellünk segítségével kiszámoljuk a likelihood-függvényünket a következő feltételes várhatóértékkel minden lehetséges x paraméterre:
51
2) A módszer M (Maximization) lépése
Az előállt likelihood-függvénnyel hagyományos ML lépést végzünk:
Az ML-EM módszer konvergenciája
Felmerül a kérdés: ha a hiányzó adatok nem mérhetőek, hogyan nyerünk plusz információt, mellyel pontosíthatjuk a becslésünket? A válasz a modellezésben magában van, a módszerrel a statisztikai modell árnyalása ad módot a jobb becslésre. Be kell azonban látnunk, hogy ez a plusz információ legalábbis nem ront a korábbi becslési eljárásunkon. Ehhez írjuk fel a teljes adathalmazra vonatkozó sűrűségfüggvényt a Bayes-tétel segítségével:
A log-likelihood függvény tehát kifejezhető:
Nézzük meg, hogy hogyan változik a log-likelihood-függvény értéke az E és M lépések elvégzése után, ahol a várható érték az s valószínűségi változóra értendő:
A baloldal s-et nem tartlamazza, tehát a várható értéke önmaga. Nézzük most meg, hogy az n.
és n+1. iterációs lépés között a log-likelihood-függvény hogyan változik, ha behelyettesítjük a becsült paramétereket:
Az algoritmus M lépése a tagot, amennyiben sikeresen maximalizálta, akkor a behelyettesített értékek különbsége pozitív. A második tag várható értékét becsülhetjük a következő egyenlőtlenség felhasználásával:
tehát:
Azaz az E és M lépések hatására R változása negatív.
Beláttuk tehát, hogy
Ezzel beláttuk, hogy az algoritmus legalábbis nem ront az egyszerű ML algoritmuson.
A következő fejezeteben az ML-EM algoritmus alkalmazását tekintjük át az Emissziós Tomográfiában.
52