Ellen®rz® kérdések
3. Lineáris egyenletrendszerek megoldása
3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása
Most áttérünk a lineáris egyenletrendszerek klasszikus iterációs megoldási módszereire. Továbbra is feltesszük, hogy az Ax = b egyenletrendszer együtthatómátrixa négyzetes, és determinánsa nullától különbözik. Ekkor az egyértelm¶ megoldást jelölje x?. Az iterációs módszerek általában olyan konvergens sorozatokat konstruálnak, melyek határértéke az egyenlet megoldása. Lineáris egyenletrendszerek esetén a lineáris iterációs eljárásokkal foglalkozunk, melyek alakja
x(k+1)=Bx(k)+f, k= 0,1, . . . , (3.6.1) ahol az{x(k)} sorozattól várjuk el, hogy tartson a megoldáshoz. Rögtön láthatjuk, hogy a mát-rixszal való szorzás és a vektorösszeadás m¶veletigénye 2n2 op. Azaz kb. n/3 iterációs lépést végezhetünk az iterációval ahhoz, hogy a Gauss-módszer m¶veletigényét ne haladjuk meg. Ez azt jelentené, hogy pl. egy 100×100-as egyenletrendszer megoldása során 33 lépésb®l elegend®en közel kellene kerülnünk a megoldáshoz. Ennek egy tetsz®legesen választott kezd®vektor esetén kicsi az esélye. Az iterációs módszereket általában ezért ún. ritka mátrixokra (azaz olyan mát-rixokra, melyekben a nemnulla elemek számaO(n)nagyságrend¶) alkalmazzuk.5 Megjegyezzük, hogy dierenciálegyenletek numerikus megoldása során gyakran ilyen típusú mátrixokat kapunk, így ezekben az esetekben jól alkalmazható a módszer.
Az iterációs megoldások esetén a következ® kérdések vet®dnek fel.
• Hogyan válasszuk meg a B mátrixot és az f, x(0) vektorokat?
• Mikor konvergál a megoldáshoz a sorozat?
• Mekkora lesz a konvergencia sebessége?
• Honnét tudjuk, hogy mikor álljunk le az iterációval?
3.6.1. deníció.
Az x(k+1) = Bx(k)+f iterációt az Ax = b egyenletrendszerrel konzisztensnek hívjuk, ha x?=Bx?+f. (Az x? vektor az egyenletrendszer megoldása.)
Tekintsük az F : Rn → Rn, F(x) = Bx+f függvényt. Erre a függvényre valamilyen k.k vektornormában és a neki megfelel® indukált mátrixnormában igaz, hogy
kF(x1)−F(x2)k=kBx1+f−(Bx2+f)k=kB(x1−x2)k ≤ kBkkx1−x2k
tetsz®leges x1,x2 ∈ Rn vektorokra. Így tehát, ha kBk < 1, akkor az F leképezés kontrakció, és teljesülnek a Banach-féle xponttétel feltételei. Ebben az esetben tehát a (3.6.1) iterációt
5Az iterációs módszereket f®leg olyan ritka mátrixok esetén érdemes alkalmazni, melyekben a nemnulla elemek elhelyezkedése nem jól strukturált. Sávmátrixos egyenletrendszerek a Gauss-módszer egyszer¶ módosításával direkt módon is gyorsan megoldhatók (lásd pl. ingamódszer).
3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 77
bármilyen vektorról indítva az F leképezés xpontjához fog tartani, ami a lineáris egyenletrend-szerrel konzisztens iterációk esetén az egyenletrendszer megoldása. A normák ekvivalenciája miatt természetesen nem csak az adott vektornormában, hanem tetsz®leges más normában is az egyen-letrendszer megoldásához fog tartani az iteráció. Ezt a megállapítást az1.2.32.tétellel összevetve láthatjuk, hogy konzisztens iterációk esetén a %(B) <1 feltétel szükséges és elégséges feltétele annak, hogy a (3.6.1) iteráció tetsz®leges kezd®vektor esetén az egyenletrendszer megoldásához tartson. Ez az állítás közvetlenül is igazolható. Legyen e(k)=x(k)−x?az ún. hibavektor. Ekkor a konvergencia azt jelenti, hogy e(k)→0(k→ ∞), azaz ke(k)k →0 valamilyen normában.
3.6.2. tétel.
Egy, az Ax=b egyenletrendszerrel konzisztens lineáris iteráció pontosan akkor tart az egyen-letrendszer megoldásához tetsz®leges kezd®vektor esetén, ha %(B)<1.
Bizonyítás. Az
e(k+1)=x(k+1)−x?=Bx(k)+f−(Bx?+f) =Be(k)
egyenl®ség miatt e(k) = Bke(0). A konvergenciához az kell, hogy Bk nullmátrixhoz tartson, aminek szükséges és elégséges feltétele, hogy%(B)<1legyen.
A bizonyításból nyilvánvaló, hogy a konvergencia annál gyorsabb, minél kisebb a B mátrix konvergenciasugara. Így a konvergenciára és a konvergencia sebességére vonatkozó kérdésekre már meg is találtuk a választ. Foglalkozzunk most a (3.6.1) iteráció el®állításával.
Tegyük fel, hogy az A együtthatómátrixot el®állítottuk A=S−T alakban, ahol S reguláris mátrix. Ekkor a b=Ax= (S−T)x egyenl®séget S inverzével balról szorozva, majd x-et kifejezve x=S−1Tx+S−1b.Ezen egyenl®ség miatt az
x(k+1)=S−1T
| {z }
=B
x(k)+S−1b
| {z }
=f
iteráció konzisztens az egyenletrendszerrel.
Az S mátrixot prekondicionálási mátrixnak hívjuk. Ez a mátrix határozza meg, hogy mennyire nehéz vagy könny¶ az iteráció végrehajtása. Megválasztását két, egymással ellentétes követelmény határozza meg. Egyrészt könnyen invertálhatónak kell lennie, hiszen az iterációhoz szükség van a mátrix inverzére, másrészt a B=S−1T=S−1(S−A) =E−S−1A egyenl®ség miatt jó lenne, ha S "közel lenne A-hoz", hiszen akkor a B mátrix spektrálsugara jóval kisebb lehetne, mint 1, ami gyors konvergenciát eredményezne.
Nézzünk meg két speciális esetet S megválasztására! Legyen el®ször S=A. Ekkor az iteráció x(k+1) = (E−S−1A)x(k)+S−1b = 0x(k)+A−1b alakú lesz, ami egy lépésben konvergál a megoldáshoz bármely kezd®vektor esetén. Ebben az esetben S ugyan közel van A-hoz (hiszen megegyezik vele), de inverzének meghatározása egyenérték¶ az egyenletrendszer direkt megoldá-sával, így az eljárás nem ad semmi el®nyt a direkt módszerekhez képest. A másik esetben legyen S az egységmátrix. Ekkor az iteráció x(k+1)= (E−A)x(k)+b alakú lesz. Az S mátrixot ebben az esetben nem kell invertálni, de S-nek semmi köze sincs az A mátrixhoz, így konvergenciatu-lajdonságai nem lesznek nagyon jók.
Most ismertetünk néhány sokszor alkalmazott lehet®séget az S mátrix megválasztására. Mind-egyik esetben az A mátrixot A=D−L−U alakba6 írjuk fel, ahol D a diagonális elemek, L a diagonális alatti elemek−1-szereseinek, míg U a diagonális feletti elemek−1-szereseinek mátrixa.
Feltesszük, hogy D f®átlójának (azaz A f®átlójának) egyik eleme sem nulla. Ez mindig elérhet®
az egyenletek megfelel® átrendezésével.
6Felhívjuk a gyelmet arra, hogy az L és U mátrixok nem egyeznek meg az LU-felbontás hasonlóan jelölt mátrixaival. A jelölés csak arra utal, hogy alsó- ill. fels® háromszögmátrixokról van szó.
3.6.1. Jacobi-iteráció
Az S=D és T=U+L választással konstruált x(k+1)=D−1(L+U)
| {z }
:=BJ
x(k)+D−1b (3.6.2)
iterációt (x(0) tetsz®leges kezd®vektor) Jacobi7-iterációnak nevezzük. A Jacobi-iteráció iterációs mátrixát a továbbiakban BJ jelöli majd. Az iterációt vektorkomponensenként kiírva az
x(k+1)i =− 1 aii
n
X
j=1,6=i
aijx(k)j −bi
, i= 1, . . . , n iterációt nyerjük.
3.6.2. GaussSeidel-iteráció Az S=D−L és T=U választású
x(k+1)= (D−L)−1U
| {z }
BGS
x(k)+ (D−L)−1b
iterációt (x(0) tetsz®leges kezd®vektor) GaussSeidel8-iterációnak nevezzük. Iterációs mátrixát a továbbiakban BGSjelöli majd. Hogy lássuk az iteráció Jacobi-iterációval való kapcsolatát, alakít-suk át az iterációs képletet. Szorozzunk el®ször balról a(D−L)mátrixszal, majd adjunk hozzá mindkét oldalhoz Lx(k+1)-et, és végül szorozzunk D inverzével. A fenti ekvivalens átalakítások után az
x(k+1)=D−1(Lx(k+1)+Ux(k)) +D−1b
iterációt nyerjük. Látható, hogy a Jacobi-iterációhoz képest csak annyi a különbség, hogy a D−1Lx(k) tag helyett a GaussSeidel-iterációban D−1Lx(k+1) szerepel. Látszólag ez az iterá-ció nem explicit, hiszen a jobb oldalon is szerepel az x(k+1) vektor, de mivel D−1L szigorú (a f®átlóban nullák szerepelnek) alsó háromszögmátrix, így x(k+1) mégis egyszer¶en meghatároz-ható. Az x(k+1) vektor els® elemének meghatározásához nincs szükség az x(k+1) vektorra. A második elem meghatározásához pedig csak a korábban meghatározott els® elemre van szükség, stb. Még jobban látszik a kapcsolat a két iteráció között, ha a GaussSeidel-iteráció utóbbi alakját komponensenként is kiírjuk
x(k+1)i =− 1 aii
i−1
X
j=1
aijx(k+1)j +
n
X
j=i+1
aijx(k)j −bi
(3.6.3)
(i = 1, . . . , n). Ha összevetjük ezt a iteráció képletével, akkor látható, hogy a Jacobi-iteráció az x(k+1)vektor komponenseinek meghatározásához csak az x(k)vektort használja, míg a GaussSeidel-módszer az x(k+1)vektori-edik elemének meghatározásához felhasználja a vektor korábban kiszámoltj = 1, . . . , i−1 index¶ elemeit (x(k)megfelel® elemei helyett).
7Carl Gustav Jacob Jacobi (1804-1851, német).
8Philipp Ludwig von Seidel (1821-1896, német).
3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 79
3.6.3. példa. Példaként végezzünk el egy-egy lépést a Jacobi- és a GaussSeidel-iterációkkal az x(0)= [1,1,1]T vektorról indulva a
2x1−x2 = 1
−x1+ 2x2−x3 = 2
−x2+ 2x3 = 3 egyenletrendszerre!
Mindkét esetben a koordinátánkénti változatát fogjuk alkalmazni az iterációknak.
A Jacobi-iteráció esetén azi-edik egyenletb®l kifejezzük azi-edik változót(i= 1,2,3) x1 = x2/2 + 1/2
x2 = x1/2 +x3/2 + 1 x3 = x2/2 + 3/2 és így készítjük el az iterációt
x(k+1)1 = x(k)2 /2 + 1/2 x(k+1)2 = x(k)1 /2 +x(k)3 /2 + 1 x(k+1)3 = x(k)2 /2 + 3/2.
Így x(1) vektorként az[1,2,2]T vektort nyerjük.
A GaussSeidel-módszernél felhasználjuk az új vektor már kiszámolt komponenseit, így ez az
x(k+1)1 = x(k)2 /2 + 1/2
x(k+1)2 = x(k+1)1 /2 +x(k)3 /2 + 1 x(k+1)3 = x(k+1)2 /2 + 3/2
iterációt adja. Az[1,1,1]T kezd®vektorral tehát az els® egyenletb®l azt kapjuk, hogyx(1)1 = 1, a második egyenletb®l x(1)2 = 2 és a harmadikból (és ez eltér a Jacobi-módszer esetén kapottól)x(1)3 = 5/2.
Látható, hogy
BJ=
0 1/2 0
1/2 0 1/2
0 1/2 0
és%(BJ) = 1/√
2≈0.7071, míg
BGS=
0 1/2 0 0 1/4 1/2 0 1/8 1/4
és a spektrálsugara%(BGS) = 1/2. Tehát mindkét módszer az egyenletrendszer megoldásához tartó vektorsorozatot eredményez, és mivel a második esetben kisebb a spektrálsugár, ezért erre a feladatra a GaussSeidel-módszerrel el®állított sorozat konvergál gyorsabban.
Els® gondolatra, és talán az el®z® példa is azt sugallja, úgy t¶nhet, hogy a GaussSeidel-módszer jobb, mint a Jacobi, hiszen minden lépésben felhasználjuk az új iterációs vektor már kiszámolt komponenseit. A következ® példa azt mutatja, hogy ez nincs így.
3.6.4. példa. Legyen egy lineáris algebrai egyenletrendszer együtthatómátrixa
A= egyenletrendszerekre a Jacobi-módszer konvergens a GaussSeidel-módszer pedig nem.
3.6.3. Relaxációs módszerek
Az el®z® két iterációs módszer esetén az iterációs mátrix spektrálsugara adott érték, csak az S prekondicionálási mátrix megválasztásától függ. Ha tehát a spektrálsugár egynél nem kisebb, vagy kisebb ugyan, de közel van egyhez, akkor a módszer nem vagy nagyon lassan konvergál.
Ekkor azt tehetjük, hogy változtatunk az egyenletrendszeren (pl. átrendezzük a sorait), vagy másik S mátrixot választunk, vagy pedig az adott S prekondicionálási mátrix mellett bevezetünk egy paramétert az iterációba, melyet majd úgy választunk meg, hogy az iteráció konvergens, s®t gyorsan konvergáló legyen. Az els® két lehet®séggel kés®bb foglalkozunk. Most tekintsük a harmadik eljárást részletesebben a Jacobi-iteráció példáján.
Tegyük fel, hogy a Jacobi-iterációban ak-adik iterációs lépésnél tartva ismerjük már az x(k) vektort, és az iteráció a következ® lépésben az x(k+1)J vektort eredményezné. A(k+ 1)-edik lépés tehát felírható
x(k+1)=x(k)+ (x(k+1)J −x(k))
alakban. Vezessünk be most egyω pozitív paramétert, és deniáljuk az alábbi iterációt
x(k+1)=x(k)+ω(x(k+1)J −x(k)). (3.6.4) Ez a módosítás úgy fogható fel, hogy az adott x(k) vektorról most is a Jacobi-iteráció által adott vektor irányába lépünk tovább, de nem x(k+1)J -be lépünk, hanem egy kicsit messzebb, vagy egy kicsit közelebb attól függ®en, hogy ω egynél nagyobb vagy kisebb. (Természetesen az ω = 1eset visszaadja a Jacobi-iterációt.) Ha ω >1, akkor túlrelaxálásról, ha 0< ω <1, akkor alulrelaxálásról beszélünk. (A relaxálás angolul relaxation szó itt arra utal, hogy a Jacobi-iteráció képletét nem vesszük szigorúan, hanem módosítunk egy kicsit rajta.) A Jacobi-Jacobi-iteráció relaxált változatára a JOR (Jacobi overrelaxation) rövidítést fogjuk használni, iterációs mátrixát BJ(ω) jelöli majd.
Írjuk fel mátrixos alakban a JOR iterációt! Ehhez helyettesítsük a (3.6.4) képletbe a Jacobi-módszer által adott x(k+1)J vektor képletét az iteráció (3.6.2) alakját felhasználva.
x(k+1)=x(k)+ω(D−1(L+U)x(k)+D−1b−x(k)).
3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 81 módszert jelenti. Az iterációs mátrix tehát
BJ(ω)= (1−ω)E+ωD−1(L+U) =ωBJ+ (1−ω)E. (3.6.5)
Vegyük észre, hogy minden ω választás esetén az egyenletrendszerrel konzisztens iterációt kapunk. Mivel ω szabadon választható paraméter, így lehet®séget ad arra, hogy úgy válasszuk meg, hogy az iteráció konvergens legyen, vagy hogy a konvergencia a lehet® leggyorsabb legyen.
Most térjünk át a GaussSeidel-iteráció relaxációjára. Ezt a módszert SOR (successive over-relaxation) fogja rövidíteni a kés®bbiekben, és iterációs mátrixát BGS(ω)jelöli majd. Induljunk ki most a GaussSeidel-iteráció (3.6.3) koordinátánkénti alakjából, és alkalmazuk a relaxáció (3.6.4) képletét a Jacobi-iteráció x(k+1)J vektorát a GaussSeidel-módszer által adott vektorra cserélve.
x(k+1)i =x(k)i +ω
A SOR módszerhez eljuthatunk úgy is, hogy az A=S−T felbontásban az S= 1
ωD−L, T=1−ω
ω D+U (3.6.7)
mátrixokat választjuk.
Tetsz®legesω esetén a SOR módszer is konzisztens az egyenletrendszerrel.
3.6.4. Iterációs módszerek konvergenciája
Korábban már láttuk, hogy egy, a lineáris egyenletrendszerrel konzisztens iterációs módszer ponto-san akkor konvergens, amikor iterációs mátrixának spektrálsugara kisebb egynél. Most vizsgáljuk meg azt a kérdést, hogy hogyan lehet ezt biztosítani egy adott egyenletrendszerre, ill. hogy az el®z® fejezetben ismertetett iterációk esetén mikor lehetünk biztosak a konvergenciában.
Térjünk vissza a konzisztens iterációk x(k+1)=S−1Tx(k)+S−1f alakjához, ahol A=S−T.
Ebben az esetben tehát S−1T az iterációs mátrix, tehát ennek spektrálsugaráról kell biztosítani, hogy 1-nél kisebb legyen.
3.6.5. deníció.
Az A ∈ Rn×n mátrix A = S−T felbontását reguláris felbontásnak hívjuk, ha S reguláris, S−1≥0 és T≥0.
3.6.6. tétel.
Ha az A∈Rn×n mátrixnak, amely reguláris és A−1≥0, A=S−T egy reguláris felbontása, akkor%(S−1T)<1.
Bizonyítás. A B=S−1T≥0 mátrix a feltételek szerint jól deniált és nemnegatív mátrix.
Ekkor tetsz®leges pozitív egészk-ra 0≤
i=0Bi nemnegatív tagú sor részletösszegei korlátosak, így a sor konvergens, aminek szükséges és elégséges feltétele%(B)<1(1.2.34.tétel).
3.6.7. tétel.
Legyen A egy olyan négyzetes mátrix, melynek a f®átlóján kívül nincs pozitív eleme. Ekkor pontosan akkor van az A mátrixnak olyan A=S−T reguláris felbontása, melyre%(S−1T)<1, ha A M-mátrix.
Bizonyítás. Legyen el®ször A M-mátrix. Ekkor megmutatjuk, hogy a Jacobi-iteráció felbontása reguláris. A korábbi jelölésekkel legyen S =D >0 (mivel A M-mátrix, így f®átlójában pozitív elemek állnak) és T=L+U≥0. Ez egy reguláris felbontás, továbbá mivel A−1≥0, ezért az el®z® tétel miatt%(S−1T)<1.
A másik irány igazolásához csak azt kell megmutatnunk, hogy a mátrixnak van inverze, és az egy nemnegatív mátrix. Az egyenl®ségb®l és becslésb®l látszik, hogy A invertálható, hiszen el®állítottuk invertálható mátri-xok segítségével az inverzét. Az inverz mátrixot el®állító sor tagjai nemnegatívok, így az inverz nemnegatív mátrix.
3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 83
3.6.8. tétel.
Ha az egyenletrendszer együtthatómátrixa M-mátrix, akkor a Jacobi, a GaussSeidel-iterációk és ezek relaxált változatai ω ∈(0,1) mellett konvergálnak az egyenletrendszer megoldásához tetsz®leges kezdeti vektor esetén.
Bizonyítás. Ha A M-mátrix, akkor A−1 ≥0. A JOR iterációra a (3.6.6) képletben szerepl®
S és T mátrixokω∈(0,1]esetén reguláris felbontását adják A-nak. Így az el®z® tétel szerint az iteráció konvergens lesz.
A SOR módszer esetén (3.6.7) szintén reguláris felbontást ad, haω∈(0,1]. Azω= 1eset felel meg a Jacobi és GaussSeidel-módszereknek.
3.6.9. tétel.
Szigorúan domináns f®átlójú együtthatómátrixok esetén a Jacobi- és a GaussSeidel-iterációk minden kezd®vektor esetén az egyenletrendszer megoldásához konvergálnak.
Bizonyítás. Mivel szigorúan domináns f®átló esetén a f®átlóbeli elem abszolút értéke nagyobb, mint a sorbeli többi elem abszolútérték-összege, így aq=kD−1Lk∞éss=kD−1Uk∞jelölésekkel q, s≥0ésq+s <1. Ezek után a Jacobi-iterációra az állítás az alábbi becslésb®l következik.
%(BJ)≤ kBJk∞=kD−1(L+U)k∞=q+s <1.
A GaussSeidel-iterációra a BGS iterációs mátrixot felírjuk
BGS= (D−L)−1U= (E−D−1L)−1D−1U alakban. Így tehát
%(BGS)≤ kBGSk∞=k(E−D−1L)−1D−1Uk∞≤ 1
1−qs= s
1−q <1−q 1−q = 1, ahol az els® tényez® becslésénél a3.2.5.tételt alkalmaztuk.
3.6.10. tétel.
Ha az A együtthatómátrix szimmetrikus és pozitív denit, akkor a Gauss-Seidel-iteráció kon-vergál az egyenletrendszer megoldásához tetsz®leges kezdeti vektor esetén.
Bizonyítás. Mivel A szimmetrikus, így U=LT. Tehát A az A=D−L−LT alakban írható.
Így BGS = (D−L)−1LT. Ez a mátrix már nem feltétlenül szimmetrikus, így lehetnek képzetes sajátvektorai és sajátértékei. Legyen pl. λ egy sajátértéke, és v egy hozzá tartozó sajátvektor, azaz
(D−L)−1LTv=λv. A D−L mátrixszal balról szorozva
LTv=λ(D−L)v, (3.6.8)
majd a sajátvektor konjugált transzponáltjával szintén balról szorozva kapjuk, hogy vHLTv=λvH(D−L)v.
Az egyenl®ség minkét oldalát a vH(D−L)v kifejezésb®l kivonva vHAv= (1−λ)vH(D−L)v
adódik. A jobb oldalt tovább alakítva kapjuk, hogy
(1−λ)vH(D−L)v= (1−λ)(vHDv−vHLv) = (1−λ)(vHDv−λvH(D−LT)v), ahol felhasználtuk (3.6.8) konjugált transzponáltját. Mivel a bal oldalon egy valós (1×1)-es mátrix áll, melynek transzponált konjugáltja önmaga, így kapjuk az
(1−λ)vH(D−LT)v= (1−λ)(vHDv−λvH(D−LT)v) egyenl®séget. Egyszer¶sítés után nyerjük az
(1− |λ|2)vH(D−LT)v= (1−λ)vHDv egyenl®séget, majd(1−λ)-val szorozva mindkét oldalt
(1− |λ|2)vHAv=|1−λ|2vHDv
adódik. Mivel egy szimmetrikus pozitív denit mátrix diagonálisában pozitív elemek szerepelnek, így vHDv pozitív. A BGS mátrix sajátértéke nem lehet 1, mert ellenkez® esetben a (3.6.8) összefüggésb®l(D−L−LT)v=Av=0 lenne, azaz A szinguláris lenne. Emiatt az egyenl®ség jobb oldalán pozitív szám áll, így a bal oldal is pozitív, azaz1− |λ|2>0. Tehát|λ|<1.
Térjünk át a SOR iteráció vizsgálatára. El®ször egy szükséges feltételt igazolunk a konver-genciára.
3.6.11. tétel. (Kahan [19], 1958) A SOR módszer esetén
%(BGS(ω))≥ |1−ω|, azaz a konvergencia szükséges feltétele ω∈(0,2).
Bizonyítás. Igazak az alábbi egyenl®ségek:
n
Y
i=1
|λi|=|det(BGS(ω))|=
=|det((D−ωL)−1)| · |det((1−ω)D+ωU)|=|1−ω|n. Tehát
%(BGS(ω)) = max
i=1,...,n|λi| ≥
Számt. mért. köz.|{z}
≥
n
Y
i=1
|λi|
!1/n
=|1−ω|.
A következ® tétel, melyet bizonyítás nélkül közlünk, azt mondja, hogy szimmetrikus pozitív denit mátrixokra a Kahan-tétel feltétele elégséges is a konvergenciához.
3.6.12. tétel. (Ostrowski [26], 1954; Reich [27], 1949) Ha A szimmetrikus, pozitív denit mátrix, és ω∈(0,2), akkor
%(BGS(ω))<1, azaz a SOR iteráció konvergens lesz.