• Nem Talált Eredményt

Lineáris egyenletrendszerek klasszikus iterációs megoldása

In document Numerikus módszerek (Pldal 80-89)

Ellen®rz® kérdések

3. Lineáris egyenletrendszerek megoldása

3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása

Most áttérünk a lineáris egyenletrendszerek klasszikus iterációs megoldási módszereire. Továbbra is feltesszük, hogy az Ax = b egyenletrendszer együtthatómátrixa négyzetes, és determinánsa nullától különbözik. Ekkor az egyértelm¶ megoldást jelölje x?. Az iterációs módszerek általában olyan konvergens sorozatokat konstruálnak, melyek határértéke az egyenlet megoldása. Lineáris egyenletrendszerek esetén a lineáris iterációs eljárásokkal foglalkozunk, melyek alakja

x(k+1)=Bx(k)+f, k= 0,1, . . . , (3.6.1) ahol az{x(k)} sorozattól várjuk el, hogy tartson a megoldáshoz. Rögtön láthatjuk, hogy a mát-rixszal való szorzás és a vektorösszeadás m¶veletigénye 2n2 op. Azaz kb. n/3 iterációs lépést végezhetünk az iterációval ahhoz, hogy a Gauss-módszer m¶veletigényét ne haladjuk meg. Ez azt jelentené, hogy pl. egy 100×100-as egyenletrendszer megoldása során 33 lépésb®l elegend®en közel kellene kerülnünk a megoldáshoz. Ennek egy tetsz®legesen választott kezd®vektor esetén kicsi az esélye. Az iterációs módszereket általában ezért ún. ritka mátrixokra (azaz olyan mát-rixokra, melyekben a nemnulla elemek számaO(n)nagyságrend¶) alkalmazzuk.5 Megjegyezzük, hogy dierenciálegyenletek numerikus megoldása során gyakran ilyen típusú mátrixokat kapunk, így ezekben az esetekben jól alkalmazható a módszer.

Az iterációs megoldások esetén a következ® kérdések vet®dnek fel.

• Hogyan válasszuk meg a B mátrixot és az f, x(0) vektorokat?

• Mikor konvergál a megoldáshoz a sorozat?

• Mekkora lesz a konvergencia sebessége?

• Honnét tudjuk, hogy mikor álljunk le az iterációval?

3.6.1. deníció.

Az x(k+1) = Bx(k)+f iterációt az Ax = b egyenletrendszerrel konzisztensnek hívjuk, ha x?=Bx?+f. (Az x? vektor az egyenletrendszer megoldása.)

Tekintsük az F : Rn → Rn, F(x) = Bx+f függvényt. Erre a függvényre valamilyen k.k vektornormában és a neki megfelel® indukált mátrixnormában igaz, hogy

kF(x1)−F(x2)k=kBx1+f−(Bx2+f)k=kB(x1−x2)k ≤ kBkkx1−x2k

tetsz®leges x1,x2 ∈ Rn vektorokra. Így tehát, ha kBk < 1, akkor az F leképezés kontrakció, és teljesülnek a Banach-féle xponttétel feltételei. Ebben az esetben tehát a (3.6.1) iterációt

5Az iterációs módszereket f®leg olyan ritka mátrixok esetén érdemes alkalmazni, melyekben a nemnulla elemek elhelyezkedése nem jól strukturált. Sávmátrixos egyenletrendszerek a Gauss-módszer egyszer¶ módosításával direkt módon is gyorsan megoldhatók (lásd pl. ingamódszer).

3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 77

bármilyen vektorról indítva az F leképezés xpontjához fog tartani, ami a lineáris egyenletrend-szerrel konzisztens iterációk esetén az egyenletrendszer megoldása. A normák ekvivalenciája miatt természetesen nem csak az adott vektornormában, hanem tetsz®leges más normában is az egyen-letrendszer megoldásához fog tartani az iteráció. Ezt a megállapítást az1.2.32.tétellel összevetve láthatjuk, hogy konzisztens iterációk esetén a %(B) <1 feltétel szükséges és elégséges feltétele annak, hogy a (3.6.1) iteráció tetsz®leges kezd®vektor esetén az egyenletrendszer megoldásához tartson. Ez az állítás közvetlenül is igazolható. Legyen e(k)=x(k)−x?az ún. hibavektor. Ekkor a konvergencia azt jelenti, hogy e(k)→0(k→ ∞), azaz ke(k)k →0 valamilyen normában.

3.6.2. tétel.

Egy, az Ax=b egyenletrendszerrel konzisztens lineáris iteráció pontosan akkor tart az egyen-letrendszer megoldásához tetsz®leges kezd®vektor esetén, ha %(B)<1.

Bizonyítás. Az

e(k+1)=x(k+1)−x?=Bx(k)+f−(Bx?+f) =Be(k)

egyenl®ség miatt e(k) = Bke(0). A konvergenciához az kell, hogy Bk nullmátrixhoz tartson, aminek szükséges és elégséges feltétele, hogy%(B)<1legyen.

A bizonyításból nyilvánvaló, hogy a konvergencia annál gyorsabb, minél kisebb a B mátrix konvergenciasugara. Így a konvergenciára és a konvergencia sebességére vonatkozó kérdésekre már meg is találtuk a választ. Foglalkozzunk most a (3.6.1) iteráció el®állításával.

Tegyük fel, hogy az A együtthatómátrixot el®állítottuk A=S−T alakban, ahol S reguláris mátrix. Ekkor a b=Ax= (S−T)x egyenl®séget S inverzével balról szorozva, majd x-et kifejezve x=S−1Tx+S−1b.Ezen egyenl®ség miatt az

x(k+1)=S−1T

| {z }

=B

x(k)+S−1b

| {z }

=f

iteráció konzisztens az egyenletrendszerrel.

Az S mátrixot prekondicionálási mátrixnak hívjuk. Ez a mátrix határozza meg, hogy mennyire nehéz vagy könny¶ az iteráció végrehajtása. Megválasztását két, egymással ellentétes követelmény határozza meg. Egyrészt könnyen invertálhatónak kell lennie, hiszen az iterációhoz szükség van a mátrix inverzére, másrészt a B=S−1T=S−1(S−A) =E−S−1A egyenl®ség miatt jó lenne, ha S "közel lenne A-hoz", hiszen akkor a B mátrix spektrálsugara jóval kisebb lehetne, mint 1, ami gyors konvergenciát eredményezne.

Nézzünk meg két speciális esetet S megválasztására! Legyen el®ször S=A. Ekkor az iteráció x(k+1) = (E−S−1A)x(k)+S−1b = 0x(k)+A−1b alakú lesz, ami egy lépésben konvergál a megoldáshoz bármely kezd®vektor esetén. Ebben az esetben S ugyan közel van A-hoz (hiszen megegyezik vele), de inverzének meghatározása egyenérték¶ az egyenletrendszer direkt megoldá-sával, így az eljárás nem ad semmi el®nyt a direkt módszerekhez képest. A másik esetben legyen S az egységmátrix. Ekkor az iteráció x(k+1)= (E−A)x(k)+b alakú lesz. Az S mátrixot ebben az esetben nem kell invertálni, de S-nek semmi köze sincs az A mátrixhoz, így konvergenciatu-lajdonságai nem lesznek nagyon jók.

Most ismertetünk néhány sokszor alkalmazott lehet®séget az S mátrix megválasztására. Mind-egyik esetben az A mátrixot A=D−L−U alakba6 írjuk fel, ahol D a diagonális elemek, L a diagonális alatti elemek−1-szereseinek, míg U a diagonális feletti elemek−1-szereseinek mátrixa.

Feltesszük, hogy D f®átlójának (azaz A f®átlójának) egyik eleme sem nulla. Ez mindig elérhet®

az egyenletek megfelel® átrendezésével.

6Felhívjuk a gyelmet arra, hogy az L és U mátrixok nem egyeznek meg az LU-felbontás hasonlóan jelölt mátrixaival. A jelölés csak arra utal, hogy alsó- ill. fels® háromszögmátrixokról van szó.

3.6.1. Jacobi-iteráció

Az S=D és T=U+L választással konstruált x(k+1)=D−1(L+U)

| {z }

:=BJ

x(k)+D−1b (3.6.2)

iterációt (x(0) tetsz®leges kezd®vektor) Jacobi7-iterációnak nevezzük. A Jacobi-iteráció iterációs mátrixát a továbbiakban BJ jelöli majd. Az iterációt vektorkomponensenként kiírva az

x(k+1)i =− 1 aii

n

X

j=1,6=i

aijx(k)j −bi

, i= 1, . . . , n iterációt nyerjük.

3.6.2. GaussSeidel-iteráció Az S=D−L és T=U választású

x(k+1)= (D−L)−1U

| {z }

BGS

x(k)+ (D−L)−1b

iterációt (x(0) tetsz®leges kezd®vektor) GaussSeidel8-iterációnak nevezzük. Iterációs mátrixát a továbbiakban BGSjelöli majd. Hogy lássuk az iteráció Jacobi-iterációval való kapcsolatát, alakít-suk át az iterációs képletet. Szorozzunk el®ször balról a(D−L)mátrixszal, majd adjunk hozzá mindkét oldalhoz Lx(k+1)-et, és végül szorozzunk D inverzével. A fenti ekvivalens átalakítások után az

x(k+1)=D−1(Lx(k+1)+Ux(k)) +D−1b

iterációt nyerjük. Látható, hogy a Jacobi-iterációhoz képest csak annyi a különbség, hogy a D−1Lx(k) tag helyett a GaussSeidel-iterációban D−1Lx(k+1) szerepel. Látszólag ez az iterá-ció nem explicit, hiszen a jobb oldalon is szerepel az x(k+1) vektor, de mivel D−1L szigorú (a f®átlóban nullák szerepelnek) alsó háromszögmátrix, így x(k+1) mégis egyszer¶en meghatároz-ható. Az x(k+1) vektor els® elemének meghatározásához nincs szükség az x(k+1) vektorra. A második elem meghatározásához pedig csak a korábban meghatározott els® elemre van szükség, stb. Még jobban látszik a kapcsolat a két iteráció között, ha a GaussSeidel-iteráció utóbbi alakját komponensenként is kiírjuk

x(k+1)i =− 1 aii

i−1

X

j=1

aijx(k+1)j +

n

X

j=i+1

aijx(k)j −bi

 (3.6.3)

(i = 1, . . . , n). Ha összevetjük ezt a iteráció képletével, akkor látható, hogy a Jacobi-iteráció az x(k+1)vektor komponenseinek meghatározásához csak az x(k)vektort használja, míg a GaussSeidel-módszer az x(k+1)vektori-edik elemének meghatározásához felhasználja a vektor korábban kiszámoltj = 1, . . . , i−1 index¶ elemeit (x(k)megfelel® elemei helyett).

7Carl Gustav Jacob Jacobi (1804-1851, német).

8Philipp Ludwig von Seidel (1821-1896, német).

3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 79

3.6.3. példa. Példaként végezzünk el egy-egy lépést a Jacobi- és a GaussSeidel-iterációkkal az x(0)= [1,1,1]T vektorról indulva a

2x1−x2 = 1

−x1+ 2x2−x3 = 2

−x2+ 2x3 = 3 egyenletrendszerre!

Mindkét esetben a koordinátánkénti változatát fogjuk alkalmazni az iterációknak.

A Jacobi-iteráció esetén azi-edik egyenletb®l kifejezzük azi-edik változót(i= 1,2,3) x1 = x2/2 + 1/2

x2 = x1/2 +x3/2 + 1 x3 = x2/2 + 3/2 és így készítjük el az iterációt

x(k+1)1 = x(k)2 /2 + 1/2 x(k+1)2 = x(k)1 /2 +x(k)3 /2 + 1 x(k+1)3 = x(k)2 /2 + 3/2.

Így x(1) vektorként az[1,2,2]T vektort nyerjük.

A GaussSeidel-módszernél felhasználjuk az új vektor már kiszámolt komponenseit, így ez az

x(k+1)1 = x(k)2 /2 + 1/2

x(k+1)2 = x(k+1)1 /2 +x(k)3 /2 + 1 x(k+1)3 = x(k+1)2 /2 + 3/2

iterációt adja. Az[1,1,1]T kezd®vektorral tehát az els® egyenletb®l azt kapjuk, hogyx(1)1 = 1, a második egyenletb®l x(1)2 = 2 és a harmadikból (és ez eltér a Jacobi-módszer esetén kapottól)x(1)3 = 5/2.

Látható, hogy

BJ=

0 1/2 0

1/2 0 1/2

0 1/2 0

 és%(BJ) = 1/√

2≈0.7071, míg

BGS=

0 1/2 0 0 1/4 1/2 0 1/8 1/4

és a spektrálsugara%(BGS) = 1/2. Tehát mindkét módszer az egyenletrendszer megoldásához tartó vektorsorozatot eredményez, és mivel a második esetben kisebb a spektrálsugár, ezért erre a feladatra a GaussSeidel-módszerrel el®állított sorozat konvergál gyorsabban.

Els® gondolatra, és talán az el®z® példa is azt sugallja, úgy t¶nhet, hogy a GaussSeidel-módszer jobb, mint a Jacobi, hiszen minden lépésben felhasználjuk az új iterációs vektor már kiszámolt komponenseit. A következ® példa azt mutatja, hogy ez nincs így.

3.6.4. példa. Legyen egy lineáris algebrai egyenletrendszer együtthatómátrixa

A= egyenletrendszerekre a Jacobi-módszer konvergens a GaussSeidel-módszer pedig nem.

3.6.3. Relaxációs módszerek

Az el®z® két iterációs módszer esetén az iterációs mátrix spektrálsugara adott érték, csak az S prekondicionálási mátrix megválasztásától függ. Ha tehát a spektrálsugár egynél nem kisebb, vagy kisebb ugyan, de közel van egyhez, akkor a módszer nem vagy nagyon lassan konvergál.

Ekkor azt tehetjük, hogy változtatunk az egyenletrendszeren (pl. átrendezzük a sorait), vagy másik S mátrixot választunk, vagy pedig az adott S prekondicionálási mátrix mellett bevezetünk egy paramétert az iterációba, melyet majd úgy választunk meg, hogy az iteráció konvergens, s®t gyorsan konvergáló legyen. Az els® két lehet®séggel kés®bb foglalkozunk. Most tekintsük a harmadik eljárást részletesebben a Jacobi-iteráció példáján.

Tegyük fel, hogy a Jacobi-iterációban ak-adik iterációs lépésnél tartva ismerjük már az x(k) vektort, és az iteráció a következ® lépésben az x(k+1)J vektort eredményezné. A(k+ 1)-edik lépés tehát felírható

x(k+1)=x(k)+ (x(k+1)J −x(k))

alakban. Vezessünk be most egyω pozitív paramétert, és deniáljuk az alábbi iterációt

x(k+1)=x(k)+ω(x(k+1)J −x(k)). (3.6.4) Ez a módosítás úgy fogható fel, hogy az adott x(k) vektorról most is a Jacobi-iteráció által adott vektor irányába lépünk tovább, de nem x(k+1)J -be lépünk, hanem egy kicsit messzebb, vagy egy kicsit közelebb attól függ®en, hogy ω egynél nagyobb vagy kisebb. (Természetesen az ω = 1eset visszaadja a Jacobi-iterációt.) Ha ω >1, akkor túlrelaxálásról, ha 0< ω <1, akkor alulrelaxálásról beszélünk. (A relaxálás angolul relaxation szó itt arra utal, hogy a Jacobi-iteráció képletét nem vesszük szigorúan, hanem módosítunk egy kicsit rajta.) A Jacobi-Jacobi-iteráció relaxált változatára a JOR (Jacobi overrelaxation) rövidítést fogjuk használni, iterációs mátrixát BJ(ω) jelöli majd.

Írjuk fel mátrixos alakban a JOR iterációt! Ehhez helyettesítsük a (3.6.4) képletbe a Jacobi-módszer által adott x(k+1)J vektor képletét az iteráció (3.6.2) alakját felhasználva.

x(k+1)=x(k)+ω(D−1(L+U)x(k)+D−1b−x(k)).

3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 81 módszert jelenti. Az iterációs mátrix tehát

BJ(ω)= (1−ω)E+ωD−1(L+U) =ωBJ+ (1−ω)E. (3.6.5)

Vegyük észre, hogy minden ω választás esetén az egyenletrendszerrel konzisztens iterációt kapunk. Mivel ω szabadon választható paraméter, így lehet®séget ad arra, hogy úgy válasszuk meg, hogy az iteráció konvergens legyen, vagy hogy a konvergencia a lehet® leggyorsabb legyen.

Most térjünk át a GaussSeidel-iteráció relaxációjára. Ezt a módszert SOR (successive over-relaxation) fogja rövidíteni a kés®bbiekben, és iterációs mátrixát BGS(ω)jelöli majd. Induljunk ki most a GaussSeidel-iteráció (3.6.3) koordinátánkénti alakjából, és alkalmazuk a relaxáció (3.6.4) képletét a Jacobi-iteráció x(k+1)J vektorát a GaussSeidel-módszer által adott vektorra cserélve.

x(k+1)i =x(k)i

A SOR módszerhez eljuthatunk úgy is, hogy az A=S−T felbontásban az S= 1

ωD−L, T=1−ω

ω D+U (3.6.7)

mátrixokat választjuk.

Tetsz®legesω esetén a SOR módszer is konzisztens az egyenletrendszerrel.

3.6.4. Iterációs módszerek konvergenciája

Korábban már láttuk, hogy egy, a lineáris egyenletrendszerrel konzisztens iterációs módszer ponto-san akkor konvergens, amikor iterációs mátrixának spektrálsugara kisebb egynél. Most vizsgáljuk meg azt a kérdést, hogy hogyan lehet ezt biztosítani egy adott egyenletrendszerre, ill. hogy az el®z® fejezetben ismertetett iterációk esetén mikor lehetünk biztosak a konvergenciában.

Térjünk vissza a konzisztens iterációk x(k+1)=S−1Tx(k)+S−1f alakjához, ahol A=S−T.

Ebben az esetben tehát S−1T az iterációs mátrix, tehát ennek spektrálsugaráról kell biztosítani, hogy 1-nél kisebb legyen.

3.6.5. deníció.

Az A ∈ Rn×n mátrix A = S−T felbontását reguláris felbontásnak hívjuk, ha S reguláris, S−1≥0 és T≥0.

3.6.6. tétel.

Ha az A∈Rn×n mátrixnak, amely reguláris és A−1≥0, A=S−T egy reguláris felbontása, akkor%(S−1T)<1.

Bizonyítás. A B=S−1T≥0 mátrix a feltételek szerint jól deniált és nemnegatív mátrix.

Ekkor tetsz®leges pozitív egészk-ra 0≤

i=0Bi nemnegatív tagú sor részletösszegei korlátosak, így a sor konvergens, aminek szükséges és elégséges feltétele%(B)<1(1.2.34.tétel).

3.6.7. tétel.

Legyen A egy olyan négyzetes mátrix, melynek a f®átlóján kívül nincs pozitív eleme. Ekkor pontosan akkor van az A mátrixnak olyan A=S−T reguláris felbontása, melyre%(S−1T)<1, ha A M-mátrix.

Bizonyítás. Legyen el®ször A M-mátrix. Ekkor megmutatjuk, hogy a Jacobi-iteráció felbontása reguláris. A korábbi jelölésekkel legyen S =D >0 (mivel A M-mátrix, így f®átlójában pozitív elemek állnak) és T=L+U≥0. Ez egy reguláris felbontás, továbbá mivel A−1≥0, ezért az el®z® tétel miatt%(S−1T)<1.

A másik irány igazolásához csak azt kell megmutatnunk, hogy a mátrixnak van inverze, és az egy nemnegatív mátrix. Az egyenl®ségb®l és becslésb®l látszik, hogy A invertálható, hiszen el®állítottuk invertálható mátri-xok segítségével az inverzét. Az inverz mátrixot el®állító sor tagjai nemnegatívok, így az inverz nemnegatív mátrix.

3.6. Lineáris egyenletrendszerek klasszikus iterációs megoldása 83

3.6.8. tétel.

Ha az egyenletrendszer együtthatómátrixa M-mátrix, akkor a Jacobi, a GaussSeidel-iterációk és ezek relaxált változatai ω ∈(0,1) mellett konvergálnak az egyenletrendszer megoldásához tetsz®leges kezdeti vektor esetén.

Bizonyítás. Ha A M-mátrix, akkor A−1 ≥0. A JOR iterációra a (3.6.6) képletben szerepl®

S és T mátrixokω∈(0,1]esetén reguláris felbontását adják A-nak. Így az el®z® tétel szerint az iteráció konvergens lesz.

A SOR módszer esetén (3.6.7) szintén reguláris felbontást ad, haω∈(0,1]. Azω= 1eset felel meg a Jacobi és GaussSeidel-módszereknek.

3.6.9. tétel.

Szigorúan domináns f®átlójú együtthatómátrixok esetén a Jacobi- és a GaussSeidel-iterációk minden kezd®vektor esetén az egyenletrendszer megoldásához konvergálnak.

Bizonyítás. Mivel szigorúan domináns f®átló esetén a f®átlóbeli elem abszolút értéke nagyobb, mint a sorbeli többi elem abszolútérték-összege, így aq=kD−1Lkéss=kD−1Ukjelölésekkel q, s≥0ésq+s <1. Ezek után a Jacobi-iterációra az állítás az alábbi becslésb®l következik.

%(BJ)≤ kBJk=kD−1(L+U)k=q+s <1.

A GaussSeidel-iterációra a BGS iterációs mátrixot felírjuk

BGS= (D−L)−1U= (E−D−1L)−1D−1U alakban. Így tehát

%(BGS)≤ kBGSk=k(E−D−1L)−1D−1Uk≤ 1

1−qs= s

1−q <1−q 1−q = 1, ahol az els® tényez® becslésénél a3.2.5.tételt alkalmaztuk.

3.6.10. tétel.

Ha az A együtthatómátrix szimmetrikus és pozitív denit, akkor a Gauss-Seidel-iteráció kon-vergál az egyenletrendszer megoldásához tetsz®leges kezdeti vektor esetén.

Bizonyítás. Mivel A szimmetrikus, így U=LT. Tehát A az A=D−L−LT alakban írható.

Így BGS = (D−L)−1LT. Ez a mátrix már nem feltétlenül szimmetrikus, így lehetnek képzetes sajátvektorai és sajátértékei. Legyen pl. λ egy sajátértéke, és v egy hozzá tartozó sajátvektor, azaz

(D−L)−1LTv=λv. A D−L mátrixszal balról szorozva

LTv=λ(D−L)v, (3.6.8)

majd a sajátvektor konjugált transzponáltjával szintén balról szorozva kapjuk, hogy vHLTv=λvH(D−L)v.

Az egyenl®ség minkét oldalát a vH(D−L)v kifejezésb®l kivonva vHAv= (1−λ)vH(D−L)v

adódik. A jobb oldalt tovább alakítva kapjuk, hogy

(1−λ)vH(D−L)v= (1−λ)(vHDv−vHLv) = (1−λ)(vHDv−λvH(D−LT)v), ahol felhasználtuk (3.6.8) konjugált transzponáltját. Mivel a bal oldalon egy valós (1×1)-es mátrix áll, melynek transzponált konjugáltja önmaga, így kapjuk az

(1−λ)vH(D−LT)v= (1−λ)(vHDv−λvH(D−LT)v) egyenl®séget. Egyszer¶sítés után nyerjük az

(1− |λ|2)vH(D−LT)v= (1−λ)vHDv egyenl®séget, majd(1−λ)-val szorozva mindkét oldalt

(1− |λ|2)vHAv=|1−λ|2vHDv

adódik. Mivel egy szimmetrikus pozitív denit mátrix diagonálisában pozitív elemek szerepelnek, így vHDv pozitív. A BGS mátrix sajátértéke nem lehet 1, mert ellenkez® esetben a (3.6.8) összefüggésb®l(D−L−LT)v=Av=0 lenne, azaz A szinguláris lenne. Emiatt az egyenl®ség jobb oldalán pozitív szám áll, így a bal oldal is pozitív, azaz1− |λ|2>0. Tehát|λ|<1.

Térjünk át a SOR iteráció vizsgálatára. El®ször egy szükséges feltételt igazolunk a konver-genciára.

3.6.11. tétel. (Kahan [19], 1958) A SOR módszer esetén

%(BGS(ω))≥ |1−ω|, azaz a konvergencia szükséges feltétele ω∈(0,2).

Bizonyítás. Igazak az alábbi egyenl®ségek:

n

Y

i=1

i|=|det(BGS(ω))|=

=|det((D−ωL)−1)| · |det((1−ω)D+ωU)|=|1−ω|n. Tehát

%(BGS(ω)) = max

i=1,...,ni| ≥

Számt. mért. köz.|{z}

n

Y

i=1

i|

!1/n

=|1−ω|.

A következ® tétel, melyet bizonyítás nélkül közlünk, azt mondja, hogy szimmetrikus pozitív denit mátrixokra a Kahan-tétel feltétele elégséges is a konvergenciához.

3.6.12. tétel. (Ostrowski [26], 1954; Reich [27], 1949) Ha A szimmetrikus, pozitív denit mátrix, és ω∈(0,2), akkor

%(BGS(ω))<1, azaz a SOR iteráció konvergens lesz.

In document Numerikus módszerek (Pldal 80-89)