, 58 min read

Konvergenzresultate für feste Schrittweiten

Original post is here eklausmeier.goip.de/blog/2024/06-11-konvergenzresultate-fuer-feste-schrittweiten.


Es folgt ein recht allgemeiner Konvergenzbeweis für mehrstufige Verfahren, wobei allerdings vorausgesetzt wird, daß mit fester Schrittweite gearbeitet wird. Innerhalb des mehrstufigen Prozesses braucht das verwendete Gitter nicht äquidistant zu sein, wie z.B. bei Runge-Kutta Verfahren. Dabei wird allerdings hier ein etwas längerer Weg eingeschlagen. Zuerst werden in breiter Form Stabilitätsfunktionale vorgestellt und verschiedene, gleichwertige und äquivalente Darstellungen angegeben. Die Beweise für diese Stabilitätsfunktionale enthalten die eigentlichen Konvergenzbeweise, jedoch sind Stabilitätsfunktionale allgemeiner. Sie liefern direkt Stabilitätsungleichungen für die Differenzen zweier Lösungen von Differenzengleichungen, d.h. die Stabilitätsfunktionale liefern direkt Aussagen über das Auseinanderlaufen der Lösungen zweier Differenzengleichungen in Abhängigkeit von Störungen. An Differenzengleichungen werden nur lineare Gleichungen betrachtet, allerdings darf die Inhomogenität beliebig sein, wenn sie nur einer Lipschitzbedingung genügt.

Bevor die eigentlichen Überlegungen bzgl. der Stabilitätsfunktionale angestellt werden, sollen anhand einfacher, vorangestellter Überlegungen, einige grundsätzliche Probleme beleuchtet werden. Danach folgen die sehr wichtigen Aussagen von Gronwall. Das diskrete Lemma von Gronwall spielt eine entscheidende Rolle beim Hauptsatz über Stabilitätsfunktionale. Vielerorts befindet sich das diskrete Lemma von Gronwall versteckt in Konvergenzbeweisen und hier i.d.R. nur in sehr spezialisierter Form. Erst daran anschliessend werden die Stabilitätsfunktionale behandelt und verschiedene Äquivalenzen bewiesen.

1. Einführung und grundlegende Begriffe

Es sei B ein Banachraum und hR die Schrittweite. Die Klasse von Verfahren der Form

un+1=Sun+hφ(un1),n=0,1,,N,uiB,

berücksichtigt nicht block-implizite Verfahren, oder überhaupt implizite Verfahren, zumindestens ersteinmal nicht in sofort offenkundiger Weise. Hierbei ist

N:=|bah|,also|h|=|ba|N.

Subsumiert sind also nicht Verfahren der Vorschrift

A1un+1+A0un=h(B1Fn+1+B0Fn),n=0,1,,N.

bzgl. der rein formalen Schreibweise.

Verfahren der leicht allgemeineren Form

(*)un+1=Sun+hφ(un+1,un),n=0,1,,N,

berücksichtigen blockimplizite Verfahren und gewöhnliche implizite Verfahren. Die oben angeschriebene Rekurrenz-Vorschrift für un+1 stellt eine implizite Gleichung für un+1 dar. An φ muß man daher gewisse Voraussetzungen stellen, um eindeutige Lösbarkeit der impliziten Differenzengleichung zu garantieren. Da die zu integrierende Funktion fast durchweg einer Lipschitzkonstanten genügt, ist es naheliegend dasselbe auch für die Inhomogenität der Differenzengleichung zu fordern. Es möge also gelten

|φ(u^n+1,u^n)φ(un+1,un)|K1|u^n+1un+1|,|φ(u^n+1,u^n)φ(un+1,un)|K2|u^nun|.

1. Satz: Die Differenzengleichung () besitzt, für genügend kleine Schrittweiten |h|, eine eindeutige Lösung. Diese eindeutig bestimmte Lösung lässt sich mit Picard-Iteration bestimmen.

Beweis: Die Keplersche Gleichung für un+1 hat wegen der vorausgesetzten Lipschitz-Stetigkeit in der letzten Komponente von φ, nach dem Banachschen Fixpunktsatz eine eindeutig bestimmte Lösung und lässt sich durch Fxpunktiteration gewinnen.

|hK2|<1,für geeigntes h.

    ☐

2. Bemerkung: Für nicht genügend kleines |h| kann die Gleichung in der Tat mehrere oder keine Lösung besitzen.

Es seien betrachtet die beiden Verfahren der Form

u^n++A1u^n+1++A0u^n=hφ(u^n+,u^n+1,,u^n)+rn,un++A1un+1++A0un=hφ(un+,un+1,,un).

Das erste Verfahren kann man als gestörtes Verfahren auffassen, während hingegen das zweite Verfahren das eigentliche Verfahren zur Berechnung der numerischen Lösung ist. Es sei

P1:=(I00),R1:=(00I),

und δn+:=u^n+un+ und dazu

δ^n+:=φ(u^n+,,u^n)φ(un+,,un).

Es ist also δ^n+ die Differenz der entsprechenden Werte für die Funktion φ(), wenn sämtliche Argumente verschieden sind.

Weiter sei

U:=(u0uN),U^:=(u^0u^N),R:=(r0rN+1).

Die einzelnen ui und u^i sind aus dem Vektorraum R, nicht notwendig endlichdimensional. Hierbei sind die Ai:BB stetige, lineare Operatoren zwischen Banach-Räumen. Bei linearen Operatoren ist bekanntlich die Stetigkeit in einem Punkte äquivalent mit der globalen Stetigkeit und dies äquivalent mit der Beschränktheit. B ist hierbei entweder ein reller oder komplexer Banachraum. Die Vektorraumeigenschaften braucht man der Linearität wegen, die Normiertheit für die folgenden Funktionale, und die Vollständigkeit wird benötigt bei der Anwendung des Banachschen Fixpunktsatzes. Beispiele sind B=Ck und B=Rk, mit k1. Gelegentlich gelten die Sätze auch in nicht notwendigerweise kommutativen Ringen B. Für B wird im folgenden stets Ck gewählt. Die Mengen Ck×k wären dann entsprechend zu ersetzen durch R× und andere Mengen entsprechend.

Man beachte, daß die Abschätzung nun abhängig von h ist, die Abschätzung aber ausschliesslich für gewisse sehr stark eingeschränkte Schrittweiten h gilt. Ohne Einschränkung an die Schrittweite h ist der Satz nicht richtig. Die Unabhängigkeit von den Bν, bei

ν=0Aνun+ν=hν=0BνFn+ν,n=0,1,,N,

verlangt eine entsprechende Einschränkung an die Schrittweite h. Für einen praktischen Einsatz ist zusätzlich ein entsprechend großer Stabilitätsbereich erforderlich. In die Größe des Stabilitätsbereiches gehen entscheidend die Bν ein und die Art der Iteration, mit der die impliziten Gleichungen in jedem Zeitschritt gelöst werden. Der Satz verliert ebenfalls seine Gültigkeit bei “langen” Integrationsintervallen. |ba| wird dann beliebig groß. Der Satz zeigt, daß bei endlichem Integrationsintervall |ba|, die |U^U|-Norm mit der |P1[C1]1R1R|-Norm äquivalent ist. Bei unendlich langen Integrationsintervallen, sind diese Normen nicht notwendigerweise mehr äquivalent.

2. Die Lemmata von Gronwall

Das Lemma von Gronwall, Thomas Gronwall, (1877--1932) für den kontinuierlichen Falle lautet

1. Satz: (Lemma von Gronwall) Seien h, w und k stetige, reell-wertige Funktionen auf dem Intervall [a,b]. (Es muß lediglich gelten (axf)=f(x), sodaß man mit leicht schwächeren Bedingungen auskäme.) Es gelte auf diesem Intervall die Abschätzung

h(x)w(x)+axk(t)h(t)dt,x[a,b].

Das Integral auf der rechten Ungleichungsseite sei stets nicht-negativ, was beispielsweise für nicht-negative Funktionen k, w, h auf dem Intervall [a,b], sichergestellt werden kann. Dann gilt die Abschätzung für die Funktion h auf dem gesamten Intervall zu

h(x)w(x)+axexp(txk(τ)dτ)k(t)w(t)dt,x[a,b].

Beweis: siehe Helmut Werner und Herbert Arndt in Werner/Arndt (1986). Sei

H(x):=axk(t)h(t)dt.

Hiermit gilt dann aufgrund der Stetigkeit von k und h

H(x)=k(x)h(x),H(a)=0,x[a,b].

Aus dieser Differentialgleichung folgt aufgrund der vorausgesetzten Ungleichung für die Funktion h

H(x)=k(x)h(x)k(x)(w(x)+H(x)),

also die lineare Differentialungleichung

(*)H(x)k(x)H(x)k(x)w(x),H(a)=0.

Multiplikation mit

eK(x)>0,K(x):=axk(t)dt,

führt zu

eK(x)[H(x)k(x)H(x)]=(eK(x)H(x))()eK(x)k(x)w(x).

Integration von a nach x liefert wegen der mittleren Gleichung (Integral ist monotones Funktional)

eK(x)H(x)eK(a)H(a)axeK(t)k(t)w(t)dt,

also wegen H(a)=0 somit

H(x)axeK(x)K(t)k(t)w(t)dt

und aufgrund der Voraussetzung von h(x)w(x)+H(x) sofort

h(x)w(x)+ax(exptxk(τ)dτ)k(t)w(t)dt.

    ☐

2. Folgerung: Gilt h(x)w+kaxh(t)dt, mit festen, nicht-negativen Konstanten w und k, so folgt die Abschätzung

h(x)wek(xa),x[a,b].

Ein völliges Analogon zum kontinuierlichen Lemma von Gronwall macht das diskrete Lemma von Gronwall, welches ebenfalls exponentielles Wachstum anzeigt, wenn eine Funktion geeignet auf beiden Seiten einer Ungleichung vorkommt. Es gilt nun der

3. Satz: (Diskretes Lemma von Gronwall) Es seien (m+1) positive Zahlen 0η0η1ηm vorgegeben. Ferner sei δ0, hj0 und xj+1=xj+hj. Es gelte die Ungleichung

ε0η0undεj+1ηj+δν=0jhνεν,j=0,,m1.

Dann gilt

εjηjeδ(xjx0),j=0,,m.

Beweis: siehe erneut Helmut Werner und Herbert Arndt in Werner/Arndt (1986). Der Fall δ=0 ist einfach, wegen e0=1. Sei nun δ>0. Induktionsverankerung mit j=0 ist klar, ebenfalls einfach, wegen e0=1. Der eigentliche Beweis reduziert sich jetzt lediglich noch auf den Induktionsschluß von j nach j+1, wobei δ>0 vorausgesetzt werden kann. Hier gilt nun

εj+1ηj+1+δν=0jhνενηj+1+δν=0jhνηνeδ(xνx0)ηj+1(1+δν=0jhνeδ(xνx0))ηj+1eδ(xj+1x0).

Für die Summe in der Klammer schätzte man ab (Untersumme einer streng monoton steigenden Funktion)

ν=0jhνeδ(xνx0)x0xj+1eδ(tx0)dt=1δ(eδ(xj+1x0)1).

    ☐

3. Notation und Darstellungssatz für Differenzengleichungen

Man vgl. auch Matrixpolynome.

Zur multiplen Lipschitzkonstanten von φ:

|φ(u,,u^i,,u0)φ(u,,ui,,u0)|Ki|u^iui|,i=0,,.

(+1)-malige Anwendung der Dreiecksungleichung liefert

|φ(u^,,u^0)φ(u,,u0)|i=0Ki|u^iui|=(K0K),(|u^0u0||u^u|)

In der Schreibweise von φ seien fortan zahlreiche hier nicht weiter interessierende Argumente der Schreibvereinfachung und der Klarheit wegen weggelassen. Es ist φ(u,,u1)=φ(t,h,u,,u1).

1. Beispiel: Für die Verfahrensvorschrift der Form

Aun+++A0un=h(BFn+++B0Fn),Fn+i:=(fN+fN+),

wobei die fk Näherungswerte für f(tk,y(tk)) sind. Die Funktion f der Differentialgleichung sei Lipschitz-stetig mit der Lipschitzkonstanten L vorausgesetzt, also

|f(t,y^)f(t,y)|L|y^y|.

Dann gilt für die obigen Lipschitzkonstanten Ki die Verbindung mit der Lipschitzkonstanten der Differentialgleichung zu

Ki=|Bi|L,oder ggf.Ki=|A1Bi|L.

2. Definition: Es sei T eine gänzlich beliebige Matrix der Größe k×k. Dann wird der Bidiagonaloperator [T] zur Matrix T der Größe (N+1)k×(N+1)k, wie folgt definiert

[T]:=(ITITI),[T]1=(ITITnTn1I).

Rechts daneben steht die Inverse, welche für eine beliebige Matrix T stets existiert.

Die speziellen Operatoren [] und []1 tauchen im weiteren wiederholt auf. Aufgrund der Häufigkeit, wäre es zweckmässiger, die Rollen von [] und []1 zu vertauschen, jedoch stände dies dann im Gegensatz zur Schreibweise bei Skeel (1976), Robert David Skeel.

3. Satz: (Eigenschaften von col, row, diag, []) Es gilt

  1. colAνBν=diagAνcolBν.
  2. colAνB=(colAν)B;   Rechtsdistributivität des col-Operators.
  3. rowAνBν=rowAνdiagBν.
  4. rowABν=ArowBν;   Linksdistributivität des row-Operators.
  5. diagAνBν=diagAνdiagBν;   multiplikative Distributivität des Bidiagonaloperators.
  6. [S1TS]=diagS1[T]diagS.
  7. [S1TS]1=diagS1[T]1diagS.

Beweis: Zu (1):

colν=0nAνBν=(A0B0AnBn)=(A0An)(B0Bn).

Zu (3):

rowν=0nAνBν=(A0B0AnBn)=(A0An)(B0Bn).

Zu (5)

diagν=0NAνBν=(A0B0AnBn)=(A0An)(B0Bn).

Zu (6): Beachte die Definition von [T] und benutze dann

(A11A1nAm1Amn)(S1Sn)=(A11S1A1nSnAm1S1AmnSn),

bzw.

(S1Sm)(A11A1nAm1Amn)=(S1A11S1A1nSmAm1SmAmn).

Zu (7): Folgt aus (4), wegen (AB)1=B1A1, wobei [T] für gänzlich beliebige Matrizen T invertierbar ist. Für T=0 ist [T] die Einheitsmatrix der Größe (n+1)k×(n+1)k.     ☐

4. Beispiele: Es gilt

coldgi=01(XTi)=(diagi=01X)(coldgi=01Ti)undrowdgi=01(TiY)=(rowdgi=01Ti)(diagi=01Y).

Im allgemeinen gilt

diagiUdiagkVAkdiagkVdiagiUAi.

Als nächstes folgt die Darstellung der Differenz der Lösung zweier Differenzengleichungen. Dieser Satz spielt eine wiederholt wichtige Rolle bei den gleich folgenden Hauptsätzen.

5. Satz: (Darstellungssatz) Voraussetzungen: u^n und un seien die Lösungen der beiden Differenzengleichungen

u^n++A1u^n+1++A0u^n=hφ(u^n+,,u^n)+rn+un++A1un+1++A0un=hφ(un+,,un)}n=0,1,,N.

Die “Störungen” rn+ korrespondieren zum Wert u^n+. Es seien zur Abkürzung gesetzt

δn+:=u^n+un+,δ^n+:=φ(u^n+,,u^n)φ(un+,,un)}n=0,,N.

Die Differenzengleichung für u^n habe die Startwerte u^i:=ui+ri, für i=0,,1. Es sei δi:=ri, für i=0,,1, und rν:=δν:=δ^ν:=0, für ν>N.

Behauptung:

δn=P1C1n(δ0δ1)+P1ν=0nC1n1νR1(rν++hδ^ν+)=P1C1n(δ0δ1)+P1ν=0nC1n1νR1rν++P1ν=0nC1n1νR1δ^ν+

Beweis: Folgt aus dem allgemeinen Satz über die Lösung inhomogener, linearer Matrix-Differenzengleichungen. Die allgemeine Lösung der Differenzengleichung

xn++A1xn+1++A0xn=yn,n=0,1,,N

lautet

xn=P1C1nz0+P1ν=0n1C1n1νR1yν.

Mit den obigen Abkürzungen für δn und δ^n, ergibt sich eine Differenzengleichung für δn zu

δn++A1δn+1++A0δn=hδ^n+rn.

Diese Gleichung hat die Lösungsdarstellung

δn=P1C1n(δ0δ1)+P1ν=0n1C1n1νR1(hδ^ν++rν+).

In der ersten Summe verschwinden die letzten (1) Terme, wegen P1C1iR1=0, für i=0,,2. Daß hier P1C11R1=I, braucht man noch nicht. Für ν>n ist n1ν2. Daher folgt genau die behauptete Gleichung, wie oben angegeben.     ☐

Die folgende Ungleichung liefert nicht die bestmögliche Abschätzung für 2, jedoch bleibt sie einfach zu handhaben und wird nachher beim Beweis des Hauptsatzes benötigt.

6. Hilfssatz: (Abschätzungssatz) Voraussetzung: φ() sei in jeder Komponente Lipschitz-stetig mit den Lipschitzkonstanten Ki. Die Werte δν+ und δ^ν+ seien wie oben definiert.

Behauptung:

ν=0n|δ^ν+|K|δn|+(i=0Ki)(ν=0n1|δν|)(i=0Ki)(ν=0n|δν|)(+1)(maxi=0Ki)ν=0n|δν|.

Beweis: Für ν=0,,n1 ist

|δ^ν+|=|φ(u^ν+,,u^ν)φ(uν+,,uν)|K0|δν|+K1|δν+1|++K|δν+|.

Sei jetzt, in einer nicht zu Mißverständnissen führenden Doppelbezeichnung, zur Schreibvereinfachung gesetzt δν|δν| und δ^ν|δ^ν|, d.h. die Betragsstriche werden einfach weggelassen. Nun ist hiermit

ν=0nδ^ν(K0δ0++Kδ)+(K0δ1++Kδ+1)++(K0δn+1++Kδn)=K0(δ0++δn+1)+K1(δ1++δn+2)++K(δ++δn)

Summation und Abschätzung bzgl. der Spalten im obigen Schema zeigt sofort die erste Abschätzung, wenn man die allerletzte Spalte mit K und δn gesondert behandelt. Die weiteren behaupteten Ungleichungen ergeben sich sofort aus der ersten.     ☐

Zur handlichen Notation der im folgenden Hauptsatz auftauchenden Stabilitätsfunktionale seien die folgenden abkürzenden Bezeichnungen eingeführt. Es war

P1:=(I00)Ck×k,R1:=(00I)Ck×k.

und die erste Begleitmatrix lautet (I=Ik×k)

C1:=(0I0000I0IA0A1A1)Ck×k.

Desweiteren sei

P1:=diagν=0NP1=(I00I00I00)C(N+1)k×(N+1)k,

und

R1:=diag(Ik×k,diagν=1NR1)=(Ik×k00I00I)C(N+1)k×(N+)k,

wobei

R:=colν=0N+1rν=(r0rN+1)C(N+)k.

Für das Produkt gilt: [C1]1R1C(N+1)k×(N+)k. Es sei (X,T,Y) ein beliebiges Standard-Tripel. Weiter sei

X:=diagν=0NX=(XXX)

und

Y:=diag[(coldgi=01XTi)1,diagν=1NY]=((coli=01XTi)1YY).

Es ist, aufgrund der Biorthogonalitätsbeziehung,

(coli=01XTi)1=(rowi=01TiY)B,

mit der Block-Hankel-Matrix B zu

B=(A1AA),A=I.

Die Sonderbehandlung der Blockmatrix bei R1 und Y in dem ersten “Diagonalelement” hat seinen Ursprung in der Lösungsdarstellung einer Differenzengleichung für Matrixpolynome der Form

xn=XJn(coli=01XJi)(y0y1)+Xν=0n1Jn1νYyν+.

Für den Fall =1, also ρ(μ)=IμA reduzieren sich P1 und R1 zu Einheitsmatrizen der Größe n×n. Die Biorthogonalitätsbeziehung schrumpft zu X=Y1 oder X1=Y.

4. Stabilitätsfunktionale für feste Schrittweiten

Man vgl. Peter Albrecht, "Die numerische Behandlung gewöhnlicher Differentialgleichungen: Eine Einführung unter besonderer Berücksichtigung zyklischer Verfahren", 1979. Sowie Peter Albrecht, 1985.

Zuerst sei zur Übersichtlichkeit ein Teil des Beweises des nachfolgenden Hauptsatzes nach vorne gezogen. Später wird dieser Hilfssatz erweitert. Es gibt noch weitere Äquivalenzen zwischen Stabilitätsfunktionalen.

1. Hilfssatz: Voraussetzung: Es sei C1i:=0Ck×k, falls i<0.

Behauptung: Das verkürzte Stabilitätsfunktional ist mit dem ursprünglichen es erzeugenden Stabilitätsfunktional normmässig äquivalent, d.h. es gilt

|[C1]1R1R||P1[C1]1R1R|.

Beweis: Der Beweis wird in zwei Teile aufgespalten. Man schätzt beide Stabilitätsfunktionale gegeneinander ab. Die Abschätzung |P1[C1]1R1R||P1||[C1]1R1R| ist klar, wobei die Zeilensummennorm von P1 unabhängig von N ist. Die andere Abschätzungsrichtung berücksichtigt das Verhalten der Begleitmatrix C1 intensiver. Man vergleiche hier auch die beiden nachstehenden Beispiele zur Verdeutlichung des “quasi-nilpotenten” Charakters der Potenzen der Matrizen C1. Man benutzt

|C1nz0||C11||C1n+1z0|=|C11|maxi=01|P1C1n+i+1z0|,

wegen

|C1nz0|=maxi=01|P1C1n+iz0|.

Diese letzte Identität hat ihre Wurzel in der eben genannten “quasi-nilpotenten” Eigenschaft der Begleitmatrix C1. Das Herausziehen von C11 ist zulässig, da bei der sup-Norm bei |P1[C1]1R1R| weiterhin über alle Zeilen das Supremun gebildet wird. Es geht kein Wert bei der Supremunsbildung verloren. Schließlich

|C1n1νR1rν+||C11||C1nνR1rν+|=|C11|maxi=01|P1C1nν+iR1rν+|,

wegen rν:=0, für ν>N.     ☐

2. Beispiel: Sei =2 und sei N:=n:=3. Es ist ρ(μ)=Iμ2+A1μ+A0Ck×k und die Potenzen der ersten Begleitmatrix C1 lauten C1ν, für ν=1,,N:

C1=(0IA0A1),C12=(A0A1A1A0A0+A12),C13=(A1A0A0+A12A02A12A0A0A1+A1A0A13).

Es war

P1=(I0)Ck×2k,R1=(0I)C2k×k.

Die Matrizen P1 und R1 haben das Aussehen

P1=(I0I0I0)C3k×6k,R1=(II0I0I)C6k×4k.

Man berechnet

[C1]1R1=(IC1R1C12C1R1R1C13C12R1C1R1R1)C8k×5k

zu

(I00I0IA0A10IA0A1A1A0A0+A1IA10IA1A0A0+A12A02A12A0A0A1+A1A0A13A1A0+A12IA10I)

An einer weiteren Demonstration ersieht man das sehr schnelle “Großwerden” der überstrichenen Matrizen.

3. Beispiel: Es sei nun =3 und N=3. Es ist ρ(μ)=Iμ3+A2μ2+A1μ+A0Ck×k. Nun berechnet man C1ν für ν=1,,N:

C1=(0I000IA0A1A2),C12=(00IA0A1A2A2A0A0+A2A1A1+A22)

und

C13=(A0A1A3A2A0A0+A2A1A1+A22A2A02A2A0+A12A2A1A0+A1A2+A2A1A23).

Weiter ist P1C4k×4k und R1C4k×6k mit

P1=(I00I00I00I00),R1=(III00I00I00I).

Nun ist [C1]1R1C12k×6k mit

[C1]1R1=(IC1R1C12C1R1R1C13C12R1C1R1R1)C4k×6k,

also

(III0I000IA0A1A200I00IA0A1A2A2A0A0+A2A1A1+A220IA200IA0A1A3A2A0A0+A2A1A1+A22A2A02A2A0+A12A2A1A0+A1A2+A2A1A23IA2A1+A220IA200I)

Das zugrunde liegende Schema ist hier

111222333222333444

Es folgt nun der angekündigte Hauptsatz, aus dem sich leicht ein entsprechender Konvergenzsatz für sehr allgemeine Diskretisierungsverfahren ableiten lässt. Desweiteren zeigt der Satz mehrere Querverbindungen zwischen verschiedenen Stabilitätsfunktionalen auf. In gewissen Situationen hat jedes der vorkommenden Funktionale seine spezifischen Vor- und Nachteile, und es lohnt sich mehrere Darstellungen, oder äquivalente Funktionale zur Verfügung zu haben. Insbesondere sollte jede der Darstellungen in gegenseitiger Befruchtung gepflegt werden. Später werden noch zwei andere Darstellungen hinzukommen, die bei gewissen Untersuchungen abermals vereinfachend wirken.

4. Hauptsatz: Voraussetzungen: (P1,C1,R1) sei das erste Begleiter-Tripel zum Matrixpolynom

ρ(μ):=Iμ+A1μ1++A1μ+A0,

vom Grade 1. Die Funktion φ sei Lipschitz-stetig in jeder Komponente mit den Lipschitzkonstanten Ki, also

|φ(u,,u^i,,u0)φ(u,,ui,,u0)|Ki|u^iui|,füri=0,,.

Die Potenzen der Matrix C1 seien beschränkt durch die obere Schranke D, also |C1ν|D, νN. Seien ξ und ξ^ definiert durch

ξ:=|P1|D|R1|K,ξ^:=|P1|D|R1|(i=0Ki).

Die Größe ξ^ ist eine Funktion von mehreren Veränderlichen, es ist ξ^=ξ^(P1,D,R1,K0,,K). Es sei |ba|0. Die Schrittweite h sei so gewählt, daß erstens |ba|/|h| natürlich ist und zweitens gleichzeitig gilt

|h|<{1/ξ,falls ξ>0;,falls ξ=0.

und N sei implizit definiert durch N|h|=|ba|.

Behauptungen: (1) Beide (möglicherweise) impliziten Differenzengleichungen

u^n++A1u^n+1++A0u^n=hφ(u^n+,,u^n)+rn+un++A1un+1++A0un=hφ(un+,,un)

besitzen für jedes n, eine eindeutig bestimmte Lösung un+ bzw. u^n+, die man mit Picard-Iteration berechnen kann.

(2) Für die maximale normmässige Abweichung |u^nun| gilt die beidseitige Abschätzung bzgl. der additiven Störglieder rn, wie folgt

c1|P1[C1]1R1R||U^U|c2|P1[C1]1R1R|c3N|R|.

(3) Die positiven Konstanten ci, für i=1,2,3, sind gegeben durch

c1=11+ξ^|ba|,c2=11|h|ξexpξ^|ba|1|h|ξ,c3=c2|P1|D|R1|.

(4) Die Abschätzung bei (3) ist unabhängig von der Wahl des Standard-Tripels, d.h. es gilt

X1[T1]1Y1R=X2[T2]1Y2R,

für zwei beliebige Standard-Tripel (X1,T1,Y1) und (X2,T2,Y2) zum Matrixpolynom ρ.

(5) Das verkürzte Funktional |[C1]1R1R| ist ebenfalls Stabilitätsfunktional und zum unverkürzten Funktional äquivalent, unabhängig von N, d.h. es gilt

|P1[C1]1R1R||[C1]1R1R|.

(6) Verkürzte Stabilitätsfunktionale sind bei Wechsel des Standard-Tripels untereinander äquivalent, jedoch nicht notwendig mehr gleich. Es gilt

|[T1]1Y1R||[T2]1Y2R|.

Beweis: Zur Abkürzung werde wieder benutzt

δn+:=u^n+un+,δ^n+:=φ(u^n+,,u^n)φ(un+,,un).

Zu (1): Beide Differenzengleichungen stellen für jedes n eine Lipschitz-stetige Keplersche Gleichung in u^n+ bzw. un+ dar. Die Fixpunktgleichungen bzgl. F^ und F, mit

u^n+=F^(u^n+:=hφ(u^n+,)+ψ^,bzw.un+=F(un+):=hφ(un+,)+ψ,

sind kontrahierend, falls |h|K<1. Durch die oben vorausgesetzte Einschränkung an h, nämlich |h|ξ<1, ist diese hinreichende Bedingung für Kontraktion erfüllt. Auf einem geeigneten vollständigen Teilraum, lässt sich dann Existenz und Eindeutigkeit eines Fixpunktes deduzieren.

Zu (2): a) Nach dem Hilfssatz über die Darstellung der Differenz der Lösung zweier Differenzengleichungen (siehe Darstellungssatz), folgt sofort durch Umstellung, die Abschätzungskette

|P1C1n(r0r1)+P1ν=0n1C1n1νR1rν+||δn|+|h||P1|D|R1|ν=0n|δ^ν+||δn|+|h||P1|D|R1|(i=0Ki)ν=0n1|δν||δn|+|ba||P1|D|R1|(i=0Ki)supν=0n1|δν|supν=0n|δν|+|ba||P1|D|R1|(i=0Ki)supν=0n|δν|=(1+ξ^|ba|)supν=0n|δν|.

Hierbei wurde die Abschätzung

ν=0n|δ^ν+|K|δn|+(i=01Ki)(ν=0n1|δν|)

des Abschätzungssatzes benutzt, desweiteren die Gleichung N|h|=|ba| und schließlich die Abschätzung ν=0n|δν|Nsupν=0n1|δν|. Durchmultiplikation mit

11+ξ^|ba|

liefert die erste Ungleichung der Behauptung (2), wobei sich entsprechend die Konstante c1 ergibt.

b) Wiederum nach dem Satz über die Darstellung der Differenz der Lösungen zweier Differenzengleichungen (siehe Darstellungssatz), folgt sofort beim Übergang zu Normen

|δn||h||P1|D|R1|ν=0n|δ^ν+|+|P1C1n(r0r1)+P1ν=0n1C1n1νR1rν+||h||P1|D|R1|(i=0Ki)=ξ^ν=0n1|δν|+|h||P1|D|R1|K=ξ|δn|+|P1[C1]1R1R|,

wobei wieder der Abschätzungssatz benutzt wurde, also durch Umformung

(1|h|ξ)|δn||h|ξ^ν=0n1|δν|+|P1[C1]1R1R|.

Wegen der Voraussetzung an h, nämlich |h|<1/ξ, ist 1|h|ξ>0. Mit Hilfe des diskreten Lemmas von Gronwall, wobei man in der dort angegebenen Bezeichnung setzt

εj+1|δn|,ηj|P1[C1]1R1R|1|h|ξ,δξ^1|h|ξ,hν|h|,

erhält man jetzt die Abschätzung

|δn||P1[C1]1R1R|1|h|ξexpξ^|ba|1|h|ξ.

Anhand dieser Darstellung ersieht man auch das Zustandekommen der Konstanten c2. Die Konstante c3 ergibt sich sofort durch typische Abschätzungen.

Zu (4): Das Standard-Tripel (X1,T1,Y1) ist ähnlich zum Standard-Tripel (X2,T2,Y2) genau dann, wenn

X2=X1S,T2=S1T1S,Y2=S1Y1,

oder

X1=X2S1,T1=ST2S1,Y1=SY2.

Nun ist

X1[T1]1Y1R=(diagν=0NX1)[T1]1diag[(rowdgi=01T1iY)B,diagν=1NY1]R=(diagν=0N(X2S1))[ST2S1]1diag{rowdgi=01[(ST2S1)iSY2]B,diagν=1N(SY2)}R=(diagν=0NX2)[T2]1diag[(rowdgi=01T2iY)B,diagν=1NY2]R=X2[T2]1Y2R.

Hierbei wurden die Recheneigenschaften der Operatoren diag, row und [] benutzt.

Zu (5): Dies wurde im vorausgeschickten Hilfssatz bewiesen.

Zu (6): Mit der gleichen Notation wie beim Beweis zu (4) rechnet man

[T1]1Y1R=[ST2S1]1diag{rowdgi=01[(ST2S1)iSY2]B,diagν=1NSY2}R=(diagν=0NS)[T2]1diag[rowdgi=01(T2iY2)B,diagν=1NY2]Y2R=(diagν=0NS)[T2]1Y2R.

Durch Multiplikation von links mit diagν=0NS1 folgt sofort

[T2]1Y2R=(diagν=0NS1)[T1]1Y1R.

Damit sind beide verkürzten Funktionale äquivalent.     ☐

5. Bemerkungen: Zur Voraussetzung: Aufgrund der Einschränkung der Schrittweite h in Abhängigkeit der Konstanten ξ, ist das Ergebnis nur von praktischer Bedeutung bei kurzen Integrationsintervallen und nicht-steifen Differentialgleichungsproblemen, also Problemen mit kleiner Lipschitzkonstante. Bei steifen Problemen werden die Konstanten ξ, ξ^, c1, c2, c3 schnell unangemessen groß. Die Konstanten ξ und ξ^ enthalten direkt als multiplikativen Faktor die obere Schranke D für die Matrixpotenzen. ξ seinerseits geht exponentiell in die Abschätzung ein. Die Aufspaltung in zwei sehr ähnliche Konstanten ξ und ξ^ geschieht nur, weil ξ i.a. kleiner ist als ξ^ und damit schärfere Schranken liefert. Man könnte mit ξ^ alleine auskommen. Dabei würde man ξ vollständig durch ξ^ ersetzen. ξ^ lässt sich wiederum ersetzen durch |P1|D|R1|(+1)(maxi=0Ki), man vergl. hier den entsprechenden Hilfssatz mit den diesbezüglichen Abschätzungen, siehe Abschätzungssatz. Erfüllt die erste Begleitmatrix C1 die Bedingung |C1ν|D, νN, so auch jede zu C1 ähnliche Matrix, allerdings mit u.U. verändertem D.

Numerische Ergebnisse von Tischer/Sacks-Davis (1983)3 und Tischer/Gupta (1985)2 zeigen, daß selbst bei steifen Differentialgleichungen das Stabilitätsfunktional die richtige Konvergenzordnung anzeigt und dies obwohl |h|ξ<1, verletzt ist. Autoren Peter E. Tischer, Ron Sacks-Davis und Gopal K. Gupta. Dies deutet darauf hin, daß die Ergebnisse des Hauptsatzes allgemeiner gelten als der den Hauptsatz tragende Beweis.

Kerninhalt der Beweise im Hauptsatz sind der Darstellungssatz, das diskrete Lemma von Gronwall und die Abschätzungen im Hilfssatz 6. Die obere Schranke D für die Matrixpotenzen |C1i| hängt u.U. ab von der Dimension der zugrundeliegenden Differentialgleichung y˙=f(t,y), aufgrund der Beziehung |C1I|=|C1|, falls die zur Maximumnorm kompatible Zeilensummennorm verwendet wird. Die Lipschitzkonstanten Ki sind abhängig von der Lipschitzkonstante von f.

Zu (1): Die Lösungen der möglicherweise impliziten Differenzengleichungen müssen nicht mit Picard-Iteration berechnet werden. Ebenso gut kann das Newton-Raphson-Iterationsverfahren oder das Newton-Kantorovich-Iterationsverfahren benutzt werden. Der Startfehlersatz von Liniger liefert eine obere Schranke für die Anzahl der nötigen Iterationen. Es zeigt sich, daß eine einzige Iteration vielfach vollkommen ausreicht. Weitere Iterationen schaffen keinerlei Verbesserungen an denen man interessiert ist. Für nicht genügend kleine Schrittweiten |h| können in der Tat die beiden angegebenen Differenzengleichungen und damit die entsprechenden Keplerschen Gleichungen keine oder mehr als eine Lösung besitzen.

Zu (2): Die Stabilitätsfunktionale |P1[C1]1P1R|, |[C1]1R1R| und |R| sind unabhängig von φ(), und unabhängig von den Lipschitzkonstanten Ki, jedoch abhängig von N und damit letztlich abhängig von h und/oder der Länge des Integrationsintervalles |ba|. Die Konstanten c1, c2, c3 hängen von den Lipschitzkonstanten Ki ab. Da bei dem Hauptsatz allerdings als zentrale Voraussetzung die Lipschitzkonstanten eingehen und beim obigen Beweis auch benötigt werden, hängen in soweit auch die Funktionale hiervon ab. Das durch die Konstante c2 induzierte exponentielle Wachstum kann bei den gegebenen Voraussetzungen des Hauptsatzes nicht so ohne weiteres verbessert werden, wie z.B. die beiden Differentialgleichungen y˙=0 und y˙=y mit y(0)=1 zeigen, wenn man das explizite Eulerverfahren yn+1=yn+hfn anwendet. Daß hierdurch auch das qualitative Verhalten gänzlich überschätzt werden kann, zeigen die beiden Differentialgleichungen y˙=0 und y˙=y, mit y(0)=1, wenn man das implizite Eulerverfahren yn+1=yn+hfn+1 verwendet. Dieses Verhalten ist schon beim kontinuierlichen Lemma von Gronwall und den hieraus sich ableitenden Sätzen wohl bekannt. Dort sind allerdings auch Sätze bekannt, die dieses falsche Voraussagen des qualitativen Verhaltens vermeiden, siehe Hairer/Wanner/N\o rsett (1987). {Hairer, Ernst}{Wanner, Gerhard}_{N\o rsett, Syvert Paul}% Hier benutzt man u.a. die logarithmische Norm μ definiert zu

μ(A):=limε0,ε>0|I+εA|1ε,ACk×k.

Für die euklidische-, Maximum- und die 1-Norm ergeben sich

μ(A)=λmax,λmax größter Eigenwert von 12(A+A),μ(A)=maxk=1n(Reaii+ik|aik|),μ(A)=maxi=1n(Reaii+ki|aki|).

Zu (4): Die Aussage (4) zeigt, daß das Stabilitätsfunktional unabhängig von der Basisdarstellung und Basiswahl ist. Die Abschätzungen sind invariant unter der Wahl des Standard-Tripels. Vielfach geeignet ist das Stabilitätsfunktional zum Jordan-Tripel, zum ersten Begleiter-Tripel (P1,C1,R1) oder zum zweiten Begleiter-Tripel (P1B1,C2,BR1), mit der Block-Hankel-Matrix zu

B:=(A1A2A1IA2A1II).

Zu (5) und (6): Gleichheit beider verkürzter Stabilitätsfunktionale ist nicht mehr zu erwarten. Desweiteren erkennt man, daß die Rechtseigenvektoren, also die Spalten in X1 bzw. X2 (falls einer der beiden zu einem Jordan-Tripel gehört) keinen “kalkülmässigen Einfluß” haben, entgegen den Linkseigenvektoren. Natürlich haben die Rechtseigenvektoren Einfluß auf das Gesamtverhalten, denn ändern sich die Rechtseigenvektoren, repräsentiert durch X, so ändern sich sich nach der Biorthogonalitätsbeziehung

(row_i=01TiY)B(coli=01XTi)=Ik×k,

auch die Linkseigenvektoren, repräsentiert durch Y. Jedoch brauchen die Rechtseigenvektoren oder gar die Inverse von col(XTi) nicht berechnet zu werden. Dies ist hier mit “kalkülmässig” unabhängig gemeint.

6. Corollar: Voraussetzung: ξ, c1, c2 wie beim Hauptsatz.

Behauptung: ξ0, c11, c21, falls maxi=0Ki0.

D.h. die beidseitige Ungleichungskette entartet zu einer Gleichungskette, falls alle Lipschitzkonstanten Kρ gegen Null gehen, was insbesondere bei Quadraturproblemen auftritt. Eine Anfangswertaufgabe für Differentialgleichungen enthält mit y˙=f(t), y(a)=0, y(b)=>?, das Quadraturproblem abf(t)dt als Spezialfall.

In Komponentenschreibweise liest sich der Hauptsatz wie folgt.

7. Hauptsatz: Voraussetzung: Es sei

|h|<1|P1|D|R1|K

Behauptung: (2) Für die maximale normmässige Abweichung |u^nun| gilt die beidseitige Abschätzung bzgl. der additiven Störglieder rn, wie folgt

c1supn=0N|P1C1n(r0r1)+P1ν=0n1C1n1νR1rν+|supn=0N|u^nun|c2supn=0N|P1C1n(r0r1)+P1ν=0n1C1n1νR1rν+|c3Nsupn=0N|rn|.

(4) Die Abschätzung bei (3) ist invariant unter der Wahl eines Standard-Tripels, d.h. es gilt

supn=0N|X^T^n(row_i=01T^iY^)B(r0r1)+X^ν=0n1T^n1νY^rν+|=supn=0N|XTn(row_i=01TiY)B(r0r1)+Xν=0n1Tn1νYrν+|,

für zwei Standard-Tripel (X,T,Y) und (X^,T^,Y^).

8. Bemerkung: Zu (2): Man erkennt an der Komponentendarstellung, daß rn eingeht in das Stabilitätsfunktional, ohne von rechts “echt” mit R1 (bzw. Y) multipliziert zu werden; ν=n, für ν>n, also n1ν2, man denke an P1C1n1νR1=0. M.a.W. für ν=n kann rn nicht in den Kernbereich von P1C1n1νR1 gelangen. Im Falle von Diskretisierungsverfahren, wo die rν die lokalen Diskretisierungsfehlervektoren darstellen, hat dies zur Konsequenz: Die Ordnung in h der rν kann nie überschritten werden. Durch Summation kann selbstverständlich eine Reduktion der Ordnung anfallen. Ist beispielsweise rν=O(hp+1), so ist |P1[C1]1R1R|=O(hp+1+ε) mit ε>0 unmöglich. Für ein Diskretisierungsverfahren ist dennoch ein Ordnungssprung größer 1 möglich, falls gewisse Komponenten von rνCk bei der Ordnungsfindung unberücksichtigt bleiben. Dies ist z.B. bei Runge-Kutta-Verfahren der Fall.

5. Projektorstabilitätsfunktionale

Im weiteren sei vorausgesetzt, daß die Eigenwerte von C1 auf dem Einheitskreis nur aus der 1 bestehen, also nicht von der Form eiφ [φ0(mod2π)] sind, da andernfalls die typischen Projektoreigenschaften verloren gehen. Sei E diejenige Matrix, die lediglich die spektralen Eigenschaften von C1 zu dem (den) dominanten Eigenwert(en) μ=1 trägt. T sei die Transformationsmatrix von C1 auf Jordannormalform, also

C1=TJT1,J=diag(1,,1,weitere Jordanblöcke).

Die Matrix E filtert aus dieser Darstellung nur den (die) Eigenwert(e) μ=1 heraus, also

E:=TJ^T1,J^:=diag(1,,1,0,,0).

Es zeigt sich, daß E nicht speziell von der Matrix C1 abhängt.

Die Eigenwerte μ=1 sind ja gerade diejenigen Eigenwerte, die für den dominanten lokalen Fehler verantwortlich sind. Es gilt ν=0N1, falls N, aber ν=0μν<C, falls |μ|<1. Bei ν=0N1 (N) verliert man gerade eine h-Potenz. Es war N|h|=|ba|, und N|h|0.

Die Matrix E hat nun eine Reihe von Recheneigenschaften, die in nachstehendem Satz zusammengefaßt sind. N ist hier wie üblich die Menge der natürlichen Zahlen von eins an.

1. Satz: (Projektorsatz) E sei wie oben definiert. S sei eine beliebige Matrix, ähnlich zu C1, also S=H1C1H. Dann gelten

  1. E ist idempotent, d.h. E2=E, also allgemein Ei=E, für alle iN. E ist damit ein Projektor.
  2. E ist unabhängig von C1. E hängt nur ab von V, beim Standard-Tripel (X,V,Y) zu C1.
  3. SE=E=ES. SνE=E=ESν, νN.
  4. Sn=E+(SE)n, nN.
  5. [E]1[S]=[SE], also |[E]1[S]|=1+|SE|.
  6. [S]1[E]=[SE]1, also |[S]1[E]|=1+|SE|++|(SE)N|.
  7. Es gilt
[SE]1diagν=0NE=diagν=0NE=(diagν=0NE)[SE]1

und

[SE]diagν=0NE=diagν=0NE=(diagν=0NE)[SE],[S]1=[SE]1+[E]1I.

Beweis: Zu (1): E2=(TJ^T1)(TJ^T1)=TJ^2T1=TJ^T1=E.

Zu (2): Liegt an der Ähnlichkeit von Standard-Tripeln.

Zu (3): SE=(TJT1)(TJ^T1)=TJJ^T1=TJ^T1=E. Für E=ES verfährt man analog.

Zu (4): Aufgrund der Vertauschbarkeit von S und E nach (2) und der Projektoreigenschaft nach (1) rechnet man

(SE)n=ν=0n(nν)(1)νSnνEν=Sn+ν=1n(nν)(1)νE=SnE,

wegen

0=(11)n=ν=0n(nν)(1)νund(n0)=1.

Zu (5): Berechne direkt anhand der Definition von [X] das Matrixprodukt [E]1[S] aus. Auf der ersten Subdiagonalen erscheint stets ES und auf allen darunterliegenden Diagonalen steht EES, was nach Behauptung (3) gleich der Nullmatrix ist.

Zu (6): Folgt sofort aus (5). Invertierung von [E]1[S] liefert [S]1[E]. Die Invertierbarkeit ist aufgrund der Definition von [X] gesichert. Die angegebenen Normen (Zeilensummennorm oder Spaltensummenorm) ergeben sich unmittelbar.

Zu (7): Ist klar.     ☐

2. Beispiel: Zu (5): Für das Produkt [E]1[S] im Falle N=3 berechnet man

(I000EI00E2EI0E3E2EI)(I000SI000SI000SI)=(I000ESI00EESESI0EESEESESI)

Es ist EES=0.

Bei den Ausdrücken hinter sup() steht immer eine endliche Menge, für welches natürlich stets das Maximum existiert. Warum schreibt man sup() und nicht max()? Weil man später beim Konvergenzsatz zu N übergehen will und man dann zu lim sup() gelangt.

3. Satz: Voraussetzungen: |Sν|D, νN, S=XJY, wobei J die (bis auf Permutation eindeutige) Jordanmatrix ist. X ist die Matrix, die die Rechtseigenvektoren trägt und Y enthält in entsprechend umgekehrter Reihenfolge die Linkseigenvektoren, d.h. es gilt SX=XJ und YS=JY. Weiter gilt S=XJx1=Y1JY=XJY.

Behauptungen: (1) c^1|[S]1R||U^U|c^2|[S]1R|c^3N|R|.

(2) |[S]1R||[E]1R||[J]1YR|.

(3) Die Konstanten c^1, c^2 und c^3 sind gegeben durch

c^1=c11+|SE|,c^2=c2ν=0|(SE)ν|,c^3=c^2Nmax(1,|E|).

Die Werte c^1 und c^2 sind unabhängig von N, c^3 hingegen nicht. c1,c2 wie beim Hauptsatz.

Beweis: Man schätzt |[E]1R| und |[S]1R| gegeneinander ab. Es ist

[E]1R=[E]1[S][S]1R=[SE][S]1R.

Durchmultiplikation mit [SE]1 würde jetzt liefern [SE]1[E]1R=[S]1R. Alternativ könnte man rechnen

[S]1R=[S]1[E][E]1R=[SE]1[E]1R.

Nach dem Projektorsatz sind |[SE]| und |[SE]1| für alle N beschränkt und damit sind beide Normen äquivalent. Die letzte Äquivalenz hat ihre Ursache in

[S]1R=X[J]1YR.

    ☐

In Komponentenschreibweise liest sich der obige Satz wie folgend.

4. Satz: Voraussetzungen: |Sν|D, νN. E ist wie oben und es gelten die restlichen Voraussetzungen des Hauptsatzes.

Behauptungen: (1) Die Stabilitätsnormen

supn=0N|ν=0nSnνrν|undsupn=0N|rn+Eν=0n1rν|

sind zueinander äquivalent.

(2) Es gilt die zweiseitige Fehlerabschätzung

c^1supn=0N|rn+Eν=0n1rν|supn=0N|u^nun|c^2supn=0N|rn+Eν=0n1rν|c^3supn=0N|rn|.

5. Satz: Voraussetzungen: (P1,C1,R1) sei das erste Begleitertripel, (X,J,Y) sei das Jordan-Tripel zum Matrixpolynom

ρ(μ)=Aμ+A1μ1++A0Ck×k,

C1νD, νN. Die Matrix J^ filtere aus J nur die Jordanblöcke zum Eigenwert μ=1 heraus. J selber enthalte keine weiteren dominanten Eigenwerte, J ist also stark D-stabil. Zwischen C1 und J besteht grundsätzlich der Zusammenhang

C1coli=01XJi=(coli=01XJi)J.

Nun sei C^1 die entsprechend zu J^ ähnliche Matrix. C^1 ist wie J^ Projektor.

Behauptung: Das verkürzte Projektorstabilitätsfunktional ist äquivalent zum Projektorstabilitätsfunktional, welches seinerseits äquivalent ist zum ursprünglichen Stabilitätsfunktional, d.h. es gilt unabhängig von N, daß

|[C^1]1R1R||P1[C^1]1R1R||[C1]1R1R||P1[C1]1R1R|.

Diese Äquivalenzen sind unabhängig von der Wahl der Standard-Tripel, d.h. es gilt genauso

|[J^]1YR||X[J^]1YR||[J]1YR||X[J]1YR|.

Beweis: Die dritte Äquivalenz wurde schon im Hauptsatz postuliert und bewiesen, desgleichen die Invarianz vom Standard-Tripel. Für die weiteren gegenseitigen Äbschätzungen rechnet man

|[C^1]1R1R|=|[C^1]1[C1][C1]1R1R|=|[C1C^1][C1]1R1R|

Für die Rückabschätzung rechnet man

|P1[C1]1R1R|=|P1[C1]1[C^1][C^1]1R1R|=|P1[C1C^1]1[C^1]1R1R|.

Die Beschränktheit der Normen von [C1C^1] und [C1C^1]1, und zwar gänzlich unabhängig von N, wurde schon vorher gezeigt. An dieser Stelle benutzt man dann |C1ν|D, νN. Die Beschränktheit von |P1|, unabhängig von N, ist ebenfalls klar.     ☐

Wünscht man lediglich ein Konvergenzresultat, so beschränke man sich auf das diskrete Lemma von Gronwall, den Darstellungssatz und beim Abschätzungssatz genügt völlig die letzte, sehr leicht einzusehende Abschätzung. Schließlich beim Hauptsatz genügt lediglich (1), (2) und (3). Weitere Vereinfachungen ergeben sich, falls man sich auf lineare Matrixpolynome der Form ρ(μ)=IμS beschränkt, also überall lediglich den Fall =1 betrachtet. Die untersuchten Verfahrenstypen bleiben dabei die gleichen, man verliert also letztlich nichts an Allgemeinheit. Die Werte |P1|, |R1| entfallen dann völlig. Die Beweise werden kürzer, aber ggf. muß S in den Anwendungen auf Diskretisierungsprobleme unnötig groß gewählt werden. Allerdings kann häufig S kleiner als C1 ausfallen, jedoch spielt C1 für praktische Rechnungen nicht die entscheidende Rolle, vielmehr ist es Y.

6. Nichtäquidistante Gitter

1. Aufgrund der Konsistenzbedingung ρ(1)=0 für jede Stufe eines zusammengesetzten Verfahrens, gilt Sw=w (SCk×k), mit w=(1,,1)Ck, wenn man das Verfahren in der Form un+1=Sun+hφ(un,un+1) notiert. Bei zyklischer oder auch nicht-zyklischer Kombination mehrerer Verfahren gelangt man zu un+1=SνSν1S2S1un+. Als notwendige und hinreichende Bedingung für Stabilität erhält man

SiSi+1Sj1Sj beschränkt,i>j.

Ein typischer Fall ist die Benutzung eines Grundverfahrens un+1=Sun+hφ und Variation der Schrittweite h. Gilt die obige Stabilitätsbedingung, so spricht man auch von schrittwechsel-stabil. Die Stabilitätsbedingung in der obigen Form ist nicht einfach zu verifizieren. Hinreichende Kriterien sind allerdings viel einfacher zu handhaben, man fordert also mehr und zwar:

  1. Bei einem Schrittweitenwechsel sind sämtliche Matrizen Si identisch, oder/und
  2. nach einem Schrittweitenwechsel wird ein Sonderverfahren mit einer Matrix T nachgeschaltet, mit der Eigenschaft, daß SiT=T gilt, "Matrix-fressende Eigenschaft".

Den ersten Fall kann man so erreichen, daß man die αij-Koeffizienten eines Verfahrens vorgibt und anschließend die βij-Koeffizienten berechnet. Das Verfahren ist offensichtlich stabil (die zu αij gehörende Matrix S war ja stabil) und es konvergiert mit der gleichen Konvergenzordnung wie S, wenn man die βij so wählt, daß eine ausreichend hohe Konsistenzordnung erreicht wird. Das ist aber stets möglich nach dem Dimensionssatz für die Konsistenzmatrix Cp+1,k.

2. Beim zweiten Fall absorbiert bildlich gesprochen die Matrix T sämtliche vorhergehenden Matrizen. Dies lässt sich bewerkstelligen, wenn die Spaltenvektoren von T Rechsteigenvektoren von Si sind, zum Eigenwert 1. Da aber alle Si konsistent sind, gilt Siw=w i. Damit hat T die Gestalt

T=(ε1w,ε2w,,εkw),ε1,,εkC

Aufgrund der Konsistenz von T muß gelten Tw=w, also

εw=1,ε=(ε1,,εk),

im Falle von w=(1,,1) also ε1++εk=1.

Egal wie w aussieht, T ist ein Projektor, also T2=T, oder was dasselbe ist: kerT und ImT sind zueinander komplementäre % Unterräume des Ck (A1A2=, A1+A2=Ck). Offensichtlich ist aber nicht jeder konsistente Projektor von der Gestalt T=(ε1w,,εkw). Dennoch zeigt sich, daß man bei einem stark stabilen, konsistenten Projektor nur einige Zeit warten muß, bis er die gewünschte Form annimmt, also man eine gewisse Potenz dieser Matrix zu bilden hat. Eine äquivalente Charakterisierung liefert

3. Satz: Spektraldarstellung schrittwechsel-stabiler Matrizen.

Voraussetzung: Es seien TνCk×k (ν=1,,k1) mit

T1=(0001),T2=(01001),,Tk1=(010101).

Behauptung: Es gilt

T=(ε1w,,εkw)εw=1}TT1=Tνν

Beweis:”: Die Matrix T=(ε1w,,εkw) hat den Rang genau 1: Jeder Minor mit 2 oder mehr Zeilen verschwindet (Spalten Vielfaches voneinander oder Nullspalte); aus w0 folgt T0. Damit ist T ähnlich zu einer der Matrizen Tν, ν=1,,k1. Da eine Projektoreigenschaft invariant unter einem Basiswechsel ist % (P2=P S1PSS1PS=S1PS) muß T ähnlich zu T1 sein.

”: Es sei w Rechtseigenvektor von T und X sei die Matrix der Rechtsjordanvektoren und Y sei die Matrix der Linksjordanvektoren, also T=XT1Y, mit

X=(,,,w),Y=(v).

Multiplikation von rechts mit T1 filtert aus X gerade w heraus, Multiplikation von links mit T1 filtert aus Y gerade v heraus, also

XT1=(0,,0,w),T1Y=(00v).

Offensichtlich hat T=(XT1)(T1Y) dann die verlangte Gestalt T=(v1w,,vkw) (dyadisches Produkt), mit vw=1 aufgrund der Biorthogonalitätsbeziehung XY=YX=I.     ☐

Der Beweis zeigt gleichzeitig, daß εT=ε, also ε Linkseigenvektor von T ist, was man natürlich auch so gesehen hätte. Die Beschränkung beim zweiten Fall auf ein einziges Sonderverfahren, ist nach dem ersten Fall unerheblich, wenn man z.B. immer das gleiche Sonderverfahren mehrmals anwendet. Wie man sieht, muß man Tν nur sooft wiederholen, wie der Nilpotenzgrad von 0 angibt, also ν-mal. Bei einem k-Schritt Adams-Moulton-Verfahren also (k1)-mal und bei einem Runge-Kutta-Verfahren einmal.

4. Satz: Die stark stabile Matrix ACn×n habe die Eigenwerte λ1=1 und |λi|<1 (i=2,,n). Es gelte Tw=w, v1T=v1T, v1w=1, v1=row(v1i) und es sei T:=(v11w,,v1nw). Dann gilt: TνT (ν).

Beweis: Für S:=TT gilt wegen TT=T=(T)ν=TT offensichtlich Sν=TνT (νN). Mit den Linkseigenvektoren v2,,vn zu λ2,,λn ergibt sich viTT=viT=λiviT, also viT=0, somit vi(TT)=viS=λivi, für i=2,,n. Weiter ist v1T=v1=v1T, daher v1(TT)=v1S=0, folglich hat S die Eigenwerte 0,λ2,,λn, ergo ρ(S)<1.     ☐

Erneut muß w nicht gleich (1,,1) sein. v1w=1 lässt sich immer erreichen. Bei stark stabilen konsistenten Matrizen ist entweder TT1ν, was äquivalent ist mit Tν=(ε1w,,εnw), oder aber zumindestens konvergiert eine Potenz von T gegen diese Gestalt. Das Wiederholen eines stark stabilen Zykluses hat hierin seine Erklärung.

7. Die Eigenwerte gewisser tridiagonaler Matrizen

Sei

A=tridiag(c,a,b):=(abcbca)Rn×n,

und es sei cb>0. Dann ist A diagonalisierbar mit den n Eigenwerten

λi=a+2bccosiπn+1,i=1,n.

Sei

E=tridiag(1,0,1)=(011110)Rn×n.

E ist diagonalisierbar mit den Eigenwerten

λi=2cosiπn+1,i=1,n.

Weiter gelten

B=tridiag(1,a,1)=(a1111a)Cn×n,λi=a2cosiπn+1,i=1,n.

und

T=tridiag(1,2,1)=(211112)Rn×n,λi=4siniπ2(n+1),i=1,n.

Mit T gilt dann für C:=1αT=tridiag(α,12α,α), also

C=(12ααααα12α)Rn×n,λi=14αsiniπ2(n+1),i=1,n.

8. Verfahren für parabolische Gleichungen

Parabolische, partielle Differentialgleichugen kann man durch Semidiskretisierung der Ortsvariablen auf ein i.a. vergleichsweise großes gewöhnliches Differentialgleichungssystem umformen. Dieses kann man dann mit den üblichen Verfahren numerisch lösen. Ein anderer Weg ist, vollständig zu diskretisieren. Dies bietet u.U. die Möglichkeit Verbindungen zwischen Orts- und Zeitdiskretisierungen zu nutzen. Dies soll hier kurz dargestellt werden.

Betrachtet werde die inhomogene Wärmeleitungsgleichung

ut=σuxx+f(t,x,u),σ>0 (Materialkonstante)

mit den Rand- und Anfangsdaten

u(0,x)=η(x),u(t,0)=u(t,xe),für allex[0,xe],für allet[0,te].

Die Differentialausdrücke für ut und uxx werden jetzt durch Differenzenausdrücke ersetzt und zwar 1)

ut=u(t+τ)u(t)τ+O(τ),Vorwärtsdifferenzuxx=u(x+h)2u(x)+u(xh)h2+O(h),zentrale Differenz

2)

ut=u(t+τ)u(tτ)2τ+O(τ2),zentrale Differenzuxx=u(x+h)2u(x)+u(xh)h2+O(h),zentrale Differenz

3)

ut=u(t+τ)u(t)τ+O(τ),Vorwärtsdifferenzuxx=u(x+h)(u(t+τ,x)+u(tτ,x))+u(xh)h2+O(h2).

4)

ut=u(t+τ)u(t)τ+O(τ),Vorwärtsdifferenzuxx=u(t+τ,x+h)2u(t+τ,x)+u(t+τ,xh)h2+O(h),zentrale Differenz bei (t+τ,x).

5) Man wende die Trapezregel (ϑ=12-Verfahren) an, wobei jedoch, wie oben dauernd geschehen, f nicht mit in die Implizitheit mit hineinbezogen wird.

ut=u(t+τ)u(t)τ+O(τ),Vorwärtsdifferenzuxx=(u(x+h)2u+u(xh)h2+u(t+τ,x+h)2u(t+τ,x)+u(t+τ,xh)h2)/2+O(h2),Mittelwert zweier zentraler Differenzen.

Hierbei wurden zur notationellen Vereinfachung die nicht weiter interessierenden Argumente unterdrückt. Stets ist ist t bzw. x gemeint, also z.B. u(x+h) meint u(t,x+h) und so fort. Diese Schreibweise von u(t,)=u() und u(,x)=u(x) betont die funktionalen Abhängighkeiten. u ist immer eine Funktion zweier Veränderlicher. Vorauszusetzen ist natürlich uC4([0,te]×[0,xe]).

Es sei N:=te/τ die Anzahl der Zeitschritte und M:=xe/h sei die Anzahl der Ortsschritte. Weiter sei ti:=iτ=0,τ,2τ,, für i=0,,N, und xk:=kh=0,h,2h,, für k=0,,M. Die Näherung für u(ti,xk) werde mit uki bezeichnet. Entsprechend sei fki die Näherung für f(ti,xk,u(ti,xk)). Offensichtlich ist tN=te und xM=xe.

1) Mit der Diskretisierung 1) erhält man jetzt das explizite Einschrittverfahren, wenn man ut und uxx entsprechend ersetzt. Durch Zusammenfassung ergibt sich

uki+1=(12στh2)uki+στh2(uk+1i+uk1i)+τfki,i=0,,N1.

2) Einsetzen ergibt das explizite Zweischrittverfahren

uki+1=uki1+2στh2(uk+1i2uki+uk1i)+2τfki,i=1,,N1.

Der Wertevektor uk1 muß hierbei auf andere Weise erhalten werden, zum Beispiel durch das obige explizite Einschrittverfahren.

3) Einsetzen liefert das implizite Zweischrittverfahren von DuFort/Frankel aus dem Jahre 1953: {DuFort, E.C.}{Frankel, S.P.}%

(1+2α)uki+1=2α(uk+1i+uk1i)+(12α)uki1+2τfki,i=1,,N1.

4) Einsetzen liefert das implizite Einschrittverfahren von Crank/Nicolson aus dem Jahre 1947:{Crank, J.}{Nicolson, P.}

στh2uk+1i+1+(1+2στh2)uki+1στh2uk1i+1=uki+τfki,i=0,,N1.

5) Einsetzen ergibt das implizite Einschrittverfahren von Crank/Nicolson (II). Dies entspricht also in etwa der Trapezregel:

α2uk1i+1+(1+α)uki+1α2uk+1i+1=α2uk1i+(1α)uki+α2uk+1i+τfki,i=0,,N1.

Zur Abkürzung wurde oben benutzt α:=στ/h2, welches auch im folgenden benutzt werden wird. Alle oben angegebenen Verfahren lassen sich in Matrixschreibweise notieren, anhand dessen man dann das Stabilitätsverhalten besser untersuchen kann, als in der Komponentenform. Zur Abkürzung sei daher im weiteren

vi:=(u1iuM1i),v0:=(η(x1)η(xM1),fi:=(f1ifM1i)

und seien die Matrizen definiert

A1:=tridiag(α,12α,α),A2:=tridiag(1,2,1),A3:=tridiag(1,0,1),A4:=tridiag(α,1+2α,α),A5:=tridiag(α2,1+α,α2),B5:=tridiag(α2,1α,α2).

Mit diesen Vektoren vi, fi und den Matrizen Aν, B5 schreiben sich jetzt die alle oben angegebenen Verfahren, wie folgt.

1) vi+1=A1vi+τfi, für i=0,,N1.

2) vi+1=2αA2vi+vi1+2τfi, für i=1,,N1.

3) (1+2α)vi+1=2αA3vi+(12α)vi1+2τfi, für i=1,,N1.

4) A4vi+1=vi+τfi, für i=0,,N1.

5) A5vi+1=B5vi+τfi, für i=0,,N1.

Die Stabilität aller Verfahren ergibt sich damit aus den spektralen Daten der zum Verfahren gehörenden Matrixpolynome. Von tridiagonlen Matrizen, der obigen Gestalt, nämlich Differenzenmatrizen, sind jedoch die Eigenwerte sämtlich angebbar. Es gilt:

1) A1 mit den Eigenwerten λ1,i:=14αsin2iπ2M, für i=1,,M1.

2) A2 mit den Eigenwerten λ2,i:=4siniπ2M>0, für i=1,,M1.

3) A3 mit den Eigenwerten λ3,i:=2cosiπM, für i=1,,M1.

4) A4 mit den Eigenwerten λ4,i:=1+4αsin2iπ2M, für i=1,,M1.

5) Für A5 rechnet man

A5=tridiag(α2,1+α,α2)=12[2I+αtridiag(1,2,1)]

und daher λ5a,i:=12(2+4αsiniπ2M), und

B5=tridiag(α2,1α,α2)=12[2Iαtridiag(1,2,1)]

mit den Eigenwerten λ5b,i:=12(24αsiniπ2M), für i=1,,M1.

Für die Stabilität ergeben sich nun unter Berücksichtigung der obigen Matrizen, die folgenden Aussagen.

1) Das Matrixpolynom IμA1 hat die Eigenwerte μi=λ1,i. Diese sind genau dann betragsmässig kleiner eins, falls α1/2. Wegen α=στ/h2, führt dies auf die Begrenzung der Zeitschrittweite τ zu

τ12σh2,

insbesondere ist die Zeitdiskretisierung nicht unabhängig von der Ortsdiskretisierung. Eine sehr feine Ortsdiskretisierung führt somit automatisch auch zu einer sehr restringierten Zeitschrittweite, und dies obwohl vielleicht in der Zeit eine viel größere Schrittweite angemessener wäre. Dies ist ein typisches Phänomen für explizite Verfahren und ein Grund zur Betrachtung impliziter Verfahren.

2) Für das Matrixpolynom Iμ22αA2μI ergeben sich nach Durchmultiplikation mit D, wobei D die Transformationsmatrix für A2 ist, also A2=Ddiag(λ2,i)D1, die Eigenwerte des Matrixpolynoms zu

detDdet(Iμ22αdiag(λ2,i)I)detD1=0,

also

μi,1/2=λ2,i±α2λ2,i2+1,i=1,,M1.

Der Spektralradius ist also für jedes α größer als 1. Das Verfahren ist demzufolge für alle τ und h instabil und damit nicht global konvergent, insbesondere als Einzelverfahren nicht brauchbar. In der Kombination mit anderen Verfahren, z.B. im Rahmen eines zyklischen Verfahrens, könnte es u.U. konvergent gemacht werden.

3) Das Matrixpolynom lautet (1+2α)Iμ22αA3μ(12α)I. Sei D die Transformationsmatrix auf Diagonalgestalt für die Matrix A3. Damit erhält man die 2M2 Eigenwerte des Matrixpolynoms als Nullstellen der Gleichung

detDdet(1+2α)Iμ22α2cosiπMμ(12α)I)detD1=0,

also

(1+2α)μi24αμicosφ(12α)=0,

mit φ:=iπ/M. Mit der Lösungsformel für quadratische Gleichungen der Form ax2+bx+c=0, a0, nämlich

x1/2=b±b24ac2a,

erhält man

μi,1/2=2α±14α2sin2φ1+2α.

Längere, aber elementare Rechnungen zeigen, daß die beiden Funktionen μi,ν:(α,φ)μi,ν(α,φ), ν=1,2, auf dem Rechteck [0,+[×[0,180] ihre Extrema annehmen für α=0 oder φ=0 bzw. φ=180. Hierbei sind eine Reihe von Fallunterscheidungen nötig (α, Radikand positiv oder negativ, ). In der Tat also |μi,1/2|<1, für alle α>0 und alle φ]0,180[. Das Verfahren von DuFort/Frankel ist damit unbeschränkt stabil.

4) Das Matrixpolynom IμA41 hat die Eigenwerte μi=λ4,i1<1, für alle α, da λ4,i>1. Das Verfahren von Crank/Nicolson ist damit für alle τ und h stabil. Aufgrund der Konsistenz folgt damit die Konvergenz.

5) Für das entsprechende Matrixpolynom korrespondierend zu A5μ=B5, ergeben sich die Eigenwerte als Quotient der Eigenwerte von A5 und B5, also

μi=12αsin(iπ/2M)1+2αsin(iπ/2M).

Damit ist auch dieses Verfahren unbeschränkt stabil, unabhängig also von den beiden Diskretisierungsgrößen τ und h.