Vom Banachschen Fixpunktsatz zum Determinismus

Christoph Pöppe

Diesmal möchte ich für Sie zwei lose Fäden zusammenknüpfen, die ich in früheren Posts gesponnen habe.

Zum einen die Sache mit dem Laplace’schen Dämon und dem Determinismus: Kennst du den Zustand der Welt zu einem bestimmten Zeitpunkt und die Naturgesetze, dann kennst du ihn für alle Zukunft. Diesmal soll es nicht um die Philosophie gehen, sondern um die Mathematik. Was genau kann man beweisen, und wie?

Zum anderen habe ich angefangen, die Mittel für einen solchen Beweis zurechtzulegen. Es ging darum, sich in einem unendlichdimensionalen Raum wohlzufühlen, dessen Punkte aus kompletten Funktionen bestehen, und vor allem zuzusehen, dass dieser Raum keine Löcher hat, wenn man also eine Folge von Punkten in diesem Raum hat, deren Glieder einander immer näherkommen, dass diese Folge einem eindeutigen Grenzwert zustrebt.

Präzisieren wir zunächst den Laplace’schen Allwissenheitsanspruch. Wie beschreibt man den Zustand der Welt? Durch endlich viele reelle Zahlen. Denken wir uns die Koordinaten von Ort und Geschwindigkeit aller Massenpunkte, die in der Welt herumschwirren. Das sind für einen Massenpunkt schon sechs Stück, und für eine Primitivwelt, die nur aus Sonne, Mond und Erde besteht (alle drei punktförmig!), wären es 18 Koordinaten. Für alle Elementarteilchen im Universum kommen da sehr viele reelle Zahlen zusammen. Wie man die alle zu einem bestimmten Zeitpunkt kennen soll, ist eine interessante Frage, aber die wollen wir hier beiseitelassen; die Philosophie hatten wir ja in einem anderen Blogbeitrag. Einerlei: Wir schreiben die Orts- und Geschwindigkeitskoordinaten aller Beteiligten der Reihe nach sorgfältig auf, dann haben wir das, was man im Jargon einen Vektor nennt: eine geordnete Liste von Zahlen. (Die Pfeile im Raum, die man auf der Schule als Vektoren kennenlernt, sind Listen von drei geordneten Zahlen — x-, y– und z-Koordinate; hier sind es halt etwas mehr.)

Wie beschreibt man die Naturgesetze? Durch die Kräfte, mit denen die Teilchen aufeinander wirken, im Verein mit Newtons allgegenwärtigem Gesetz „Kraft ist Masse mal Beschleunigung“. Da wir ohnehin den Zustand der Welt durch die Orte und Geschwindigkeiten der Beteiligten ausdrücken müssen, lassen sich die Naturgesetze mit Hilfe von (ersten) zeitlichen Ableitungen formulieren: Ableitung des Ortes gleich Geschwindigkeit, Ableitung der Geschwindigkeit gleich Beschleunigung gleich Kraft geteilt durch Masse. Damit nimmt das Gesetz, das die Entwicklung der Welt beschreibt, eine geradezu irreführend einfache Form an: \[y'(t)=f(y(t))\] Dabei ist y(t) der Zustandsvektor, also die oben genannte Liste aller Zahlen, die den Zustand der Welt zum Zeitpunkt t beschreibt. Die ganze Vielfalt der Naturgesetze steckt in der Funktion f, die einen Zustandsvektor, in diesem Fall y(t), auf einen anderen abbildet. Und wenn y so von der Zeit abhängt, dass tatsächlich \(f(y(t))=y'(t)\) ist, dann folgt die Welt, beschrieben durch y, den Naturgesetzen.

Wenn wir also wissen wollen, wie die Welt sich entwickeln wird, müssen wir die (vektorwertige) Funktion y(t) finden, die diese Differenzialgleichung löst. Unter der Voraussetzung, dass wir den Zustand der Welt zum Zeitpunkt t=0 kennen; nennen wir ihn y0. Das ist das, was man das Anfangswertproblem für gewöhnliche Differenzialgleichungen nennt. Und das hat in der Tat eine Lösung, und die ist eindeutig bestimmt.

Unter einer einzigen, relativ milden Voraussetzung, die für klassische Naturgesetze schon fast per definitionem erfüllt ist: „Natura non facit saltus“, die Natur macht keine Sprünge. Wenn sich Ort und/oder Geschwindigkeit eines Teilchens nur ein bisschen ändern, dann ändern sich die wirkenden Kräfte auch nur ein bisschen. Es kann nicht sein, dass man ein Teilchen nur ein beliebig kleines Stück verschiebt, und die Kraft ändert sich erheblich. Mathematisch heißt das: Die Funktion f muss stetig sein. Gefordert ist sogar eine verschärfte Form von stetig, die man lipschitzstetig nennt.

Wie beweist man nun die Existenz und die Eindeutigkeit? Bei manchen gewöhnlichen Gleichungen gibt es ein Lösungsverfahren; dessen Anwendung liefert zugleich den Beweis. Bei unseren Differenzialgleichungen funktioniert das nur in sehr exotischen Spezialfällen. Für den allgemeinen Fall gibt es immerhin eine zweitbeste Methode: ein Näherungsverfahren, das gegen eine Lösung konvergiert, und zwar immer gegen dieselbe, einerlei mit welcher (beliebig schlechten) Näherung man anfängt.

Dazu formen wir das ursprüngliche Problem ein bisschen um, indem wir es integrieren: \[y(t) = y_0+\int_0^t f(y(s))ds\]

Wie war das? Differenzieren und Integrieren sind irgendwie Umkehrungen voneinander, so wie das Dividieren die Umkehrung vom Multiplizieren ist. So ungefähr. Ein paar Einzelheiten sind komplizierter, aber die sollen uns hier nicht interessieren. Jedenfalls: Wenn man die obige Gleichung nach t differenziert, kommt wieder die ursprüngliche Differenzialgleichung heraus. Also ist die Umformung zulässig. Sie macht das Problem sogar in einem gewissen Sinne milder: Die ursprüngliche Gleichung macht nur Sinn, wenn y differenzierbar ist (was sollte sonst y’ sein?). Das verlangt die integrierte Gleichung nicht. Man kann also beide Seiten der integrierten Gleichung hinschreiben, auch wenn y irgendwelche Knicke oder Löcher hat. Dann kann zwar die Gleichung nicht erfüllt sein, aber das ist eine andere Sache.

Zudem definieren wir uns eine Funktion namens F zurecht, die Funktionen auf Funktionen abbildet. Wenn also y eine unserer vektorwertigen Funktionen ist, dann ist F(y) auch eine. Und zwar ist die definiert durch \(F(y)(t) = y_0+\int_0^t f(y(s))ds\). Wenn wir ein y gefunden haben, für das F(y) = y gilt (einen „Fixpunkt“ der Abbildung F), sind wir am Ziel; denn nichts anderes sagt unsere umgeformte Differenzialgleichung.

Unversehens sind wir in einem Funktionenraum gelandet. Alle Funktionen sind nichts weiter als Punkte in diesem Raum. Und wenn wir uns beim Definieren des Funktionenraums ein bisschen Mühe geben, ist es ein Banachraum. Was heißt das nochmal? Man kann die Elemente des Raums addieren und mit Konstanten multiplizieren — das geht auch mit Funktionen –; es gibt eine Norm, das heißt, zu jedem Element u des Raums gibt es eine reelle Zahl, die man mit ||u|| („Norm von u“) bezeichnet und die sozusagen den Abstand des Elements u von der Null beschreibt; und der Raum ist vollständig, das heißt, jede Cauchy-Folge konvergiert.

Jetzt kommt die entscheidende Idee: Wenn eine Abbildung F, die von einem Banachraum in denselben Banachraum geht, eine Kontraktion ist, dann hat sie einen eindeutig bestimmten Fixpunkt. Das ist die Aussage des Banach’schen Fixpunktsatzes. Was heißt Kontraktion? In einem gewöhnlichen Raum wäre das so etwas wie eine Verkleinerung, vielleicht noch mit einer Verschiebung oder Drehung dabei. Genauer: Wenn man zwei Punkte, nennen wir sie u und v, in dem Raum hat, dann sind deren Bilder unter der Abbildung F einander näher als die Punkte selbst: \[||F(u)-F(v)|| \leq c ||u-v|| \] mit einem „Verkleinerungsfaktor“ c < 1.

Warum gilt der Banach’sche Fixpunktsatz? Die Idee ist so einfach wie genial. Man beginne mit irgendeinem Punkt aus dem Banachraum, nennen wir ihn u0, wende die Funktion F auf ihn an, nenne das Ergebnis u1, wende darauf wieder F an, und so weiter. \(u_1=F(u_0), u_2=F(u_1)=F(F(u_0)), u_3=F(F(F(u_0))) \ldots \), jawohl, ein iteriertes Funktionensystem, wie es uns schon bei der chaotischen Blätterteigfunktion begegnet ist. Dann konvergiert die Folge \(u_0, u_1, u_2, \ldots \) gegen einen Fixpunkt von F. Wieso? F macht den Abstand zwischen zwei Punkten stets etwas kleiner, auch den zwischen einem Folgenglied uj und seinem Nachfolger uj+1. In der Tat geht wegen der Kontraktionseigenschaft \(||u_j-u_{j+1}|| = ||u_j-F(u_j)||= ||F(u_{j-1})-F(u_j)|| \) \( \leq c( ||u_{j-1}-u_j||) \) mindestens so schnell gegen 0 wie eine geometrische Folge mit dem Faktor c < 1. Also ist (uj) eine Cauchy-Folge, also hat sie einen Grenzwert, nennen wir ihn u, und für den gilt \(||u-F(u)||=0\) und deswegen auch \(u=F(u)\). Da haben wir unseren Fixpunkt. Und es kann nur einen geben; denn hätten wir zwei, dann würden wir F auf beide anwenden, was ihnen nichts ausmacht, es sind ja Fixpunkte, aber wegen der Kontraktionseigenschaft sind sie nun näher beieinander als zuvor, und das kann nur sein, wenn sie von Anfang an gleich waren. Was zu beweisen war.

OK, kurze Verschnaufpause.

Der Beweis des Banach’schen Fixpunktsatzes hat uns quasi nebenher ein Verfahren für eine Näherungslösung für unsere Differenzialgleichung geliefert: Man nehme irgendeine Funktion, egal welche, wenn sie nur in unserem Banachraum ist, wende immer wieder F auf sie an, und auf die Dauer wird das Ergebnis unserer gesuchten Lösung beliebig nahekommen. Da gibt es ein paar technische Hindernisse — ein Integral auszurechnen ist theoretisch eine schöne Sache, aber praktisch schwierig –, aber die Idee ist trotzdem durchaus brauchbar.

Nur fehlt in der ganzen Gedankenkette ein entscheidendes Glied: Woher wissen wir, dass F eine Kontraktion ist? Das versteht sich in der Tat nicht von selbst. Das Integrieren, das in dem F enthalten ist, macht eine Funktion zwar irgendwie braver; zum Beispiel ist F(y) stets eine differenzierbare Funktion, auch wenn y selbst nur stetig ist. F bügelt also allerlei Knicke aus. Aber das reicht nicht. Auch bei Differenzialgleichungen gibt es die empfindsame Abhängigkeit von den Anfangsdaten, über die ich in der Blätterteig-Geschichte erzählt habe. Infolgedessen kann es passieren, dass selbst bei zwei Funktionen u und v, die sich nicht sonderlich voneinander unterscheiden, F(u) und F(v) für große Zeiten t weit auseinanderlaufen. Das würde der Kontraktionseigenschaft widersprechen.

Also definiert man sich die Norm so zurecht, dass sie „kurzsichtig“ ist: Je größer die Zeit t wird, desto weniger genau schaut sie hin. Und wenn man das geschickt anstellt, dann stellt sich F tatsächlich als eine Kontraktion dar, und damit ist der Existenz- und Eindeutigkeitssatz für das Anfangswertproblem gewöhnlicher Differenzialgleichungen bewiesen. Hurra.

Aber da bleibt ein übler Nachgeschmack. Das mit der kurzsichtigen Norm sieht doch verdächtig nach Pfusch aus. Wir schauen nicht so genau hin, damit wir nicht merken, wenn die Funktion F sich doch nicht so brav verhält, wie wir das gerne hätten, und machen deswegen uns selbst und anderen vor, es sei alles in Ordnung? Um Fehler dieser Art auszuschließen, muss man den Beweis sorgfältig führen und zum Beispiel sichergehen, dass die Norm nicht aus Versehen Ungleiches für gleich hält.

Außerdem handelt man sich mit diesem Verfahren eine Einschränkung ein. Die Existenz einer eindeutigen Lösung ist nicht für alle Zeiten garantiert, sondern nur für einen beschränkten Zeitraum. Für wie lange? Kann man so genau nicht sagen. Es kommt im Wesentlichen darauf an, wie stetig die rechte Seite f unserer Differenzialgleichung ist.

Das ist nicht so schlimm, wie es zunächst klingt. Wir haben den Zustand der Welt für den Zeitraum von t=0 bis zu einem gewissen Zeitpunkt, nennen wir ihn t1, vorhergesagt. Dann nehmen wir den so ermittelten Zustand zum Zeitpunkt t1 als Anfangswert eines neuen Problems mit derselben Differenzialgleichung, finden eine Lösung bis zu einem weiteren Zeitpunkt t2, und so weiter. Also sagen wir den Zustand der Welt gewissermaßen auf Raten vorher, bis in alle Ewigkeit.

Wenn die einzelnen Raten nicht beliebig klein werden! Die erste Prognose überdeckt eine Sekunde, die zweite eine halbe, die dritte eine viertel Sekunde … Dann ist nach zwei Sekunden das Ende der Welt erreicht, oder zumindest das Ende unserer Erkenntnismöglichkeiten.

Und das kann tatsächlich passieren. Es gibt Differenzialgleichungen, die sehen ganz brav aus, und ihre Lösung explodiert in endlicher Zeit, will sagen geht gegen unendlich — das, was man eine Singularität nennt. Nur dass es nicht mehr weitergeht, ohne dass es knallt: Das kann nicht passieren.

Zu allem Überfluss macht sogar die Natur manchmal Sprünge. Das bekannteste Beispiel ist das Gravitationsgesetz. Anziehungskraft ist proportional eins durch Abstand zum Quadrat, und wenn der Abstand gegen null geht … Ein Frontalzusammenstoß zweier Massenpunkte ist zwar ein Ereignis „mit Wahrscheinlichkeit null“, ist also auch in manchen Theorien vernachlässigbar; aber die schiere Möglichkeit vereitelt etliche allgemeine Aussagen über die Zukunft unseres Planetensystems, vor allem über dessen Stabilität — womit wiederum dem Chaos Tür und Tor geöffnet ist.

The post Vom Banachschen Fixpunktsatz zum Determinismus originally appeared on the HLFF SciLogs blog.