Die Zeitschrift American Mathematical Monthly stellte 1894 die Aufgabe

Ein konkreter Fall legte folgende Frage nahe: Eine gleiche Anzahl von weißen und schwarzen Kugeln gleicher Größe werden in eine rechteckige Schachtel geworfen. Wie groß ist die Wahrscheinlichkeit einer zusammenhängenden Kette sich berührender weiße Kugeln von einem Ende der Schachtel bis zum gegenüberliegenden Ende?

In mathematischer Sprache fragt diese Aufgabe nach der kritischen Wahrscheinlichkeit pc der Perkolation auf einem endlichen Ausschnitte des Quadratgitters. Man betrachtet also die Kanten im Quadratgitter Z2. Mit einer gewissen Wahrscheinlichkeit p (entsprechend der relativen Häufigkeit weißer Kugeln), können diese „durchquert“ werden und man fragt dann nach der Wahrscheinlichkeit, am anderen Ende anzukommen.

Für den erzeugten Zufallsgraphen auf dem unendlich großen Quadratgitter folgt aus dem Kolmogorowschen Null-Eins-Gesetz die Existenz eines pc, so dass man für p \textless p_c mit Wahrscheinlichkeit 0 unendlich weit vom Ausgangspunkt wegkommt, also mit Wahrscheinlichkeit 1 alle Cluster endlich sind, und es für p \textgreater p_c mit Wahrscheinlichkeit 1 ein eindeutiges unendliches Cluster gibt und dieses mit positiver Wahrscheinlichkeit den Nullpunkt enthält.
Aus Kolmogorows Gesetz folgt nur die Existenz einer kritischen Wahrscheinlichkeit, aber nicht ihr genauer Wert. Tatsächlich war die Frage nach der kritischen Wahrscheinlichkeit für das Quadratgitter lange Zeit ein offenes Problem, das erst 1982 von Harry Kesten gelöst wurde: der Wert ist pc=1/2.

Solche Prozesse auf zweidimensionalen Gittern wie etwa selbstmeidende Irrfahrten, Perkolation, diffusionsbegrenztes Wachstum oder ein mathematisches Modell des Ferromagnetismus werden seit langem von Physikern und seit der Mitte des 20. Jahrhunderts auch von Wahrscheinlichkeitstheoretikern intensiv untersucht, wobei bis in die 80er Jahre die Physik deutlich dominierte. Als Beginn der Perkolationstheorie wird häufig eine Arbeit „Percolation processes. I: Crystals and mazes“ von Broadbent und Hammersley aus dem Jahr 1957 zitiert, wo insbesondere für die Zusammenhangskonstante die (heute als Definition verwendete) Formel \mu=\lim_{n\to\infty}\sqrt[n]{c_n} mit der Anzahl cn der selbstmeidenden (d.h. sich nicht schneidenden) Wege der Länge n (und tatsächlich noch eine allgemeinere Formel für Wege mit Selbstschnitten) bewiesen wurde.

Die Frage nach der kritischen Perkolation kann man statt für das quadratische Gitter auch für jedes andere Gitter oder überhaupt jeden unendlichen Graphen stellen, was aber erst spät im 20. Jahrhundert gemacht wurde. Für zweidimensionale Gitter hat man ähnliche Effekte wie für das quadratische Gitter. Für p<pc hat man mit Wahrscheinlichkeit 1 ein verschiebungsinvariantes System endlicher Cluster und die Wahrscheinlichkeit für Existenz von Clustern des Volumens n fällt exponentiell in n. Auch für p>pc hat man Resultate, zum Beispiel ist die asymptotische Dichte des eindeutigen unendlichen Clusters positiv. Das interessanteste Verhalten erwartet man für p nahe pc. Physikalisch entspricht das dem Phasenübergang und man konnte beweisen, dass es in dem Fall p=pc eine von 0 und 1 weg beschränkte Wahrscheinlichkeit für die Existenz eines unendlichen Clusters gibt.

Für das aus Mittelpunkten regelmäßiger Sechsecke gebildete Dreiecksgitter, dessen Kantenlänge man gegen Null gehen läßt, bekommt man für die Wahrscheinlichkeit einer Links-Rechts-Kreuzung im Grenzwert für p<1/2 den Wert 0, für p=1/2 den Wert 1/2 und für p>1/2 den Wert 1. Solche Formeln für die Wahrscheinlichkeit einer Links-Rechts-Kreuzung im Grenzwert konnten Physiker unter Verwendung der (mathematisch noch nicht bewiesen) konformen Invarianz herleiten.

Für solche Berechnungen untersucht man die Konvergenz im Skalierungslimit, wenn der Maßstab δ des Gitters gegen Null konvergiert. Physiker gingen immer davon aus, dass dieser Grenzwert existiert und dass er (für einen gewählten Gittertyp) konform invariant ist, also für ein Gebiet und sein Bild unter einer konformen Abbildung derselbe ist. Mit dieser Annahme hatte John Cardy, theoretischer Physiker an der Universität Oxford, 2-dimensionale konforme Feldtheorie zum “Beweis” seiner Formel für die Wahrscheinlichkeit einer Links-Rechts-Kreuzung verwendet. Die so berechneten Vorhersagen für die Kreuzungswahrscheinlichkeit zwischen gegenüberliegenden Seiten eines Rechtecks stimmten exzellent mit numerischen Berechnungen überein. Die Hoffnung war, dass man im Grenzwert eine Zufallskurve mit einem einfachen Wahrscheinlichkeitsgesetz bekommt, so wie die Grenzwerte von Irrfahrten den Gesetzen der Molekularbewegung (Brownsche Bewegung) genügen.

Auf der mathematischen Seite war der Fortschritt viel langsamer. Eine der Hürden war die unbewiesene Existenz des Skalierungslimits. Selbst das Finden passender Definitionen für das Skalierungslimit war eine nichttriviale Aufgabe. Verschiedene Analytiker arbeiteten an Ansätzen mittels stochastischer Prozesse. Der von Gregory Lawler “erfundene” LERW-Prozess – schleifenbereinigte Irrfahrten (loop erased random walks), d.h. Irrfahrten, bei denen durch Selbstschnitte entstehende Schleifen entfernt werden – gab den Mathematikern einen stochastischen Prozeß, der einiges mit selbstmeidenden Irrfahrten – d.h. Irrfahrten, die nie zu einem Punkt zurückkehren – gemeinsam hatte, mit dem man aber besser arbeiten konnte. Insbesondere hatte der LERW-Prozeß die Markov-Eigenschaft, d.h. seine Zukunft ist durch Kenntnis der Gegenwart (ohne Kenntnis der Vergangenheit) bestimmt. Arbeiten von Kenyon kombinierten kombinatorische Methoden mit komplexer Analysis und zeigte eine schwächere Form von konformer Invarianz für LERW-Prozesse. Damit konnte er den kritischen Exponenten (für die Wahrscheinlichkeit des sich Schneidens zweier Irrfahrten) berechnen. Oded Schramm hatte dann eine Idee, wie man LERW-Prozesse (schleifenbereinigte Irrfahrten) unter der Annahme konformer Invarianz des Skalierungslimits untersuchen konnte.

Karel Löwner hatte 1923 eine gewisse Differentialgleichung benutzt, um die Bieberbachsche Vermutung \vert a_n\vert\le n für die Taylor-Koeffizienten injektiver, analytischer Abbildungen der Einheitskreisscheibe in die komplexen Zahlen zu bearbeiten und für den Koeffizienten von z3 zu beweisen, nachdem Bieberbach die Ungleichung 1916 für den Koeffizienten von z2 bewiesen hatte. Löwner hatte seine Arbeit damals bei Bieberbach zur Veröffentlichung eingereicht und der hatte eine I hinter den Titel gesetzt, weil er überzeugt war, dass sich mit den Methoden auch der allgemeine Fall erledigen ließe, der dann im Teil II veröffentlicht werden sollte.
Die Bieberbach-Vermutung hatte zwar eigentlich keine große Bedeutung, als ungelöstes Problem blieb sie aber sechzig Jahre lang die dominierende Frage der Funktionentheorie bis sie nach vielen im Laufe der Zeit bewiesenen Teilergebnissen schließlich 1985 von de Branges, einem schon 52-jährigen Professor der Purdue University bewiesen wurde.

Löwners Ansatz, der dann auch grundlegend für de Branges’ Beweis wurde, bestand in der Einführung einer bestimmten Differentialgleichung. Er betrachtete einen einfachen Weg γ in der abgeschlossenen Einheitskreisscheibe mit Startpunkt γ(0) auf deren Rand und Endpunkt γ(τ)=0. Für jedes t kann man – dank des Riemannschen Abbildungssatzes – das Komplement des Bildes des Intervalls [0,t] in der offenen Einheitskreisscheibe konform auf die gesamte offene Einheitskreisscheibe abbilden mit einer Abbildung gt, die man auf eindeutige Weise so normieren kann, dass gt(0)=0 und gt‘(0)>0. Die Kurve γ wird dabei in den Rand der Einheitskreisscheibe abgebildet. Man kann so reparametrisieren, dass τ unendlich groß wird und gt‘(0)=et ist. Löwner bewies, dass dann folgende Differentialgleichung gilt: \frac{\partial}{\partial t}g_t(z)=g_t(z)\frac{g_t(\gamma(t))+g_t(z)}{g_t(\gamma(t))-g_t(z)}.
Insbesondere hat man einen „Antriebsterm“ ζt:=gt(γ(t)) mit Werten im Rand des Einheitskreises und man fragt sich, welche solcher Abbildungen ζt von Kurven γ erzeugt sind. Als Hülle Kt des Antriebterms bezeichnet man diejenigen Punkte, für die sich die Lösung der Löwner-Gleichung nicht bis zum Zeitpunkt t fortsetzen läßt.
Schramm betrachtete eine stochastische Version dieses Ansatzes, wo er also von einer Zufallskurve ausgeht und dann eine stochastische Version der Löwner-Gleichung bekommt. Das Hauptresultat seiner 2000 im Israel Journal of Mathematics veröffentlichten Arbeit „Scaling Limits of loop-erased random walks and Uniform spanning trees“ war – unter der Annahme, dass das Skalierungslimit von schleifenbereinigten Irrfahrten existiert und konform invariant ist – dass für die sich im Skalierungslimit ergebene Zufallskurve der Antriebsterm eine Brownsche Bewegung (eine unregelmäßige und ruckartige Wärmebewegung, wie sie kleine Teilchen in Flüssigkeiten und Gasen vollführen) auf dem Kreis wird.
Formal definierte er das Skalierungslimit als Maß mit kompaktem Träger, wobei er den Weg der schleifenbereinigten Irrfahrt als Zufallskurve, also als Maß auf den kompakten Teilmengen der Sphäre auffaßte. Das Grenzmaß hat seinen Träger auf den einfachen Wegen, d.h. den Wegen ohne Selbstschnitte. Das Hauptresultat besagte dann, dass die (von ihm als präzise Vermutung formulierte) Existenz und konforme Invarianz des Skalierungslimits impliziert, dass das Skalierungslimit wie die Hülle zum Antriebsterm e^{iB_{2t}} für eine (von einem gleichmäßig verteilten Startpunkt ausgehende) Brownsche Bewegung Bt verteilt ist. Hinter dem Beweis steckte eine (laut Schramm) „einfache kombinatorische Beobachtung“.


Allgemein definierte er die stochastische Löwner-Gleichung (abgekürzt SLEκ), später oft Schramm-Löwner-Gleichung genannt) als den Zufallsprozeß mit konformen Abbildungen gt entsprechend der Löwner-Gleichung mit Antriebsterm \xi_t=e^{i\sqrt{\kappa}B_t}. Das (bis dahin unbewiesene) Prinzip der konformen Invarianz und die Theorie der Lévy-Prozesse implizieren eine Verteilung κ1/2Bt mit zu bestimmendem κ. Man betrachtet also den Zufallsprozess der konformen Abbildungen gt mit Antriebsterm ζt=exp(iκ1/2Bt) betrachten. Mit Itōs Integraldarstellung stochastischer Prozesse bewies er, dass man für κ>4 fast sicher keine einfachen Wege bekommt, vermutete aber, dass dies für kleinere κ dennoch der Fall sein sollte. (Und er glaubte immer noch, dass das Leuten mit dem richtigen Hintergrund wohl bekannt sein sollte.)

Soweit konnte er Kurven untersuchen, die einen inneren Punkt mit einem Randpunkt verbinden wie bei LERW. Bei Perkolation geht es um eine andere Frage, nämlich zwei Randpunkte zu verbinden. Schramm fand die richtigen Normalisierungen der konformen Abbildungen und kam dort letztlich auf die Differentialgleichung \frac{\partial}{\partial t}g_t(z)=\frac{2}{g_t(z)-\sqrt{\kappa}B_t}
mit der Brownschen Bewegung Bt und κ=6. (Das ist der einzige Wert von κ, für den man Cardys Formel erhält.) Unter der Annahme, dass das Skalierungslimit der Perkolation existiert und konform invariant ist, muß es also die Lösung von SLE6 sein.

Währenddessen hatten Lawler und Werner gewisse Einschränkungsbedingungen für Brownsche Bewegungen entdeckt, ein Durchbruch im mathematischen Verständnis der kritischen Phänomene zweidimensionaler Modelle der statistischen Mechanik. Sie konnten aber die kritischen Exponenten nicht berechnen. Gemeinsam mit Lawler und Werner bewies Schramm die Einschränkungseigenschaft für SLE6. Dieser Fall schien sehr speziell zu sein. SLE6 war ein rein lokaler Prozeß. Zum Beispiel war es in der Kreisscheibe (mit der Loewner-Gleichung) dasselbe wie in der Halbebene (mit Schramms modifizierter Gleichung). Das war nicht so überraschend, da ja Perkolation ein lokaler Prozeß ist und man SLE6 als Skalierungslimit der Perkolation erhalten sollte.

Lawler, Schramm und Werner berechneten auch verschiedene Größen und zeigten auf diese Weise die Nützlichkeit sowohl von Schramms Differentialgleichung als auch der Universalitätsargumente von Lawler und Werner, mit denen man hier von SLE6 zur Brownschen Bewegung übergehen konnte. Daneben erarbeiteten Rohde und Schramm die allgemeinen Grundlagen der stochastischen Löwner-Gleichungen.

Den Beweis, dass das Skalierungslimit der kritischen Perkolation konform invariant und damit nach dem bisher Bewiesenen also SLE6 ist, hielten die drei für noch nicht machbar. So kam es sehr überraschend, dass Stanislaw Smirnow das schon ein Jahr später für das Dreiecksgitter beweisen konnte, veröffentlicht in einer Kurzfassung 2001 in den C. R. Acad. Sci., Paris (und in der Langversion 2009 auf dem ArXiv). Es war das erste Beispiel eines Modells der statistischen Physik, das gegen eine stochastische Löwner-Gleichung konvergiert. Ein wesentlicher Punkt im Beweis war eine von Carleson geometrisch gefundene Vereinfachung der Cardy-Formel.

Mit diesem Resultat konnten Lawler, Schramm und Werner berechnen, dass die fraktale Dimension des Randes ebener Brownscher Bewegung 4/3 ist – das hatte Mandelbrot vermutet. Danach bewiesen sie weitere Konvergenzen, so die von Schramm vermutete Konvergenz von LERW gegen SLE2 und dual die Konvergenz des UST-Prozesses (aufspannende Bäume) gegen SLE8. Weitere solcher Resultate wurden von ihnen und anderen Autoren gefunden. Für κ ≤ 8 haben die SLE-Kurven fraktale Dimension 1+κ/8 mit Wahrscheinlichkeit 1. Für κ ≥ 8 füllen sie die Ebene, sind also Peano-Kurven. Für κ ≤ 4 haben sie keine Selbstberührung, für κ > 4 aber doch. Zahlreiche andere Resultate für Konvergenz physikalischer Modelle gegen Schramm-Löwner-Gleichungen konnten bewiesen werden.

Kommentare (2)

  1. #1 schorsch
    14. Oktober 2021

    Ich habe ein Problem mit dem Sprung von der ursprünglichen Fragestellung der Mathematical Monthly zum Kolmogorowschen Quadratgitter. Kugeln in einer Schachtel bilden kein Quadratgitter, sondern ein Sechseckgitter. Und für das Sechseckgitter lässt sich die ursprüngliche Frage mittels einer einfachen Überlegung anhand der beiden Bilder mit den gelben und blauen Sechsecken beantworten.

    Dafür frage ich zunächst: Unter welchen Umständen kann eine horizontale zusammenhängende Kette blauer Elemente entstehen? Die Antwort ist einfach: Es gibt immer dann eine horizontale zusammenhängende Kette blauer Elemente, wenn es keine vertikale zusammenhängende Kette gelber Elemente gibt.

    Oder, anders formuliert: Wenn es keine horizontale Kette blauer Elemente gibt, gibt es mindestens eine vertikale Kette gelber Elemente.

    Das sagt nichts über die Wahrscheinlichkeit aus. Idealisiere ich die Fläche aber, so dass sie nicht mehr einfach rechteckig ist, sondern quadratisch, gilt für beide Ketten – die gelbe senkrechte und die blaue horizontale – die gleiche Wahrscheinlichkeit, nämlich 1/2. Und da diese Verteilung unabhängig von der Größe des Quadrats ist, gilt diese Wahrscheinlichkeit auch für jedes unendlich große Gitter.

    Oder habe ich die Fragestellung grundsätzlich falsch verstanden?

  2. #2 Thilo
    14. Oktober 2021

    Der Punkt ist, dass die beiden Farben unterschiedlich oft vorkommen können. Wenn die eine Farbe deutlich häufiger vorkommt, wird man mit hoher Wahrscheinlichkeit nur von dieser Farbe eine durchgehende Kette haben.

    Beim Quadratgitter ist diese kritische Wahrscheinlichkeit tatsächlich genau 1/2. Wenn man mehr als die Hälfte blaue Kugeln hat, wird man mit Wahrscheinlichkeit 1 eine unendlich lange blaue Kette bekommen.

    Beim Sechseckgitter ist die kritische Wahrscheinlichkeit 1-2sin(pi/18)=0,6527… Man muß mindestens diesen Anteil von 65,27… % blauer Kugeln haben, um mit Wahrscheinlichkeit 1 eine unendlich lange blaue Kette zu bekommen.