Ich hatte hier im Blog über einige Jahre eine Reihe Topologie von Flächen, die trotz des recht speziellen Themas ganz gute Klickzahlen hatte und die durch ihr wöchentliches Erscheinen jedenfalls eine Garantie dafür war, dass hier im Blog nicht nur tagesaktuelle Ereignisse vorkommen, sondern auch ernsthafte Mathematik. Um das wiederaufzunehmen, will ich hier im Blog wieder eine wöchentliche Reihe starten; diesmal über “große Sätze” der Mathematik, wobei es nicht um den Satz des Pythagoras oder die Lösungsformel für kubische Gleichungen gehen soll, sondern um neuere Mathematik, vom Ende des 19. Jahrhunderts bis ins 20. oder (wenn ich soweit komme) 21. Jahrhundert.
Diese Seite hier soll vor allem der Archivierung der erscheinenden Beiträge dienen, so dass man eine Stelle hat, von der aus alle bisher erschienenen Artikel angeklickt werden können.

Die Klassifikation der einfachen Lie-Algebren.
Der Wiederkehrsatz von Poincaré
Minkowskis Gitterpunktsatz
Ljapunow-Stabilität
Hilberts Nullstellensatz
Der Überdeckungssatz von Heine-Borel
Poincaré-Dualität
Der Primzahlsatz
Hilberts Produktformel
Komponierbarkeit quadratischer Formen
Die Widerspruchsfreiheit der euklidischen Geometrie
Das Runge-Kutta-Verfahren
Lebesgues Satz über dominierte Konvergenz
Fortsetzbarkeit von L-Funktionen
Die Fredholm-Alternative
Der Wohlordnungssatz
Schurs Lemma
Der Spektralsatz für beschränkte Operatoren
Der Satz von Riesz-Fischer
Das Ritz-Verfahren
Borels Gesetz der großen Zahlen
Der algebraische Abschluß von Körpern
Invarianz der Dimension
Der Abbildungssatz
Der Satz vom höchsten Gewicht
Die Klassifikation algebraischer Flächen
Die Einstein-Hilbert-Wirkung
Charakterisierung analytischer Mengen
Multiplikativität der Ramanujanschen Tau-Funktion
Das Noether-Theorem
Kongruenzen der Partitionsfunktion
Der Satz von Thue-Siegel
Das Lokal-Global-Prinzip
Der Banachsche Fixpunktsatz
Die Lefschetzsche Fixpunktformel
Der Fisher-Test
Die Hauptsätze der Werteverteilungstheorie
Der Satz von Peter-Weyl
Das Artinsche Reziprozitätsgesetz
Der Spektralsatz für unbeschränkte Operatoren
Der Satz von Mordell-Weil
Existenz unendlich vieler Geodätischer
Der Ergodensatz
Der Satz von Brauer-Hasse-Noether
Das Fundamentallemma der mathematischen Statistik
Pontrjagin-Dualität
Der Satz von Tichonow
Der Einbettungssatz von Whitney
Der Satz von Winogradow
Der Sobolewsche Einbettungssatz
Der Satz von Teichmüller
Die Riemann-Vermutung für Funktionenkörper
Das Hodge-Theorem
Siegel-Scheiben
Stetiger Funktionalkalkül
Der Satz von Chern-Gauß-Bonnet
Der Eilenberg-Steenrod-Eindeutigkeitssatz
Die Leray-Spektralsequenz
Konditionierung linearer Gleichungssysteme
Das Simplex-Verfahren
Das WKS-Abtasttheorem
Adelische Poisson-Summation
Der Vergleichssatz von Rauch
Die Berechnung des Kobordismusrings
Die Endlichkeit der Homotopiegruppen von Sphären
Der Einbettungssatz von Nash
Serre-Dualität
Die Selbergsche Spurformel
Bott-Periodizität
Der Satz von Grothendieck-Riemann-Roch
Der Eichler-Shimura-Isomorphismus
Der meßbare Riemannsche Abbildungssatz
Der h-Kobordismus-Satz
Der Satz von Feit-Thompson
Der Atiyah-Singer-Indexsatz
Auflösung der Singularitäten
Das Prinzip der großen Abweichungen
Lusins Vermutung
Strukturelle Stabilität hyperbolischer Systeme
Das Yoga der Motive
Konvergente Differenzenschemata der Navier-Stokes-Gleichung
Die Jacquet-Langlands-Korrespondenz
NP-Vollständigkeit des SAT-Problems
Dualität des BMO-Raums zum Hardy-Raum
Die LBB-Bedingung
Die Weil-Vermutungen
Der Superstarrheitssatz
Der Vier-Farben-Satz
Die Calabi-Vermutung
Thurstons Satz über hyperbolische Dehn-Chirurgie
Irrationalität von Zeta(3)
Shelahs Main Gap
Die Kazhdan-Lusztig-Vermutungen
Exotische vierdimensionale Räume
Die Mordell-Vermutung
Der Satz über wandernde Gebiete
Lösung des Wortproblems für hyperbolische Gruppen
Das Gaußsche Klassenzahlproblem
Die Arnold-Vermutung für monotone symplektische Mannigfaltigkeiten
Multiresolutionsanalyse von Wavelets
Der Maßstarrheitssatz
Die Witten-Vermutung
Das eingeschränkte Burnside-Problem
Monströser Mondschein
Mirrorsymmetrie für Calabi-Yau-Hyperflächen in torischen Varietäten
Die Thom-Vermutung
Der große Satz von Fermat
Die Milnor-Vermutung
Das Scheffer-Shnirelman-Paradoxon
Die Baum-Connes-Vermutung für kokompakte Gitter in SL(3)
Vergleich der Regulatoren von Beilinson und Borel
Das Skalierungslimit schleifenbereinigter Irrfahrten
Die Langlands-Korrespondenz für Funktionenkörper
Die Gromov-Witten-Invarianten der projektiven Gerade
Die Poincaré-Vermutung
Der Satz von Green-Tao
Die Mirzakhani-McShane-Identitäten
Die Arnold-Vermutung
Serres Modularitätsvermutung
Das Fundamentallemma
Nichtlineare Landau-Dämpfung
Eindeutige Quantenergodizität für SL(2,Z)\H
Die Read-Vermutung
Die Waldhausen-Vermutung
Der Satz über beschränkte Primzahllücken
Die Grunewald-Ash-Vermutung
Die Yau-Tian-Donaldson-Vermutung
Erdős’ Diskrepanz-Problem
Optimalität der E8-Kugelpackung
Die Hodge-Riemann-Relationen für Matroide
Die Onsager-Vermutung
Das Liquid Tensor Experiment

Kommentare (3)

  1. #1 Dirk Freyling
    Erde
    30. August 2019

    Thilo,
    ich finde es begrüßenswert, wenn Du Deine Blog-Artikel mehr auf formale respektive axiomatische Aspekte ausrichtest, doch ich „befürchte“, daß verstehen Nichtmathematiker nur schwer bis gar nicht. Deine Ausführungen »Die Klassifikation der einfachen Lie-Algebren« ist für den „Normal-Leser“ bereits „nicht ohne“.

    Da ich mir selber Fragen zum Sinn und Zweck mathematischer Konstruktionen stell(t)e, hier einige ergänzende Informationen und Hintergründe für Interessierte.

    Schon Ernst Mach bemerkte: “Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte.” Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

    Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht.Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. “Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat.” Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre.
    Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben.
    Es ist immer zu fragen, was das Symbolisierte in den Symbolen ist. Beispielsweise treten quantenfeldtheoriebasierend Felder und differenzierbare Mannigfaltigkeiten an die Stelle des euklidischen Raums. Auch an die Symmetrie ist die Frage zu stellen, was eigentlich das “Symmetrische” ist. Diese Frage führt zu der mathematischen Technik des Aufbaus komplexer Funktionen und Funktionssystemen aus einfachen periodischen Funktionen.

    Exemplarisch über Johann Carl Friedrich Gauß (1777 – 1855), Georg Friedrich Bernhard Riemann (1826 – 1866), der u.a. den Begriff der Metrik einführte…welcher modern bedeutet: Eine Metrik ist ein Skalarprodukt auf dem Tangentialraum einer Mannigfaltigkeit M, die in differenzierbarer Weise vom Punkt p  M abhängt. Die euklidische Metrik ist dabei lediglich ein Spezialfall… Geometrie ist im Riemannschen Sinne »innere Geometrie«, deren Objekte Größen sind, die nur von den lokalen Eigenschaften einer Metrik abhängen…

    folgen Felix Christian Klein’s (1849 – 1925) Ausführungen …zu Veränderungen der Lage – Drehungen, Spiegelungen, Verschiebungen, … – diese sind die Wirkung einer Gruppe, die er als „Transformationsgruppe“ bezeichnet. Die geometrischen Objekte sind Invarianten gewisser Gruppen, die auf Mengen operieren. Mit Rückführung der Geometrie auf die Algebra konnte man Geometrien klassifizieren, indem man eine Grundmenge und die darauf operierende Gruppe angab. Zwischen 1870 und 1920 wurden die mathematischen Axiome neu geschrieben (Dedekind, Cantor), es entstanden die Differentialgeometrie (Poincare, Einstein) und neue Algebren mit bisher unerforschten Symmetrien (Tensorkalkül, Lie-Algebra). Die ersten Experimente zur Atom- und Quantenphysik ließen sich gut mit den bis dahin rein abstrakten mathematischen Formalismen verbinden, was erst zur bekannten Symbiose führte, welche sich sodann im Zuge der Begeisterung für mathematische Möglichkeiten letztendlich von der Realphysik abspaltete und diese im Zuge der Standardmodelle beherrschte. Von da an, musste die Natur der Mathematik genügen.

    William Thurston (1946 – 2012) griff die Ideen von Klein auf. In seiner grundlegenden Definition einer Modellgeometrie verbindet er einen topologischen Raum mit der Wirkung einer Lie-Gruppe, welche gewissen Maximalitätsbedingungen genügt. Dieses Werkzeug führte zur vollständigen Charakterisierung aller möglichen Geometrien in der Dimension 3 und zur Klassifizierung aller kompakten, 3-dimensionalen Mannigfaltigkeiten. Lie-Gruppen und Lie-Algebren wurden um 1870 von Sophus Lie (1842 – 1899) in der Lie-Theorie zur Untersuchung von Symmetrien in Differentialgleichungen eingeführt. Unabhängig von Lie entwickelte Wilhelm Killing (1847 – 1923) ähnliche Ideen zum Studium nichteuklidischer Geometrien. Hermann (Klaus Hugo) Weyl (1885 – 1955) veröffentlichte 1913 das Buch Die Idee der Riemannschen Fläche, in dem u.a. das moderne Konzept der Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. In seinem Aufsatz Gravitation und Elektrizität von 1918 führt er erstmals das Konzept einer Eichtheorie ein, zunächst nicht in der heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor. In Weyl’s Vorlesungen Raum, Zeit, Materie entwickelt er systematisch den Riccischen Tensorkalkül und benutzt die Parallelverschiebung (Levi-Civita) von Vektoren als fundamentalen Begriff. Das Eichprinzip wurde seit seiner Entdeckung lange nur als Nebeneffekt angesehen, der einige Rechnungen vereinfachen kann, aber ansonsten nur wenig Bedeutung hat. Die eigentliche Bedeutung des Eichprinzips wurde erst 1918 von Hermann Weyl erkannt, der mit Hilfe einer Eichtheorie (Invarianz unter Änderung der Längenskala) versuchte, Maxwells Theorie mit der allgemeinen Relativitätstheorie zu vereinen. Dieser Versuch scheiterte, aber Weyl begründete damit eine ganz neue Herangehensweise an physikalische Probleme. Hermann Weyl ist der Begründer der Eichtheorien im heutigen Sinn.

    1954 veröffentlichten Robert L. Mills (1927 – 1999) und Chen Ning Yang (1922 -) eine Arbeit, in der sie die Eichinvarianz der Elektrodynamik verallgemeinerten und dadurch eine Theorie der schwachen und starken Wechselwirkung schufen. In den 1960ern erkannte man, dass alle bisher beobachteten Wechselwirkungen von Elementarteilchen durch Eichtheorien beschrieben werden können.

    „Heisenberg und Kollegen“ waren noch als Mitbegründer des neuen (mathematischen) Denkens mit den philosophischen Aspekten vertraut und konfrontiert. Für heutige Theoretiker ist die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.

    Die Verselbständigung der mathematischen Abstraktionen führt nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.

    Die jetzige, auf Mathematik basierende, realobjektbefreite Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. Hier ist (, wieder aktuell,) Karl Popper zu zitieren: …” Unsere Untersuchung läßt erkennen, daß selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, daß das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei.”
    K. Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4;The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

  2. #2 bote
    30. August 2019

    Dirk Freyling,
    die Forderung nach Selbstbeschränkung ist lobenswert, genauso lobenswert ist es Mathematik als Spiel zu betrachten..
    Vor 30 Jahren fand ich in einem russischen Mathematikbuch einen Algorithmus, der bei unendlichen Dezimalbrüchen das Ende dieses Dezimalbruches lieferte !!, nicht aber dessen Anfang.
    Ich finde solche Spielereien machen den Pfeffer aus. Sie machen Mathematik schön.

  3. #3 Fluffy
    30. August 2019

    @Dirk.Freyling

    There is no more Space left here to place a comment