In Gesprächen mit Kollegen aus der symplektischen Geometrie und verwandten Gebieten hört man immer wieder mal von einer Grundlagenkrise: ihre Arbeiten beruhen auf grundlegenden Arbeiten anderer Mathematiker, die Hunderte Seiten lang, äußerst detailreich und kaum zu verstehen sind, und die deshalb von manchen Mathematikern abgelehnt und von anderen akzeptiert werden. Eine auf solchen Grundlagen beruhende Arbeit bei einer Fachzeitschrift einzureichen gleicht einem Lotteriespiel, weil man nicht weiß, ob man an einen Gutachter gerät, der die jeweils verwendeten Grundlagen gerade als wahr akzeptiert oder nicht. Meist gibt es zu einer Theorie sogar mehrere konkurrierende Ansätze, aus denen man auswählen kann; der Glücksspielcharakter einer Einreichung wird dadurch eher noch erhöht, denn nun muss man auch noch raten, welchen Ansatz der Gutachter bevorzugen wird an den man geraten könnte. Meist versuchen die Leute dann, möglichst viele Resultate ihrer Arbeit auch ohne die Verwendung nicht absolut gesicherter Ansätze zu beweisen, aber das funktioniert meist nur in engen Grenzen.

Über einen speziellen Aspekt dieser Problematik (den Beweis der Arnoldvermutung) hatte das Quanta Magazine jetzt einen ausführlichen Artikel “The fight to fix Geometry’s foundations”, in dem die Standpunkte verschiedener Mathematiker zur Konstruktion der Floer-Homologie dargestellt werden. Auch wenn es im Artikel um die Sichtweisen einzelner Personen geht, wird das Problem erfreulicherweise nicht personalisiert, stattdessen aber auf einen Konflikt Analysis vs. Geometrie reduziert. (Offenbar als Reaktion auf den Artikel in Quanta hat Luboš Motl in “The reference frame” einen äußerst bizarren Artikel “How anti-Asian prejudices helped to poison symplectic geometry” geschrieben, den ich hier nicht verlinken werde und der aber jedenfalls ein extremes Negativbeispiel dafür ist, was man in der einen oder anderen Richtung aus dem Thema auch noch hätte machen können.)

Allerdings trifft auch die im Quanta Magazine dargestellte Unterscheidung zwischen anschaulicher Geometrie und technischer Analysis den Kern des Konflikts wohl nicht wirklich. Alle Arbeiten, um die es im Artikel geht (und überhaupt alle Arbeiten zu Grundlagen der symplektischen Geometrie) sind äußerst technisch und analytisch, selbst wenn sie von Geometern geschrieben wurden. Der Artikel stellt auch die Geschichte der Arnold-Vermutung etwas verkürzt dar. Es war die Idee von Andreas Floer, die sogenannte Floer-Homologie zu entwickeln, aus deren Existenz und Eigenschaften die Arnoldvermutung unmittelbar folgen würde. Floer bewies die Existenz der Floerhomologie aber nur unter eingeschränkten Voraussetzungen und in den Jahrzehnten danach versuchten die Mathematiker, Floers Ansatz auch unter immer schwächeren Voraussetzungen zum Laufen zu bringen. Dabei verwendeten sie weiter Floers geometrische Ideen, aber immer technischere Konstruktionen aus der Analysis. Die Krönung der Entwicklung war dann die Arbeit von Fukaya-Oh-Ohta-Ono, die in der ersten Version 300 Seiten und nach Ausarbeiten aller technischer Details letztlich 1400 Seiten lang war. Manche sprachen bei diesem Beweis damals von einer “technische Exzesse nicht scheuenden” Arbeit. (Weil der Verlag nur maximal 1000 Seiten drucken wollte, mussten zwei Kapitel dann in eine andere Arbeit ausgelagert werden.) Das ist die Arbeit, um die es im Quanta-Artikel vor allem geht. Nachdem die im Artikel dargestellten Debatten aufkamen, schoben die Autoren als Ergebnis jahrelanger kontroverser Diskussionen dann noch einmal einen 250 Seiten langen Nachtrag hinterher. Wie im Artikel beschrieben, sind die Kontroversen damit nicht beendet.

Was diese Geschichte letztendlich zeigt, ist also weniger ein Antagonismus zwischen Analysis und Geometrie, sondern dass in manchen Gebieten der heutigen Analysis die technischen Details inzwischen so kompliziert sind, dass auch in jahrelang diskutierten und tausende Seiten langen technischen Arbeiten immer wieder neue Zweifel auftauchen. (Und das gilt wohl für die meisten heutigen Grundlagen der symplektischen Geometrie.)

Quanta Magazine: A fight to fix geometry’s foundations
Floer: Morse theory for Lagrangian intersections. J. Differential Geom. 28 (1988), no. 3, 513–547.
FO3: Lagrangian intersection Floer theory (300 Seiten, 1998-2000)
FO3: Lagrangian intersection Floer theory (1400 Seiten, 2007)
FO3: A note on the difference between the year-2006 version and the book version of [FOOO].
FO3: Technical details on Kuranishi structure and virtual fundamental chain (2012)

Kommentare (15)

  1. #1 hubert taber
    2. März 2017

    dieser artikel zeigt das dilemma dieser art mathematik auf.
    ein regelrechtes armutszeugnis.
    der verdacht, dass alle beteiligten vom geist des grossen manitu gestreift wurden, muss und wird sich irgendwann bestätigen.

    ähnlich wie in der theoretischen physik.
    siehe unter:
    https://derstandard.at/userprofil/postings/84963

    mfg.

  2. #2 anderer Michael
    2. März 2017

    Geometer hat was mit Vermessen zu tun. Auch Geodät nobel ausgedrückt.
    Nicht nur.Ich habe nachgelesen, damit wird auch ein Mathematiker bezeichnet, der sich mit Geometrie vorzugsweise beschäftigt.
    So richtig verstanden habe ich die Sache nicht ( ich bin nicht so ein Tausendsassa wie mein werter Vorkommentator), aber eines hat mich beruhigt: Es “menschelt” auch in der Mathematik!

  3. #3 Cobi
    3. März 2017

    Ein bisschen erinnert mich das an die Situation um Perelman und Yau, ohne dass ich in der Lage wäre zu beurteilen wer jetzt “Recht” hat.

  4. #4 Laie
    4. März 2017

    Wenn es so viele Seiten sind, dann kann man das auch elektronisch als PDF abspeichern und per EMail verschicken, das spart Papier und schont die Umwelt.

    Bald werden wir vielleicht eine KI haben, die es schafft Beweise zu vereinfachen – da der Computer da viel schneller ist, Varianten durchzuchecken.

    Stichwort: Automatisches Beweisen

  5. #5 hubert taber
    4. März 2017

    ich lese immer von mathematischen “beweisketten”.
    welche beweise?
    eine behauptung “beweist” eine andere behauptung.
    zwei behauptungen “bestätigen” eine vermutung.
    unlogische annahmen schaffen sogenannte “paradoxa”.
    siehe hier:
    https://scienceblogs.de/mathlog/2017/02/09/was-ist-ein-anagramm-von-banach-tarski-banach-tarski-banach-tarski/#comments

    diese mathe ist nur ein KARTENHAUS.
    und eben dieses kartenhaus erklärt ja der einleitende artikel.
    mfg.

  6. #6 Thilo
    4. März 2017

    Nun ja, die Wirklichkeit ist halt kompliziert und die Mathematik eben auch.

  7. #7 rank zero
    6. März 2017

    Wir sind damals Anfang der 00er im algebraischen-Geometrie-Seminar (also als nur halbe Spezialisten und mehr geometrisch geneigt, und halt auch mehr mit dem Ziel, die symplektische Seite des Spiegels zu verstehen als selbst in der Forschung aktiv zu werden) die Arbeit durchgegangen. Sie ist definitiv nicht ohne, und war nach unserem Verständnis damals eigentlich trotz erheblichem technischen Aufwands noch zu wenig detailliert (oder, wahlweise, zu wenig konzeptionalisiert, modularisiert…) um ohne erhebliche Zusatzinvestition auf Leserseite (praktisch auf dem Level eigener Forschung) komplett nachvollziehbar zu sein [tatsächlich hingen wir auch an der angesprochenen lokal/global-Problematik fest, ohne sie aufklären zu können – was für uns ok war, da wir vor allem die allgemeinen Ideen für einen anderen Kontext erschließen wollten]. (NB: Zumindest im Falle von Oh – übrigens derzeit Direktor des ziemlich elitären POSTECH in Pohang, quasi von Thilo aus gesehen auf der anderen Seite Südkoreas 🙂 – den ich definitiv als sehr ideenreich, tiefen Denker, von umfassender Kenntnis etc. einschätzen würde, wäre ich aufgrund weiterer Arbeiten geneigt, von einem partiell systematisch laxem Aufschreibestil zu sprechen).

    Das ist jetzt aber eigentlich keine so ungewöhnliche Situation, dass aus meiner Sicht die Dimension einer Grundlagenkrise auch nur annähernd erreicht wird. (Im worst case müsste man vielleicht zu einigen Veröffentlichungen unschön hinzufügen “Provided the recently still controversial paper [x] is true, we prove…” – was etwas anders auch in der Zahlentheorie bei Verwendung der Riemannschen Vermutung oder der Komplexitätstheorie in Bezug auf P=NP passiert).

    Auch die Ideen von Riemanns berühmter Habilitation sind etwa erst wesentlich später stringent formalisiert worden. Die italienischen algebraischen Geometer haben jahrzehntelang unter Beigabe einer Überdosis optimistischer Intuition im Grunde wissenschaftlich geschlampt, bis nach diversen Neubegründungen – letztendlich erst nach der fundamentalen durch Grothendieck – sauber zu klären war, was davon bleibend, was spekulativ, was für den Papierkorb war.

    Letzteres Beispiel ist allerdings auch ein warnendes: Eine große Menge dieser Resultate waren im Grunde später vielleicht nicht falsch, aber zumindest so nicht mehr nachvollziehbar und mussten im Grunde noch einmal komplett (und manchmal unter angepassten Voraussetzungen) neu bewiesen werden. (Dabei hat man sicher auch gestaunt, was etwa ein Terracini “im Grunde” alles schon wusste, nachdem man sich das 100 Jahre später in einem anderen Framework ansah).
    Der Verlust an Ressourcen, die durch eine mehr spekulativ-als-nötige Arbeitsweise entstehen, ist langfristig gesehen dramatisch – das Problem ist, dass der einzelne Forscher auf der anderen Seite (und gegenwärtig besonders) vor allem Anreize bekommt, schnell & viel zu publizieren, notfalls unter Hintanstellung der mathematisch wünschbaren Strenge. (Ein großer Einfluss der Physik, die sich natürlicher (und legitimer-)weise nicht um mathematische Korrektheit kümmert, hilft da auch nicht – der erwähnte Standpunkt von Motl mag als extreme Illustration “physikalischer” Herangehensweise dienen.)

    Fazit aus meiner Sicht ist eigentlich vor allem, dass die Mathematik idealerweise deutlich mehr Ressourcen für die Qualitätssicherung bräuchte, auch gerade aus wissenschaftsökonomischer Sicht – wenn man fundamentale Probleme erst viel später adressiert, ist ggf. schon viel Aufwand vergeblich investiert (oder auch nicht investiert worden, weil sich niemand auf das eigentlich lohnenswerte “verminte Gelände” begeben will). Die dafür notwendige zusätzliche Zeit für etwa selbstkritisches, detailliertes Aufschreiben, Feedback zu den Entwürfen von Kollegen, intensives peer-reviewing etc. wird aber aktuell gerade praktisch kaum honoriert. Und das Umfeld für fundamentale Neubegründungen der Theorie in einer anders zugänglichen – und idealerweise z.B. stärker modularisierten – Sprache ist auch nicht ideal; war es vermutlich nie, hat aber unter den Bedingungen einer Massenwissenschaft das grundsätzliche aus der Evolution bekannte Problem, dass auch sinnvolle Mutationen in großen Populationen schneller untergehen und die Entwicklung entsprechend gehemmt wird.

    Es ist insofern vielleicht kein Zufall, dass hier Anstöße zur Klärung unter Mitwirkung von zB Dusa McDuff kamen, die halt zu den wenigen gehört, die es sich leisten können, sich die publikatorischen Spielregeln zu ignorieren.

    Und, ja, es wäre nett, besonders aufwändige formale und technische Arbeiten durch Computerhilfe effizienter gestalten zu können – im Durchschnitt ist gegenwärtig das Verhältnis des zeitlichen intellektuellen Aufwands der computer-verarbeitbaren Formalisierung mathematischer Beweise zu der intellektuellen Erarbeitung größer als 1 (s. zB Wiedijk), automatisches Beweisen ist also (unabhängig von der Mächtigkeit der darauf angesetzen Programme/KI) grundsätzlich noch nicht effektiv (wird daher i.A. nur für Teilprobleme gemacht, die anders nicht anzugehen sind, wie bei Hales).

  8. #8 hubert taber
    7. März 2017

    anstelle sich hier als romancier zu geben wäre es sinnvoller sich mit grundlegenden problemen zu beschäftigen.
    wie z.b. mit dem scheinbegriff “paradoxa”.
    oder mit den angeblich “unendlichen” parallelen die sich angeblich im unendlichen “treffen”.
    für die es nur einen widerlegbaren “scheinbeweis” gibt!
    siehe hier:
    https://scienceblogs.de/mathlog/2017/02/09/was-ist-ein-anagramm-von-banach-tarski-banach-tarski-banach-tarski/#comments

    mfg. hubert taber

  9. #9 volki
    7. März 2017

    @rank zero: Ich bin zwar kein algebraischer Geometer (mein Gebiet ist Zahlentheorie; Diophantische Analysis), aber meiner Meinung nach ist die italienische Schule der algebraischen Geometrie ein Paradebeispiel, warum es wichtig ist stringent die Grundlagen zu prüfen. Ich habe erst durch diesen Artikel von dieser Krise gehört und es hört sich für mich als Außenstehenden so an, als ob in diesem Beweis etwas sorglos gearbeitet wurde.

    Ich sehe aber nicht das große Problem bei den einzelnen Forschern, sondern im Referee-Prozess. Viele meiner Kollegen sehen das oft als lästige Arbeit an, die schnell erledigt werden muß, und dann wird alles schnell durchgelesen und nicht jedes Argument genau überprüft, nach dem Motto: “wird ja schon passen”. Das meiste wird auch stimmen aber ich kenne doch schon etliche Fälle, in denen richtige, tiefgreifende Fehler erst nach Jahren gefunden wurden.

    Der nächste Fall einer Grundlagenkrise könnte der Diophantischen Geometrie vor der Tür stehen: Der Beweis von Mochizuki der ABC-Vermutung. Ein 500 Seiten Werk aufgeteilt in 4 Papers, die nach meinem Wissen erst eine handvoll Leute (angeblich) verstehen. Und trotz etlicher Workshops zu dem Thema konnten die vielen berechtigten Zweifel der großen Mehrheit nicht ausgeräumt werden.

  10. #10 hubert taber
    7. März 2017

    ein mathematischer “beweis” über 500 seiten den dann niemand versteht?
    also ein kartenhaus.

    die grundlagenkrise wird schon sehr bald “die mathematik” erfassen.
    siehe unter:
    https://scienceblogs.de/genau/2017/01/26/walzer-to-make-fakten-great-again/#comments

    mit einem jederzeit reproduzierbaren experiment widerlegte ich mehrere wirre physikalische annahmen und theorien.
    die aber allesamt mathematisch “bewiesen” wurden!

    mfg. hubert taber

  11. #11 rank zero
    7. März 2017

    @volki – völlig einverstanden (sowohl in Bezug auf die italienische Schule als auch die Qualitätssicherung), ich dachte, ich hatte mich zumindest auch in diese Richtung gehend geäußert. Mochizuki war ja auch schon etwas ausgiebiger ein Thema hier im Blog, daher habe ich nicht mehr extra drauf verwiesen. (Ich habe ja vor einem Jahr mal meinen Pflichtbeitrag zur Unterhaltung geleistet, als ich mich bei Hales nach einer Einschätzung der Aussichten einer formalisierten Verifizierung der IUTT erkundigte 😉 ).

    Dabei ist mE der Verweis auf die automatischen Methoden zumindest in einer Hinsicht nicht schlecht: In der Informatik ist für die Wichtigkeit, “lesbaren Code” zu schreiben, doch einiges (mehr an?) Bewusstsein vorhanden, und es ist jedem klar, dass der Validierungsprozess von Entwicklungen aufwändig ist und nicht mal eben nebenbei gemacht werden kann. Vergleichbare Werkzeuge für die Mathematik, die diesen Prozess zumindest unterstützen, sind aber noch nicht wirklich effizient vorhanden.

  12. #13 StefanL
    9. März 2017

    Ich hätte da auch noch einen: Klassifikation der endlichen einfachen Gruppen

  13. #14 volki
    9. März 2017

    Ein anderes Beispiel, bei dem die Sache schon ausgestanden ist, ist das Klassenzahl 1 Problem von Gauss für imaginär quadratische Zahlkörper. Da hat es 15 Jahre gedauert bis der Beweis als richtig akzeptiert wurde. Leider erst nach dem Tod von Heegner, der den Beweis gefunden hat.

    Also es gibt noch Hoffnung, dass die anderen Krisen irgendwann behoben werden. Wobei ich fürchte das Beispiel mit der Klassifikation der endlichen einfachen Gruppen könnte sich noch wesentlich länger hinziehen.

  14. #15 Thilo
    31. August 2017

    Fukaya: “A cooperation to build foundations of symplectic geometry” https://scgp.stonybrook.edu/archives/22091