Auf dem ArXiv sind diese Woche zwei mathematische Arbeiten erschienen, jeweils verfaßt von einer größeren Autorengruppe mit teils sehr bekannten Mathematikern, in deren Entstehungsgeschichte Maschinenlernen eine Rolle gespielt haben soll. Es handelt sich um Towards combinatorial invariance for Kazhdan-Lusztig polynomials von Charles Blundell, Lars Buesing, Alex Davies, Petar Veličković, Geordie Williamson und um The signature and cusp geometry of hyperbolic knots von Alex Davies, András Juhász, Marc Lackenby, Nenad Tomasev. (Williamson, Juhasz und Lackenby sind bekannte Mathematiker, die anderen sechs Koautoren geben als Adresse „DeepMind, London, UK“ an, eine KI-Firma.)

Kazhdan-Lusztig-Polynome sind eines der wichtigsten Forschungsthemen der Darstellungstheorie. Zu je zwei Elementen x,y einer Coxeter-Gruppe (typischerweise die Weyl-Gruppe einer halbeinfachen Lie-Gruppe G) hat man ein solches Polynom Pxy. Diese Polynome kommen in der geometrischen Darstellungstheorie überall vor, zum Beispiel kann man mit ihrer Hilfe die Schnittkohomologie von Unterkomplexen der Zellzerlegung der Fahnenmannigfaltigkeit G/B berechnen (woraus wiederum ihre Positivität folgt) und es gibt viele tiefliegende Sätze und Vermutungen über diese Polynome. Sie sind sehr aufwendig zu berechnen, denn man braucht für ihre rekursive Berechnung jeweils die Polynome für „kleinere“ x,y. (Dies soll sie – laut der neuen Arbeit – zugänglich für Maschinenlernen machen, weil man bei ihrer Berechnung große Datenmengen benötigt.) in der neuen Arbeit geht es um den Zusammenhang zwischen dem Bruhat-Graphen der Coxeter-Gruppe und den Kazhdan-Lusztig-Polynomen. Man vermutet seit langem, dass letztere durch den Bruhat-Graphen bereits bestimmt sind und sich aus ihm berechnen lassen. In diesem Zusammenhang fanden die Autoren mittels maschinellen Lernens eine gewisse den Bruhat-Graphen verwendende Formel für die q-Ableitung der Kazhdan-Lusztig-Polynome. Diese vermutete Formel wird dann in der Arbeit mittels der geometrischen Interpretation von Kazhdan-Lusztig-Polynomen als Dimension von Schnittkohomologiegruppen bewiesen.

In der anderen Arbeit geht es um hyperbolische Knoten. Mittels maschinellen Lernens wollten die Autoren neue Zusammenhänge zwischen verschiedenen Invarianten solcher Knoten entdecken. Eine neue Invariante, um die es in der Arbeit geht, ist der „natürliche Anstieg“ eines hyperbolischen Knotens: man nimmt einen geodätischen Meridian des Knotens und eine Geodäte orthogonal zu diesem Meridian; diese kommt zurück zum Meridian (nicht unbedingt im selben Punkt) und durchläuft dabei einmal die Longitude und s-mal den Meridian – dieses (im Allgemeinen nicht ganzzahlige) s nennen die Autoren den natürlichen Anstieg des Knotens. Maschinelles Lernen führte die Autoren zu einer Vermutung über einen Zusammenhang dieser Invariante mit der Signatur des Knotens, also der Signatur der Verschlingungsform auf der ersten Homologie der Seifert-Fläche als quadratischer Form: die Differenz aus zweimal der Signatur und dem natürlichen Anstieg ist höchstens eine Konstante mal dem hyperbolischen Volumen geteilt durch die dritte Potenz des Injektivitätsradius. Diese Vermutung wird in der Arbeit bewiesen und es werden verschiedene Anwendungen gezeigt. Man kann mit Hilfe der Ungleichung die Möglichkeiten für nicht-hyperbolische Dehn-Chirurgien einschränken, und man erhält eine untere Schranke für das minimale Geschlecht einer im 4-dimensionalen Raum vom Knoten berandeten glatten Fläche.

Kommentare (4)

  1. #1 nouse
    5. Dezember 2021

    Just FYI, Deep Mind ist nicht “eine KI Firma”, sondern ein zu google gehörender Think Tank. Ein paar der fähigsten Köpfe des Planetens arbeiten dort.

  2. #2 Thilo
    5. Dezember 2021

    laut https://de.wikipedia.org/wiki/DeepMind ein von Google aufgekauftes Unternehmen mit Schwerpunkt KI

  3. #4 Thilo
    6. Dezember 2021

    Und es gibt noch eine weitere Arbeit, aber ohne Betiligung von DeepMind: https://arxiv.org/pdf/2112.00016.pdf (Learning knot invariants across dimensions)