Mathematisch handelt es sich um die oben abgebildete Kleeblattschlinge, die auch mathematisch in vieler Hinsicht der einfachstmögliche Knoten ist.
Wir hatten über die Kleeblattschlinge in TvF CXII und TvF CXX mal geschrieben. Das Bild unten (von Jos Leys) zeigt eine Seifert-Faserung (Faserung in Kreise) für das Komplement der Kleeblattschlinge.
Umgekehrt gibt es für das Komplement der Kleeblattschlinge auch eine Faserung in Seifert-Flächen (Faserung über dem Kreis), die man in dieser Animation ansehen kann.
Über sein eigentliches wissenschaftliches Wirken informiert der folgende Vortrag vom ICM 2018 in Rio de Janeiro.
]]>Brandenburgs Bildungsminister bezeichnet es als “wichtige Erkenntnis der Pisa-Studie”, dass “viele Schülerinnen und Schüler heute kein Interesse mehr an Mathematik haben” und weist darauf hin, dass die sozialen Medien die Art der Kommunikation beeinflussen, “die Art und Weise, wie Sätze gebildet werden, wie lange man aufnahmefähig ist”. Ein Verbot von Smartphones wäre aber nicht die richtige Antwort. “Ein Smartphone ist ein Werkzeug und an sich nichts Schlechtes. Es kommt darauf an, wie man es anwendet.”
Bemerkenswerterweise ist dann auch die erste der Mathematik-Aufgaben, die man hier (ganz unten) anschauen kann, dem Smartphone gewidmet.
Interessant sind auch einige andere Aufgaben. Unter der Überschrift “Die Schönheit der Potenzen” sollen die Schüler zunächst beantworten, ob 8 hoch 16 achtmal größer als 8 hoch 15 oder 8 hoch 10 zehnmal größer als 8 ist und dann die folgende Aufgabe lösen.
Die Behandlung von Zahlenkongruenzen im Schulunterricht ist ja seit Jahrzehnten ein Dauerbrenner der Mathematikdidaktik, über den immer wieder neue Abschlussarbeiten geschrieben werden. Aber hier geht es wohl nicht um das Rechnen mit Zahlenkongruenzen, sondern um das Erkennen von Mustern, auch ohne diese formal beweisen zu können.
Etwas irritierend fand ich die folgende Aufgabe. Was soll man davon halten, wenn jetzt schon in PISA-Aufgaben postuliert wird, dass ein Studium von den Finanzen der Eltern abhänge?
Man muss dann weiterklicken, um auch Bens und Claras Weg angezeigt zu bekommen.
Mit Computerhilfe soll man dann feststellen, dass alle drei Wege gleich lang sind, und das soll man dann aber noch begründen.
Schließlich soll man noch entscheiden, welche Diagonalen einen Weg abkürzen oder nicht.
Die zweidimensionale Ebene faßt man seit Descartes auf als Menge von Zahlenpaaren (x1,x2). Der Abstand zwischen zwei Punkten (x1,x2) und (y1,y2) läßt sich nach dem Satz des Pythagoras berechnen als Quadratwurzel aus (x1-y1)2+(x2-y2)2.
Dieser Abstand, der sogenannte euklidische Abstand, mißt also die Entfernung per Luftlinie zwischen zwei Punkten in einer flachen Ebene. Wenn man Abstände zwischen zwei Punkten auf der Erde messen will, muß man eigentlich noch die Erdkrümmung berücksichtigen. Bei geringen Entfernungen macht das keinen nennenswerten Unterschied.
Wenn man sich aber in einer Stadt von (x1,x2) nach (y1,y2) bewegen will, kann man nicht die Luftlinie nehmen, sondern muß sich entlang des Straßennetzes bewegen. Wenn zum Beispiel, wie in Manhattan oder Mannheim, die Straßen alle rechtwinklig zueinander sind, erhält man dann als Abstand |x1-y1|+|x2-y2|, um den es in der Aufgabe aus dem PISA-Test ging, und der größer ist als der euklidische Abstand.
Ein anderes Beispiel ist die SNCF-Metrik. (SNCF=’Société Nationale de Chemins de Fer’ ist die französische Eisenbahngesellschaft.) Hier wird der Abstand zwischen zwei Punkten so berechnet, daß man zunächst den Abstand (in Luftlinie) des ersten Punktes nach Paris mißt, dann den Abstand von Paris zum zweiten Punkt, und die Summe bildet.
Es gibt also verschiedene Möglichkeiten, Abstände zu messen. Alle diese Abstände haben mathematisch ähnliche Eigenschaften, weshalb man sie unter dem Begriff des Metrischen Raumes zusammenfaßt. Dies ist, per Definition, eine Punktmenge, auf der eine Abstandsfunktion definiert ist mit folgenden Eigenschaften:
1. je zwei unterschiedliche Punkte haben positiven Abstand (und der Abstand eines Punktes zu sich selbst ist 0)
2. der Abstand von x nach y ist genau so groß wie der Abstand von y nach x
3. die Dreiecksungleichung gilt (d.h. der Abstand von x nach y ist höchstens so groß, als wenn man erst den Abstand von x zu einem dritten Punkt z, dann den Abstand von z nach y mißt, und die Summe bildet)
Punkt 2. bedeutet natürlich wieder einmal eine Vereinfachung, weil man zum Beispiel Einbahnstraßen nicht in Betracht zieht.
Es ist eine beliebte Hausaufgabe für Analysis I-Vorlesungen, nachrechnen zu lassen, dass die Manhattan-Metrik und die SNCF-Metrik die 3 Axiome erfüllen. Der einzige schwierige Teil ist dabei das Nachrechnen der Dreiecksungleichung.
Eine sehr skurille (aber völlig ernstgemeinte) Anwendung dieser Frage auf juristische Probleme des Drogenhandels in Manhattan wurde am 23. November 2005 in der New York Times vorgestellt.
Im Court of Appeals war der Fall von James R. verhandelt worden, der im März 2002 Drogen im Abstand von weniger als 1000 Feet von einer Schule verkauft hatte – was eine deutlich höhere Strafe impliziert als eine Entfernung von mehr als 1000 Feet. James R. war in Manhattan an der Kreuzung von Eighth Avenue und 40th Street beim Verkauf an einen Undercover-Polizisten verhaftet worden, die nächstgelegene Schule war Holy Cross an der 43rd Street zwischen Eighth und Ninth Avenue.
Law enforcement officials calculated the straight-line distance using the Pythagorean theorem (
) measuring the distance up Eighth Avenue (764 feet) as one side of a right triangle, and the distance to the church along 43rd Street (490 feet) as another, to find that the length of the hypotenuse was – 907.63 feet.
Mißt man die Entfernung entlang der rechtwinklig verlaufenden Straßen wie in der PISA-Aufgabe, dann ist der Abstand natürlich 764+490=1254 Feet, und so argumentierte auch R.s Anwalt. Richter und Jury ließen sich davon freilich nicht beeindrucken und lehnten die Berufung einstimmig ab.
Pythagoras won his day in court on Tuesday.
kommentierte Michael Cooper in der New York Times. Ein Richter in meinem (früheren) Schachverein meinte dazu, sonst könne man ja auch gleich Einbahnstraßen und Baustellen auf Bürgersteigen geltend machen.
]]>Ich war vor fast zwanzig Jahren mal für zwei Jahre Mitglied im Promotionsausschuß einer kleinen Universität. Die Universität war so klein, dass Mathematik, Physik und Chemie einen gemeinsamen Promotionsausschuß hatten.
Im Fachbereich Chemie gab es einen Professor, der eine Reihe Drittmittelprojekte hatte und sich dafür zahlreiche Doktoranden von indischen Universitäten holte. Diese Doktoranden wurden von seinen Drittmitteln bezahlt und waren also voll von ihm abhängig, schon wegen der Aufenthaltsgenehmigung.
Es war allgemein bekannt, dass er sich von seinen indischen Doktoranden stets als Koautor auf ihre Arbeiten setzen ließ, ohne etwas beigetragen zu haben.
Zufällig war dieser Professor auch Mitglied und stellvertretender Vorsitzender im Promotionsausschuß. (Zwei Jahre später wurde er sogar Vorsitzender.) Als wieder mal die Zulassung einer unter ihm geschriebenen Promotion anstand, fragte der damalige Vorsitzende (ein Physiker), wie es denn sein könne, dass dort eine Doktorarbeit eingereicht wird, bei der wirklich jedes einzelne Kapitel, selbst die Einleitung, auf Veröffentlichungen beruht, bei denen der Doktorand nur der Zweitautor (und der betreuende Professor der Erstautor) gewesen ist.
Bis auf den Angesprochenen verstand natürlich jeder die Stoßrichtung dieser Frage. Der angesprochene Professor dachte allerdings, es ginge wirklich um die Bewertung der Arbeit des Doktoranden, und fing wortreich an zu erklären, dass der Doktorand alle diese Arbeiten wirklich völlig selbständig geschrieben hatte, dass er selbst dort überhaupt nichts beigetragen hatte und auch nicht hatte helfen müssen, und dass der Doktorand also wirklich hervorragende Arbeit geleistet habe und die Bestnote verdiene.
Warum er selbst dann bei allen Arbeiten als Hauptautor aufgeführt wurde, erörterte er natürlich nicht. (Immerhin bemerkte er zum Schluß dann aber doch, dass die anderen Kommissionsmitglieder sich nur schwer ein Lächeln über seine Erläuterungen verkneifen konnten.)
Ich kenne natürlich den vom MDR aufgedeckten Fall nicht, zumal im Bericht ja auch keine Namen genannt werden. Es scheint mir aber doch sehr gut möglich, dass es hier weniger um einen Plagiatsfall als um einen Fall von Ehrenautorschaften gehen könnte. Reine Spekulation, aber erfahrungsgemäß wahrscheinlicher.
]]>Ich find’s gut. Diskussion gerne in den Kommentaren.
]]>Bei dieser Aufgabe braucht man freilich nicht nur Mathematik, sondern auch Allgemeinwissen:
Gibt es ganz sicher wirklich nie, nie, nie Säuglinge mit mehr als 82,5 Zentimetern?
Und lernt man in der Schule tatsächlich schon den Zwischenwertsatz?
Bemerkenswert finde ich, dass es – jedenfalls unter den auf Spiegel Online vorgestellten Aufgaben – viele gibt, bei denen Muster erkannt werden sollen (ohne dass diese mathematisch bewiesen werden).
Dieses Muster kommt zum Beispiel vor, wenn man mit der Cramerschen Regel das Inverse einer Matrix berechnet, es beschreibt dort die Verteilung der Vorzeichen. (Wobei dort das Minuszeichen gerade an den Stellen steht, die den Fliesen mit dem Pluszeichen entsprechen.)
]]>Ein am 6. Oktober auf dem ArXiv erschienener Artikel Fair coins tend to land on the same side they started: Evidence from 350,757 flips zeigt nun, dass der Münzwurf nicht nur nicht zufällig, sondern noch nicht einmal gleichverteilt ist. Die Münze landet mit 50,8% Wahrscheinlichkeit auf der vor dem Münzwurf oben liegenden Seite. Grund ist die Präzession. Ein letzte Woche in der Süddeutschen erschienener Artikel erklärt es so:
Im Fall des Münzwurfs kommt es zur Präzession, wenn die Münze nicht genau mittig geschnippt wird. Dann eiert sie in der Flugphase, und das führt dazu, dass sie etwas mehr Zeit in der ursprünglichen Ausrichtung verbringt und demzufolge häufiger so landet, wie sie geschnipst wurde. Das Eiern der Münze ist mit bloßem Auge kaum zu sehen – was von Zauberern und Trickbetrügern ausgenutzt wird, die eine Münze so schnipsen können, dass sie sich überhaupt nicht um sich selbst dreht, sondern nur wackelt.
Das bestätigt experimentell eine Vorhersage aus der 2007 in SIAM Reviews erschienenen Arbeit “Dynamical bias in the coin toss” von Persi Diaconis, Susan Holmes und Richard Montgomery.
]]>Im Januar 2014 wies mich ein Leser meines Blogs per e-Mail auf einen Artikel im Blog “Bad Astronomy” hin, der wiederum Bezug nahm auf ein einige Wochen zuvor bei Numberphile erschienenes Video “1+2+3+4+5+…=-1/12”. Die Gleichung im Titel war dem bekannten Lehrbuch “String Theory” von Joseph Polchinski entnommen.
Bewiesen wurde sie im Video mittels geschickter Indexverschiebungen in unendlichen Reihen. Der Mathematiker erkennt natürlich sofort den Fehler im Beweis: es ist das Herumrechnen mit divergenten Reihen, mit dem man, wenn man sich (un)geschickt anstellt, praktisch jeden Unsinn beweisen kann – was im Video leider zu erklären versäumt wurde. Zum Beispiel kann man eine konvergente, aber nicht absolut konvergente, Reihe wie durch passende Umordnung der Summanden jeden reellen Wert annehmen lassen.
Nun haben im 18. Jahrhundert Mathematiker durchaus solche Rechnungen benutzt, um damit völlig richtige Ergebnisse zu erhalten. Leonhard Euler galt als Meister im Rechnen mit divergenten Reihen, der offenbar immer genau wußte, welche Rechnungen zu korrekten Ergebnissen führen und welche nicht. Tatsächlich gibt es einen von Euler verfaßten Artikel “De seriebus divergentibus”, in dem er die Argumente der Gegner und Befürworter divergenter Reihen erörtert und aber klar die Partei der Befürworter ergreift.
So real diese Uneinigkeit aber auch erscheinen mag, kann dennoch keine Partei von der anderen eines Fehlers überführt werden, sooft in der Analysis der Gebrauch von Reihen dieser Art auftaucht; es muss von großer Bedeutung sein, dass keine Partei falsch liegt, sondern die Uneinigkeit in den Werten allein gelegen ist. Wenn ich nämlich bei einer Rechnung zu dieser Reihe 1 − 1 + 1 − 1 + 1 − 1 + etc gelange und an ihrer Stelle 1/2 einsetze, wird gewiss niemand mir mit Recht einen Fehler anlasten, der dennoch jedem sofort ins Auge spränge, wenn ich irgendeine andere Zahl an deren Stelle gesetzt hätte; daher kann kein Zweifel bestehen bleiben, dass die Reihe 1 − 1 + 1 − 1 + 1 − 1 + etc und der Bruch 1/2 äquivalente Größen sind, und sich die eine anstelle der anderen immer ohne einen Fehler einsetzen lässt.
Die ganze Frage scheint also nur darauf zurückzugehen, ob wir den Bruch 1/2 richtigerweise die Summe der Reihe 1 − 1 + 1 − 1 + etc nennen; die das hartnäckig verneinen, obwohl sie dennoch nicht wagen die Äquivalenz zu verneinen, sind dafür vehement zu verachten, nicht die Logik zu beachten.
Heutigen Mathematikern muss man wohl erst erklären, dass 1/2 der Wert der geometrischen Reihe für q=-1 ist.
Anfang des 19. Jahrhunderts begann man solche Beweise in Zweifel zu ziehen, exemplifiziert am Zitat von Niels Henrik Abel
Die divergenten Reihen sind eine Erfindung des Teufels, und es ist eine Schande, irgendeinen Beweis auf sie zu stützen. Indem man sie verwendet, kann man jede beliebige Schlussfolgerung ziehen, und deshalb haben diese Reihen so viele Trugschlüsse und so viele Paradoxien hervorgebracht.
Seit den 1820er Jahren wurde dann das Rechnen mit unendlichen Reihen auf eine klar definierte mathematische Grundlage gestellt, wie man sie heute im Analysis-Grundkurs lernt, und die Mathematiker verlernten das Rechnen mit divergenten Reihen (mit Ausnahme Ramanujans.)
Auch wenn man durch geschicktes Umordnen divergenter Reihen praktisch jede mathematische Identität beweisen kann, spielt die “Identität” trotzdem eine besondere Rolle. Das Schlagwort heißt “Riemannsche Zeta-Funktion”. (Es ist unter Historikern umstritten, ob die Rechnung auch schon Euler bekannt war.)
Wenn s eine komplexe Zahl mit Realteil ist, dann konvergiert die unendliche Reihe
,
zum Beispiel ist
Man kann zeigen, dass diese Funktion im Bereich komplex differenzierbar ist.
Es ist ein allgemeines Prinzip, dass man eine auf einer offenen Teilmenge der Ebene definierte komplex-differenzierbare Funktion (unter gewissen Voraussetzungen) “analytisch fortsetzen” kann, so dass man eine auf der ganzen Ebene (mit Ausnahme einzelner isolierter Singularitäten) definierte komplex-differenzierbare Funktion erhält. Im Fall von definiert diese analytische Fortsetzung die sogenannte Riemannsche Zeta-Funktion, für die sich Riemann seinerzeit wegen ihrer Anwendungen auf die Primzahlverteilung interessiert hatte. (Der Primzahlsatz ist äquivalent zu der später von Hadamard und de la Vallée Poussin bewiesenen Tatsache, dass es Nullstellen nur im Bereich
$latex Re(s)<1 $
geben kann. Die bestmögliche Fehlerabschätzung im Primzahlsatz würde aus der Riemann-Vermutung folgen, derzufolge es nichttriviale Nullstellen nur auf der Geraden geben soll.)
Den Wert der Riemannschen Zeta-Funktion in kann man mit Hilfe der Funktionalgleichung
berechnen, man erhält
.
Wenn man sich dann erinnert, dass die Riemannsche Zeta-Funktion ja eigentlich (für Re(s)>1) mal definiert war als
und wenn man dort formal einsetzt, bekommt man
.
Der Punkt ist natürlich, dass eben nur für
auf diese Weise definiert war, für andere Werte von s divergiert die Reihe und der Wert der analytischen Fortsetzung hat nichts mit dem (nicht existierenden) Wert der unendlichen Reihe zu tun.
Denselben Wert wie über die Zeta-Funktion erhält man übrigens auch mit Ramanujans Summationsmethode.
Im ursprünglichen Numberphile-Video war der Wert der Reihe mittels recht einfacher Taschenspielertricks (Indexverschiebungen in Reihen) hergeleitet worden, lebhafte Diskussionen an zahlreichen Stellen des Internets provozierend. Die Macher des Videos fühlten sich dann genötigt, noch ein zweites Video nachzuschieben, dreimal so lang wie das erste, indem alles aufgeklärt wurde. Erklärt wurde dort auch, warum die Summe in der Stringtheorie vorkommt (meine Übersetzung):
Wir sehen ein Beispiel in Polchinskis Stringtheorie-Buch, wo er die Dimensionalität des Universums vorherzusagen versucht und tatsächlich diese Summe erscheint, weil du am Ende die Summe hast: die Strings haben unterschiedliche Oszillationsmoden: erster harmonischer Modus, zweiter, dritter und so weiter, und wenn man alle Beiträge aufsummiert, naiv würde man einen unendlichen Beitrag bekommen, aber man bekommt -1/12 und die -1/12 gibt dann die 26 Dimensionen.
Etwas später produzierte Numberphile dann noch ein weiteres Video mit Edward Frenkel, in dem dieser weiter ausholte und die divergenten Reihen mit der Wurzel aus -1 verglich, die zwar ebenfalls nicht existiert, aber das Rechnen erheblich vereinfacht, weshalb man mit komplexen Zahlen rechnet als wenn es sie wirklich gäbe.
Numberphile, ein Videoportal des früheren BBC-Journalisten Brady Haran, hatte 2011 begonnen mit einem Video über den 11.11.11 und dann - entsprechend dem Namen - als Zahlenfreunde fortgesetzt mit Videos über spezifische Zahlen wie 255, 16, 8128 oder 6174. Die kontroversen Diskussionen über 1+2+3+4+5=-1/12 waren dann wohl der Durchbruch, dieses Video wurde (bis heute) 8,9 Millionen mal geschaut, und auch ihre anderen Videos haben seitdem stets sechs-, manchmal auch siebenstellige Zugriffszahlen. Im Folgenden will ich noch ein paar interessante Videos dieses Kanals aus den letzten Jahren vorstellen.
Hannah Fry sprach im November 2021 über die Anfangsjahre des Bahnwesens und wie man vermied, dass Züge gleichzeitig auf demselben Gleis unterwegs waren. (Man fuhr besonders schnell um nicht von einem anderen Zug auf demselben Gleis erwischt zu werden.)
Charles Ibry entwickelte damals einen speziellen Graphen, auf dem man Züge so eintragen kann, dass sie sich nicht kreuzen, bzw. auf dem man die Kreuzungen erkennen kann.
Diese Objekte wurden in der Mitte des 19. Jahrhunderts tatsächlich so benutzt. Angestellte in den Büros der Bahngesellschaften saßen mit Stift und Lineal an ihren Schreibtischen und zeichneten solche Graphen.
Im Dezember 2020 erklärte Thomas Crawford, wie die Geometrie der Kettenlinie beim Bau der St. Paul‘s Cathedral eine Rolle spielte.
Was im Video nicht gesagt wurde, obwohl es Ende 2020 sicher interessiert hätte: die Kathedrale wurde gebaut, nachdem man in London dank eines Großbrandes eine Pandemie überwunden hatte. In London herrschte 1665-1666 eine Pestepidemie, in der zeitweise 7000 Menschen wöchentlich verstarben. (Die dadurch erzwungene Quarantäne nutzte Isaac Newton zur Entwicklung der Differentialrechnung.) Nachdem die Epidemie bereits im Abklingen war, brach im September 1666 ein Feuer aus, dem vier Fünftel der Bebauung, darunter fast alle mittelalterlichen Bauten, aber nur wenige Menschen zum Opfer fielen. Weil die die Krankheit übertragenden Ratten und Flöhe durch das Feuer vernichtet wurden, stoppte dies die weitere Ausbreitung der Pest. Da auch die große Kathedrale abgebrannt war, begann man mit dem Bau von St. Paul‘s, der 1708 vollendet wurde.
Man weiß es natürlich seit der fünften Klasse, dass man Brüche nicht zähler- und nennerweise addieren darf, also so wie
.
Was passiert, wenn man es doch tut, hat der Geologe John Farey schon vor 200 Jahren untersucht, weshalb man diese Art der Bruchrechnung heute Farey-Addition nennt.
In einem (bisher) 4,3 Millionen mal geschauten Numberphile-Video, das man schon des französischen Akzents wegen anschauen sollte, erklärte Francis Bonahon im Juni 2015 den Zusammenhang zwischen Fareys Bruchrechnung und den abgebildeten Ford-Kreisen.
Nur angedeutet wurde natürlich der Zusammenhang mit hyperbolischer Geometrie, Topologie und Dynamik. Darüber kann man in Kapitel 8 von Bonahons Buch nachlesen oder auch online zum Beispiel (mit weiteren Links in den Kommentaren) im Secret Blogging Seminar
Die Nützlichkeit topologischer Stetigkeitsargumente bei der Lösung geometrischer Probleme wird manchmal (zum Beispiel im sehr empfehlenswerten Buch von Boltjanskij-Efremowitsch) veranschaulicht mit dem Beweis, dass jede beliebige geschlossene Kurve durch ein Quadrat umschrieben werden kann: Zu jedem Winkel α findet man ein Rechteck, dessen erste Seite Neigungswinkel α hat und das die Kurve umschreibt. (Man nehme einfach ein sehr grosses Rechteck mit Neigungswinkel α, das gross genug ist um die Kurve im Inneren zu enthalten. Dann verschiebe man die Seiten durch Parallelverschiebung, bis sie die Kurve gerade berühren.) Sei A die Länge der ersten Seite, B die Länge der zweiten Seite. Falls A-B=0 ist, haben wir ein Quadrat. A und B hängen stetig vom Winkel α ab. (Das muss man strenggenommen eigentlich noch beweisen.) Nun erhalten wir für α=90odasselbe Rechteck wie für α=0o, wobei aber die Rolle von A und B vertauscht ist. Wenn also für α=0o A>B ist, dann ist für α=90o B>A (und umgekehrt). A-B ist also bei α=0o positiv und bei α=90o negativ, oder umgekehrt. Also muss A-B zwischendurch einmal den Wert 0 annehmen, wir bekommen also ein Quadrat.
Ein ähnliches Argument liefert im März 2020 einen von drei Beweisen, dass man in jedem spitzwinkligen Dreieck ein Quadrat findet:
Kann man Polygone gleichen Flächeninhalts oder Polyeder gleichen Volumens durch Schneiden und Kleben ineinander überführen? Für 2-dimensionale Polygone ist das elementar genug, dass man es vielleicht sogar mit Schülern machen kann und war schon früh im 19. Jahrhundert bekannt (Satz von Bolyai-Gerwien).
Carl Friedrich Gauß hatte seinerzeit bedauert, dass manche Sätze der Körpergeometrie (wie die Volumenformel für Pyramiden) von der Exhaustionsmethode abhängen, also in moderner Sprache von der Axiomatisierung der Stetigkeit. Der elementare Beweis der Scherenkongruenz flächengleicher Polygone warf die Frage auf, ob vielleicht auch ein elementarer Beweis für den Satz von Euklid - dass sich die Volumina von Pyramiden gleicher Höhe wie die Flächeninhalte ihrer Basisflächen verhalten - möglich sei. David Hilbert, der sich damals mit den Grundlagen der euklidischen Geometrie beschäftigte, glaubte das nicht und und so stellte er als eines seiner berühmten 23 Probleme auf dem Weltkongreß in Paris die Aufgabe, einen rigorosen Beweis für seine Unmöglichkeit (oder das Gegenteil) zu erbringen.
Das Problem wurde wenige Monate später von Max Dehn gelöst, der bewies, dass man einen regelmäßigen Tetraeder nicht durch Schneiden und Kleben in einen Würfel gleichen Volumens verwandeln kann. Den Unterschied zwischen Dimension 2 und 3 machen die diedrischen Innenwinkel an den Kanten aus. Dehn definierte eine aus den Kanten-Längen und -Winkeln gebildete Invariante, die dann zusammen mit dem Volumen tatsächlich entscheidet, ob zwei Polyeder scherenkongruent sind. In heutiger Sprache schreibt man Dehns Invariante als , wobei
die Länge und
der diedrische Innenwinkel der Kante ist. (In Aigner-Ziegler: "Das Buch der Beweise" findet man eine elementare Definition, die das Tensorprodukt vermeidet, die ich persönlich aber eher komplizierter finde.) Diese Invariante ist 0 für den Würfel, aber ungleich 0 für den regelmäßigen Tetraeder.
Das alles wurde anschaulich erklärt von Daniel Litt in einem Numberphile-Video vom Juli 2019.
https://youtu.be/eYfpSAxGakI
Noch kurz ein paar weitere interessante Numberphile-Videos.
Im Juni 2017 wurde ein einfaches Gegenbeispiel zu einer Vermutung John Conways vorgestellt. Conway hatte gefragt, ob der Prozess, einer Zahl ihre Primfaktorzerlegung als Dezimalzahl (mit Exponenten als Ziffern) zuzuordnen, nach endlich vielen Iterationen stets zu einer Primzahl führt. Das Gegenbeispiel ist
Wirklich anspruchsvolle Mathematik erklärte June Huh im Juli 2018 in einem Video über die Geschichte der g-Vermutung.
Im Dezember 2020 erklärte Sabetta Matsumoto die Geometrie der „strukturellen Färbungen“ von Schmetterlingsflügeln und Gyroiden: "Structural color is based on reflection, not absorption".
Im Februar 2022 malten Matt Henderson und seine "Plotter Machine" schöne Kurven.
Und das (zum Zeitpunkt der Erstellung dieses Artikels) letzte Video widmet sich dem Langlands-Programm, wieder mit Edward Frenkel.
In den 60er Jahren hatte die Entwicklung der Raumfahrt und gerade auch ihre sichtbaren Erfolge wie der Sputnik oder die Mondmission – und die darauf aufbauenden Visionen wie etwa eine dauerhafte Besiedlung anderer Planeten – große öffentliche Wirkung, fand ihren Niederschlag in StarTrek und Science Fiction und motivierte insbesondere junge Leute zur Beschäftigung mit den Naturwissenschaften.
Heute sind derartige Projekte keine Vision, sondern eine Nostalgie. Leute glauben, man könnte dieselbe Begeisterung wie in ihrer Jugend vor 50 oder 60 Jahren wieder entfachen, indem man einfach wieder Menschen auf den Mond schickt. Das wird aber nicht funktionieren. Das heutige Publikum würde sich eher für abgasarme Autos oder biegbare Handy-Displays interessieren als dafür, nach mehr als 50 Jahren mal wieder jemanden auf den Mond zu schicken. “Früher war alles besser” funktioniert auch in der Wissenschaftskommunikation nicht mehr.
Bildquelle: https://commons.wikimedia.org/wiki/File:Luna_16.jpg Urheber: Bembmv
]]>Die statistische Physik hilft, das kollektive Verhalten von Fahrzeugen zu verstehen, die als aktive Teilchen behandelt werden. Die Graphentheorie ermöglicht es, die Entwicklung des Territoriums zu berücksichtigen, indem sie das Straßennetz als eine Menge von Knoten und Kanten beschreibt.
heißt es in der Pressemitteilung des CNRS (meine Übersetzung).
In der Theorie sollte bei einer durchschnittlichen Auslastung φ die Suchzeit näherungsweise (bei einer reinen Fahrzeit T0) sein, das ist die “binomiale Approximation”. was aber den tatsächlich gemessenen Werten manifest widerspricht. Auch in der Simulation erhalten die Autoren für φ≤69% eine um 44% höhere Suchzeit als die binomiale Approximation, wofür sie keine analytische Erklärung haben.
Anders als andere theoretische Arbeiten berücksichtigen die Autoren erstmals auch die Topologie des Straßennetzes. Offensichtlich ist es im oberen Bild schwieriger, einen Parkplatz in der Nähe der Sehenswürdigkeit zu finden, als im unteren Bild.
Das folgende Bild zeigt zwei unterschiedlich angelegte Parkplätze und für beide (in rot bzw. blau) die durchschnittliche Suchzeit Ts in Abhängigkeit von der Auslastung φ. Bei sehr niedriger und sehr hoher Auslastung findet man auf dem blauen Parkplatz schneller eine freie Stelle.
Das Modell der Autoren geht von einem gegebenen Straßennetz mit Parkplätzen aus. Autos fahren mit einer gewissen Wahrscheinlichkeit in eine Straße ein. Die “on-site parking probability” pi(α)(t) hängt von zahlreichen Variablen ab (parking rate, Entfernung vom Ziel, geschätzte Aussicht auf einen besseren Platz), die von den Autoren in zwei Variablen zusammengefasst werden, einer als “Attraktivität” bezeichneten Variable Ai(α) und einer die Wahrnehmung des Fahrers, wie einfach man gerade einen Platz findet, messenden Variable β(α)(t). Für β gegen Unendlich wird der Fahrer nirgendwo anders als in seinem bevorzugten Platz parken, während für β gegen Null fast jeder Platz akzeptabel wird, also pi(α)(t) gegen 1 geht. Das legt es nahe, ein Boltzmann-artiges Funktional anzusetzen: .
Das Modell wird dann in C++ implementiert und mittels theoretischer Überlegungen wird eine Molekularfeldgleichung aufgestellt, die mit der Fixpunktmethode gelöst wird und für kleine Straßennetze zu Ergebnissen führt, die gut mit den numerischen Ergebnissen übereinstimmen. Komplizierter wird es, wenn man dann auch noch den Durchgangsverkehr berücksichtigen will.
Schließlich zeigen die Autoren, dass ihre theoretischen und numerischen Modelle auch für große Straßennetze funktionieren, indem sie die morgendlichen Parkplatzsuchen in der französischen Stadt Lyon berechnen.
]]>In der Ostsee-Zeitung werden Pro und Contra diskutiert: “Schluss mit Benachteiligung” kontra “Abitur ist keine Massenware”.
Die Kontinuumshypothese wurde 1900 von David Hilbert als 1. Problem in seine Liste von 23 Jahrhundertproblemen aufgenommen. Gelöst wurde das Problem 1963 von Paul Cohen, der mit der von ihm für diesen Zweck entwickelten Methode des “Forcing” bewies, dass die Kontinuumshypothese (im Rahmen der üblichen Zermelo-Fraenkel-Mengenlehre mit Auswahlaxiom) unentscheidbar ist, sie kann aus den Axiomen weder bewiesen noch widerlegt werden. Cohen erhielt für diese Arbeit 1966 die Fields-Medaille.
In der gestrigen Schwetzinger Zeitung findet sich nun ein Artikel ”Ehemaliger Lehrer aus Speyer löst mathematisches Jahrhunderträtsel” mit einer angeblichen Lösung des Problems. Den Zeitungsartikel hat der Problemlöser praktischerweise gleich selbst verfaßt – wozu braucht man noch Journalisten? – und schon die Darstellung des Problems läßt erahnen, dass nicht einmal die eigentliche Problemstellung erfasst wurde:
Sein Problem Nummer eins beschäftigt sich, vereinfacht gesagt, mit abzählen. Dabei geht es darum, ob sich alle Dezimalzahlen (Kommazahlen) zwischen den Zahlen 0,0 und 1,0 in der gleichen Weise abzählen lassen, wie die unendlich vielen natürlichen Zahlen 0, 1, 2, 3 …
In dieser Formulierung ginge es um die Überabzählbarkeit des Intervalls [0,1], und die wurde tatsächlich bereits 1877 von Georg Cantor bewiesen, mit dem Diagonalverfahren. Bei der Kontinuumshypothese geht es um die Frage, ob es zwischen den beiden Mächtigkeiten noch weitere Mächtigkeiten geben kann.
Ich habe nun für dieses erste Problem eine Lösung gefunden und in Buchform der mathematischen Fachwelt zugänglich gemacht. Darin beschreibe ich in kompakter Form den Weg, der mich zu meinem Resultat geführt hat und stelle das spannende Ergebnis den bisherigen Erkentnissen gegenüber. So ging die aktuelle Forschung bisher davon aus, das Problem sei unentscheidbar. Dass es doch entscheidbar ist und beide unendlichen Zahlenmengen gleich viele Elemente besitzen, habe ich in dieser Arbeit aufgezeigt – in Form eines mathematischen Beweises auf nicht einmal 20 Seiten.
Wie ich zu dieser Lösung gefunden habe? Meine Entdeckung beruht, vereinfacht ausgedrückt, auf dem verblüffenden Weg der Spiegelung der natürlichen Zahlen am Nullpunkt in alle Dezimalzahlen zwischen 0,0 und 1,0. Als ich mich in einer ersten Notiz auf einem Zettel dieser Thematik gewidmet hatte, wurde mir schnell klar, dass ich etwas ganz Besonderes entdeckt hatte.
Eine Abbildung der natürlichen Zahlen auf alle Dezimalzahlen zwischen 0 und 1 kann es nicht geben weil Cantor eben bewiesen hat, dass diese Mengen nicht gleichmächtig sind. (Mit einem durchaus nachvollziehbaren Beweis, den seitdem viele Tausende Mathematiker gelesen, verstanden und in Vorlesungen präsentiert haben.) Vielleicht hätte man bei der Schwetzinger Zeitung doch erstmal jemanden fragen sollen, der sich auskennt.
]]>Die Umformung von führt es immerhin zu einem richtigen Ergebnis, auch wenn dabei sinnlose und im drittletzten Term auch falsche (und völlig überflüssige) Umformungen vorkommen.
Auf die Wissensfrage “Kannst Du mir drei bekannte Mathematiker aus der DDR nennen?” bekommt man diese Antwort:
Künstliche Intelligenzen geben auf gleiche Fragen nicht immer gleiche Antworten. (Fragt man Siri “Wie heißt Du?”, dann antwortet sie “Ich heiße Siri.” Stellt man die Frage einige Minuten später erneut, so antwortet sie “Ich heiße Siri, aber das wußtest Du ja schon.”) Während ChatGPT bei der Multiplikation von 2792478 und 4107069 auch bei der zweiten Nachfrage dasselbe falsche Ergebnis liefert, gibt es auf die Frage nach Mathematikern aus der DDR im zweiten Versuch eine ganz anderen, freilich genauso falsche und sinnlose Antwort:
Andererseits kann ChatGPT die primitiven 24-ten Einheitswurzeln mit einer wirklich guten (eher zu ausführlichen) Begründung bestimmen, es antwortet korrekt auf die Fangfrage “If 12 is the square root of a2, then a is 12, right?”, es löst mit ausführlicher und korrekter Begründung die Gleichung , kennt das kleinste nicht mit Zirkel und Lineal konstruierbare regelmäßige Polygon, und gibt eine lehrbuchmäßige Begründung für die Nichtentknotbarkeit der Kleeblattschlinge:
Die Ungleichheit zwischen 398712+436512 und 447212 begründet es nicht durch eine Rechnung, sondern mit „Fermat’s Last Theorem“ – allerdings mit einigen irreführenden Addenda, in denen es von “Ausnahmen” spricht. Auf Nachfrage bekommt man dann diese in jeder Hinsicht falsche Antwort:
Das ganze Video auf https://youtu.be/medmEMktMlQ
]]>Als wissenschaftlichen Witz oder Scherz bezeichnet man einen Witz oder einen Scherz, der direkten Bezug zur Wissenschaft hat und ihre Formen parodiert.
Wikipedia
Dass Aprilscherze nicht immer subtil sein müssen, bewies Martin Gardner im April 1975: die Relativitätshtheorie sei widerlegt, Leonardo da Vinci habe die Wasserspülung erfunden, im Schach gewinne 1.h4 mit hundertprozentiger Sicherheit, sei eine ganze Zahl und die unten abgebildete Karte könne nicht mit 4 Farben eingefärbt werden, behauptete er damals in seiner “Scientific American”-Kolumne.
“Zu meinem Erstaunen haben Tausende von Lesern diesen Unfug für bare Münze genommen” schrieb er später in seinen Erinnerungen: “Hunderte von Lesern schickten mir Vier-Färbungen der Karte zur Widerlegung der Behauptung. Viele schrieben, dass die Arbeit sie Tage gekostet hätte.” Eine mögliche Vier-Färbung der Karte zeigt das Bild unten, und ein Jahr später bewiesen Appel und Haken, dass jede ebene Landkarte mit vier Farben eingefärbt werden kann. (Sie fanden 1825 unvermeidbare Strukturen, von denen zumindest eine in jeder Landkarte vorkommen muss, und aus deren Unvermeidbarkeit der Vierfarbensatz mittels eines Induktionsarguments folgt – was sie freilich nur mit aufwendigen Computerrechnungen beweisen konnten.
Die Zahl der unvermeidbaren Strukturen ist inzwischen reduziert worden, am grundsätzlichen Problem einer Beweisbarkeit nur mit Computerhilfe hat sich bisher nichts geändert.)
ist übrigens, wenn man genau nachrechnet, nicht 262537412640768744 sondern
und wird heute Ramanujan-Konstante genannt – weil Gardner die angebliche Entdeckung ihrer Ganzzahligkeit Ramanujan zugeschrieben hatte. Ramanujan hatte tatsächlich einige ähnliche fast-ganze Zahlen gefunden, zum Beispiel . Die Fast-Ganzzahligkeit dieser Zahlen hat eine tiefere Erklärung in der Theorie der Modulformen: die j-Funktion
ist eine ganze Zahl und sie hat eine Reihenentwicklung, deren erste beide Terme
sind, alle danach kommenden Terme sind sehr klein. Mithin unterscheidet sich nur um diesen kleinen Rest von einer ganzen Zahl. (Es folgt aber aus dem Satz von Gelfond-Schneider, dass
transzendent ist. Der Satz besagt, dass für eine algebraische Zahl α und eine irrationale algebraische Zahl β die Potenz αβ transzendent ist. Das kann man zwar nicht direkt auf
, aber auf die Umformung
anwenden.)
Noch unsubtiler war die am 30. März 2009 auf dem ArXiv eingereichte Arbeit Time variation of a fundamental dimensionless constant von Robert J. Scherrer, in dem nicht nur nachgewiesen wurde, dass sich die Kreiszahl π mit der Zeit veränderte (3,125… bei den Babyloniern, 3,14… bei den Chinesen), sondern auch die Zeitabhängigkeit von e, γ, φ und den ganzen Zahlen diskutiert wurde:
More speculatively, one might consider the possibility that the values of the integers could vary with time, a result suggested by several early Fortran simulations. This possibility would have obvious implications for finance and accounting.
Eine Reihe weiterer mathematischer Aprilscherze findet man auf https://mathoverflow.net/questions/235008/examples-of-math-hoaxes-interesting-jokes-published-on-april-fools-day. Der populärste (mit den meisten Upvotes) ist das folgende Bild einer in Sechsecke zerlegten Sphäre aus einer am 1. April 2015 von Edelsbrunner at al. eingereichten Arbeit Hexagonal tiling of the two-dimensional sphere.
Bekanntlich ist die Euler-Charakteristik der Sphäre χ(S2)=2, weshalb für jede Zerlegung mit E Ecken, K Kanten und F Flächen die Gleichung E-K+F=2 gelten muss. Hier hat man aber scheinbar nur Sechsecke, weshalb E=2F und K=3F gelten müßte (weil je 3 Flächen an einer Ecke zusammenkommen und je zwei Flächen an einer Kante), mithin also E-K+F=0.
Im Original ist das Bild eine drehbare Animation und im Abstrakt erhält der Leser die Anweisung “Please do not rotate the hexasphere with your mouse unless you are not convinced that there are no hidden pentagons in the design.”
Der naheliegende Trick wäre, dass im Bild irgendwo zwei Fünfecke versteckt sein sollten, aber wahrscheinlich ist es ja komplizierter…
Ein ähnliches mathematisches Problem steckt hinter einer (ernstgemeinten, aber falsch formulierten) Frage in einer Ratesendung der ARD vom 31. Juli 2021. (Fragen zur Mathematik scheinen prädestiniert für fehlerhafte Fragestellungen in Ratesendungen. Bei Jauch wurde mal gefragt, ob jedes Rechteck ein Trapez oder ein Parallelogramm ist.) In der ARD war die Frage, aus wievielen Fünfecken ein klassischer Fußball besteht.
Es gibt tatsächlich eine Möglichkeit, den Rand einer Kugel in Fünfecke zu zerlegen, den sogenannten Dodekaeder. (Man kann leicht beweisen, dass für eine Zerlegung der Sphäre in Fünfecke, bei der an jeder Ecke je drei Flächen zusammenkommen, genau 12 Fünfecke benötigt werden: bei einer solchen Zerlegung hätte man 5F=2K und 5F=3E, woraus mit E-K+F=2 dann F=12 folgt.) Aber der Dodekaeder ist ja kein Fußball.
Tatsächlich besteht der klassische Fußball aus 12 Fünfecken und 20 Sechsecken und so wurde die Frage dann vom Kandidaten in der Ratesendung auch korrekt beantwortet. Nur war sie eben nicht korrekt gestellt. Man hätte fragen sollen, wieviele Fünfecke im klassischen Fußball vorkommen.
Eher in die Richtung von Gardners oder Ramanujans fast-ganzen Zahlen geht die Fast-Lösung 398712+436512=447212 der Fermat-Gleichung, die 1998 in einer Folge der Simpsons vorkam, alas nicht am ersten April. Ein anderer Aprilscherz zur Fermat-Vermutung war 1994 weit verbreitet worden, nachdem ein bekannter Mathematiker ihn ernst nahm:
There has been a really amazing development today on Fermat’s Last Theorem. Noam Elkies has announced a counterexample, so that FLT is not true after all! His spoke about this at the Institute today. The solution to Fermat that he constructs involves an incredibly large prime exponent (larger that 020), but it is constructive. The main idea seems to be a kind of Heegner point construction, combined with a really ingenious descent for passing from the modular curves to the Fermat curve. The really difficult part of the argument seems to be to show that the field of definition of the solution (which, a priori, is some ring class field of an imgainary quadratic field) actually descends to Q. I wasn’t able to get all the details, which were quite intricate…
Dasselbe passierte drei Jahre später (einem anderen Mathematiker), der auf einen eher böswilligen (weil einen damals aktuellen Ansatz eines Kollegen karikierenden) Aprilscherz zur Riemann-Vermutung hereinfiel und ihn über eine Tausende Leser erreichende Mailingliste weiterversandte:
There are fantastic developments to Alain Connes’s lecture at IAS last Wednesday. Connes gave an account of how to obtain a trace formula involving zeroes of L-functions only on the critical line, and the hope was that one could obtain also Weil’s explicit formula in the same context; this would solve the Riemann hypothesis for all L-functions at one stroke. Thus there cannot be even a single zeroe off the critical line! Well, a young physicist at the lecture saw in a flash that one could set the whole thing in a combinatorial setting using supersymmetric fermionic-bosonic systems (the physics corresponds to a near absolute zero ensemble of a mixture of anyons and morons with opposite spins) and, using the C-based meta-language MISPAR, after six days of uninterrupted work, computed the logdet of the resolvent Laplacian, removed the infinities using renormalization, and, lo and behold, he got the required positivity of Weil’s explicit formula! Wow!
(Die Schreibweise “zeroe” wurde in einer Fussnote Dan Quayle zugeschrieben. Da man das jüngeren Lesern inzwischen wohl erklären muss: der damalige US-Vizepräsident hatte 1992 in einer Fernsehshow einem Schúler gesagt, er solle das von ihm korrekt geschriebene Wort “potato” durch ein “e” am Ende ergänzen.)
Jeder kennt die Herleitungen von 0=1 oder anderen Gleichungen, in deren Beweis an irgendeiner Stelle mal durch Null dividiert wird. Eine sehr viel subtilere Variante dieses Arguments wurde vor einigen Jahren mal zum Beweis der Riemann-Vermutung verwendet und dann (leider mit enormem Medienecho) auf dem Heidelberg Laureate Forum vorgetragen. Der Beweis benutzte einen invertierbaren Operator T mit einer Reihe von Eigenschaften, u.a. sollte er schwach analytisch sein und T(1)=1 gelten. Für eine Nullstelle b der Riemannschen Zetafunktion im kritischen Streifen, aber außerhalb der kritischen Linie, wurde dann die Funktion F=T(ζ(.+b)+1)=1 betrachtet. Aus den Eigenschaften des Operators T kann man herleiten, dass F konstant Null ist. Daraus folgte T(ζ(.+b)+1)=1, wegen T-1(1)=1 also ζ(.+b)+1 konstant 1, was natürlich nicht stimmt, womit dann ein Widerspruch zur Existenz einer Nullstelle außerhalb der kritischen Linie bewiesen sein sollte. Also könne es die Nullstelle b nicht geben. (Der Fehler war, dass die im Beweis an T gestellten Bedingungen so stark waren, dass T konstant 1 sein muss.)
Wirklich lustig fand ich im März 2015 einen Artikel im Postillon über eine (angebliche) Studie des Max-Planck-Instituts für Mathematik, laut der 99 Prozent der deutschen Grundschüler nicht richtig infinitesimalrechnen könnten. Weder kenne die Mehrheit der Kinder die Unterschiede zwischen Cauchy-Integral, Riemannschem Integral, Stieltjes-Integral und Lebesgue-Integral, noch seien sie in der Lage, die Funktionsweise einer Taylorreihe zur Darstellung einer glatten Funktion zu erklären, wurde einem (erfundenen) Professor Werner Zoll in den Mund gelegt.
Eher nicht so lustig fand ich einen Beitrag der Titanic, mit dem sie im August 2018 wohl die Berichterstattung über die Fields-Medaillen karikieren wollte. Auf die Frage nach perfektoiden Räumen wurde dem (realen) Preisträger das (erfundene) Zitat in den Mund gelegt:
Sie können sich darunter überhaupt nichts vorstellen. Die Menschen, die mir da auch nur ansatzweise folgen können, kann man an einer Hand abzählen- es sind sieben bis acht.
Während also die Titanic sich über die Unverständlichkeit mathematischer Konzepte für den Normaldenkenden lustig machte, wollten die NachDenkSeiten im Dezember 2022 wohl parodieren, wie es aussähe, wenn ein Mathematikprofessor mit den Mitteln rein mathematischer Logik die wirkliche Welt erklären wollte.
Mathematiker […] dürfen sagen: Nehmen wir mal das und das an. Und dann daraus ihre Schlüsse ziehen. Oft machen sie es, um durch Argumente zu zeigen, dass die Annahme falsch ist. Aber es ist auch interessant, wenn man aus der Annahme interessante Folgerungen ziehen kann, manchmal auch solche, die nachher in einem Beweis münden.
Nachdem man dem (erfundenen?) Mathematiker noch mehrmals in den Mund legte, ihm fehle die “Expertise”, um die Entwicklungen in der Ukraine einzuschätzen, ließ man ihn – im Stile der Corona-Leugner, die ja auch immer nur Fragen stellten – dann als Frage formulieren
Oder war es [der Angriff Russlands auf die Ukraine und der Bruch des Völkerrechts] im Lichte der obigen Annahmen und Überlegungen ein Verteidigungskrieg? Dies bedarf einer sorgfältigen Analyse, die hier nicht gegeben werden kann.
und letztlich zu dem Schluss kommen
Man braucht nicht viel Fantasie, um auf den folgenden Gedanken zu kommen. Wir (die USA und die von ihnen dominierte NATO) treiben die Militärreform in der Ukraine voran, wir schüren den Konflikt innerhalb der Ukraine, wir pumpen viel Geld in die Ukraine. Vielleicht verliert die russische Regierung mal die Nerven und fängt einen direkten Krieg an[…].
um freilich anschliessend noch einmal zu betonen, dass er als Nicht-Experte dazu keine abschliessende Antwort geben könne. Sicher eine technisch gut gemachte Parodie, aber überhaupt nicht lustig.
]]>Der Abelpreis wird jährlich von der Norwegischen Akademie der Wissenschaften vergeben. Er gilt als eine Art Ersatz dafür, daß es keinen Nobelpreis für Mathematik gibt. Über die Gründe, warum Nobel keinen Mathematik-Nobelpreis stiftete, gibt es viele anekdotische Erklärungen, die aber nach allgemeiner Meinung alle in das Reich der Fabel gehören.
Die Verleihung findet am 23. Mai in Oslo statt.
Caffarelli hat vor allem über Regularitätstheorie, also die Charakterisierung der Singularitäten partieller Differentialgleichungen, gearbeitet, insbesondere über freie Randwertprobleme und über Hindernisprobleme. Für die Navier-Stokes-Gleichungen bewies er mit Kohn und Nirenberg, dass die Singularitätenmenge schwacher Lösungen keine 1-dimensionale Kurve enthalten kann. (Die bisher beste Annäherung an die Frage, ob die Navier-Stokes-Gleichungen eindeutige und glatte Lōsungen haben.) Für die Monge-Ampere-Gleichung bewies er eine explizite Klassifikation der Singularitäten. Das konnte er dann (mit Koautoren) in Arbeiten über optimalen Transport anwenden.
Arne B. Sletsjøe hat zu den Arbeiten des Preisträgers allgemeinverständliche Erklärungen geschrieben:
– Mathematics of mathematical models
– The obstacle problem
– Free boundary problems
Informationen zur Geschichte des Abelpreises findet man hier. Die bisherigen Preisträger seit 2003 sind:
2003 Jean-Pierre Serre (Frankreich): Homotopietheorie, Algebraische Geometrie
2004 Michael Atiyah (GB), Isadore Singer (USA): Globale Analysis
2005 Peter Lax (USA): Partielle Differentialgleichungen, Streutheorie
2006 Lennart Carleson (Schweden): Harmonische Analysis, Dynamische Systeme
2007 Srinivasa Varadan (Indien): Wahrscheinlichkeitstheorie, Große Abweichungen
2008 Jacques Tits (Belgien), John Thompson (USA): Gruppentheorie
2009 Michael Gromov (Frankreich): Riemannsche und Symplektische Geometrie, Geometrische Gruppentheorie
2010 John Tate (USA): Algebraische Zahlentheorie, Elliptische Kurven
2011 John Milnor (USA): Differentialtopologie
2012 Endre Szemeredi (Ungarn): Graphentheorie
2013 Pierre Deligne (Belgien): Algebraische Geometrie
2014 Yakov Sinai (Russland): Dynamische Systeme
2015 John Nash, Louis Nirenberg (USA): Partielle Differentialgleichungen
2016 Andrew Wiles (GB): Algebraische Zahlentheorie, Elliptische Kurven
2017 Yves Meyer (Frankreich): Harmonische Analysis
2018 Robert Langlands (Kanada): Darstellungstheorie, Zahlentheorie
2019 Karen Uhlenbeck (USA): Geometrische Analysis
2020 Hillel Furstenberg (Israel), Grigori Margulis (USA): Ergodentheorie
2021 László Lovász (Ungarn), Avi Wigderson (Israel): Diskrete Mathematik, Theoretische Informatik
2022 Dennis Sullivan (USA): Topologie, Dynamische Systeme
Inhalte:
Es beginnt um 18 Uhr mit einem wohl auch für Schüler konzipierten Vortrag zum Satz des Pythagoras – man soll zwei Blätter mitbringen bereithalten, geht um 19 Uhr weiter mit einer Podiumsdiskussion “Im Getriebe der Meinungsmaschine – Der Einfluss sozialer Medien auf individuelle, gesellschaftliche und politische Entscheidungen“, um 20 Uhr hält Bernd Sturmfels einen Vortrag über Anwendungen nichtlinearer Algebra, um 21 Uhr Angkana Rüland über Mathematik für Materialien mit Gedächtnis, und schließlich führt Stefan Hartmann um 22 Uhr eine Show mit mathematischen Zaubertricks vor.
Man kann sich natürlich auch nur für einzelne Vorträge einzoomen. Die Meeting-ID ist 621 3666 2587, das Kennwort 100905. Auf der Webseite gibt es auch einen direkten Zoom-Link.
]]>Es lohnt also auf jeden Fall, das Video und die Aufgaben anzuschauen. Im zweiten Teil des Videos werden die indischen Prüfungen dann für eine polemische Auseinandersetzung mit deutschen Prüfungsinhalten genutzt. Dazu kann natürlich jeder seine Meinung haben, die auch gerne hier in den Kommentaren diskutiert werden kann.
]]>Ich habe mal chatgpt beauftragt, den Satz des Pythagoras zu beweisen,
auch die Kommutativität der Addition wurde bewiesen. Hier sind die Ergebnisse.
Quelle: https://xkcd.com/2738/
]]>3D graphs that don’t contact the plane in the closure area may proceed as scheduled, but be alert for possible collisions with 2D graph lines that reach the hole and unexpectedly enter 3D space.
Quelle: https://xkcd.com/2735/
]]>Wavelets sind wichtig in der Signalverarbeitung. Es geht dort darum, eine Hilbertraum-Basis im (unendlich-dimensionalen) Vektorraum L2(R) aller quadratisch-integrierbaren Funktionen zu finden, so dass eine Funktion also durch ihre Koeffizienten in dieser Basis bestimmt ist, und zwar sollen schon endlich viele der Koeffizienten die Funktion möglichst genau bestimmen. Traditionell machte man das mit Fourier-Zerlegung, also mit der Hilbertraum-Basis . In den 70er Jahren Jahren hatten Morlet und Grossmann – ein Ingenieur und ein Physiker – die Idee, ausgehend von einer gewissen Funktion
eine Hilbertraum-Basis
zu konstruieren, die sie als “Wavelets konstanter Form” bezeichneten. Wavelets mit besseren Lokalisierungseigenschaften fand bald danach Yves Meyer und es entwickelte sich dann eine ganze Forschungsrichtung, in der Mathematiker immer neue Wavelets mit unterschiedlichen Eigenschaften konstruierten. Bei allen diesen Wavelets mußten aber die Funktionen für die direkte Implementierung abgeschnitten werden und man fragte sich, ob es Wavelets gäbe, für die das nicht notwendig ist. Ingrid Daubechies konstruierte 1988 erstmals Wavelets mit kompakten Trägern, was zu vielen wichtigen Anwendungen führte.
Neben ihrer ursprünglichen Verwendung zur Analyse nichtstationärer Signale wurden Wavelets vor allem in Bildverarbeitung und Datenkompression wichtig, neben vielen anderen Anwendungen.
]]>So etwas wie “des geht net” – das gibt’s hier in den USA nicht.
Anton Zeilinger laut https://www.zitate.eu/autor/univ-prof-dr-anton-zeilinger-zitate/280531
profil: Wie also kamen Sie zur Quantenphysik?
Anton Zeilinger: Am Ende des Studiums wollten eine Kollegin, ein Kollege und ich mehr darüber wissen. Wir besorgten uns das Manuskript der Quantenvorlesung von Otto Hittmair von der TU Wien. Wir arbeiteten es von vorn bis hinten durch und waren total fasziniert.
profil: Was hat Sie dermaßen fasziniert?
Anton Zeilinger: Die wunderschöne Mathematik, die verwendet wurde. Das ist absolut einmalig. Der Nobelpreisträger Paul Dirac hat einen Formalismus der Quantenmechanik geschrieben, der einfach genial ist. Ebenfalls großartig für uns war das Buch des Nobelpreisträgers Claude Cohen-Tannoudji. Aber am Beginn der Bücher hieß es immer, dazu, was das alles bedeutet, kommen wir noch. Dann las man, aber das Versprochene kam nicht. Da habe ich gemerkt, das war ein Thema, das nicht berücksichtigt wurde.
profil: Ist es auch Teil der Faszination, mit der Sprache der Mathematik in eine Welt einzudringen, die sich der Erfahrbarkeit der Alltagswelt entzieht?
Anton Zeilinger: Die direkte Erfahrbarkeit kümmert einen als Physiker eigentlich nicht. Man sieht das sehr operativ. Es gibt mathematische Vorhersagen und experimentelle Möglichkeiten, diese zu testen.
So das österreichiche Nachrichtenmagazin profil am 8.10. im Interview mit dem vier Tage zuvor gekürten Nobelpreisträger Anton Zeilinger.
Quantenverschränkung wird – vor allem auch in Österreich, wo Zeilinger sehr populär ist – gerne mal als Metapher für versteckte Zusammenhänge in Politik und Gesellschaft verwendet.
Wissenschaftsjournalist Florian Aigner erklärte im ÖRF die mit dem Nobelpreis ausgezeichnete Entdeckung so:
Ich geb diese Mascherl in ein Geldkuvert. Dann werfe ich eines davon weg nach Liechtenstein. Schaue ich in das andere Kuvert rein, dann kenne ich die Vorwürfe, kann mich aber gleichzeitig auch nicht daran erinnern. […] Also zwei ÖVP-Mitglieder müssen nicht am selben Tisch sitzen, um korrupt zu sein, jeder agiert gleich – auch wenn der eine in Niederösterreich und der andere in Tirol sitzt.
Daneben gibt es aber auch anerkannte Universitätsprofessoren, die im Ernst versuchen, Quantenverschränkung zur Erklärung größerer Phänomene heranzuziehen. Zum Beispiel fand in Madrid im Juni 2009 eine Tagung “Entanglement and Mathematics” statt, in der es um die als “Schwache Quantentheorie” propagierte These ging, es gäbe Quantenverschränkung nicht nur in Quantensystemen, sondern auch anderswo. Den mathematischen Hintergrund dazu sollte die Nichtkommutativität liefern:
Weak Quantum Theory is an algebraic formalism and I’m not a mathematician so I can’t do with formulas but it is in fact modelled along the very same algebraic formalism that is used by Quantum Mechanics these days: it’s a C*-algebra for those of you that know the terminology. And what we have done or rather my physicists friends […] we have dropped all definitions, all precisions that are used in Quantum Mechanics to do the calculations and everything and have shrunk the whole formalism to its bare bones.
[…]
The very bare core means that the formalism handles what is called ‘Noncommutative Observables’ or noncommuting operators as it is done in quantum physics proper
[…]
We normally have in algebra that it’s commutative, so we say that 2 times 3 is the same as 3 times 2, it’s 6. It doesn’t matter whether you do this and this first. Now in real life it’s actually more complicated because we slaughter the cow first, then we pull the skin off and then we eat it. We don’t eat it, pull the skin off and then slaughter it. There is a definite sequence in all what we do in life and commutation, I feel, is one of the elements which are important here to take into account.
By quantum mechanics noncommutative elements are actually defined as complementary elements [..]
Nichts davon ist eigentlich falsch (außer dass es im letzten Satz natürlich “noncommuting” statt “noncommutative” heissen muss), aber es ist alles, nun ja, irgendwie trivial und man fragt sich zunächst, was aus solcherart Allgemeinplätzen eigentlich folgen soll.
Die Anwendbarkeit dieser Theorie nichtkommutierender Operatoren (komplementärer Observablen) auch außerhalb der Quantenphysik wurde dann so erklärt.
Individual and community is an example of a pair of complementary variables. […] You could also frame it as separation and connectedness, that’s the same way of putting it. I feel, structure and freedom, a pair that we know from from education, is a complementary pair, […] form and content, something that we know from literature and poetry for instance, maybe law and justice, I’m not quite sure about that, they are relevant in a legal context […] maybe they fulfill the generic properties of complementary pairs being mutually exclusive, maximally incompatible but necessary at the same time to describe the situation.
Im Feuilleton einer Tageszeitung fände man es ja ganz lustig, Recht und Gerechtigkeit mit Verweis auf die Quantenphysik als komplementäre Observablen zu bezeichnen. (Gut, soo originell auch wieder nicht.) Aber der Sprecher schien überzeugt, hier wirklich einen brauchbaren Zugang zur Erklärung von “Systemen” gefunden zu haben:
Suppose you have a system, this one here, and suppose in that system you have various elements. If these elements here, if the description of these elements here, that’s why I have squared them, is complementary to the description of the whole system, then entanglement ensues between all those elements, and not between the other ones, maybe.
In dem Stil ging es dann noch eine Weile weiter. (Die Zitate stammen aus einem Vortragsvideo, dass man auf https://www.comillas.edu/sophiaiberia/Vid/Harald\_Walach.wmv ansehen kann.) Die Schlußfolgerung war letztlich, dass es eine nichtlokale Korrelation zwischen “mind” und “body” geben solle. Die uns bekannten kausalen Zusammenhänge seien die zweiten Ableitungen dieser Korrelation. Das klingt dann doch wieder richtig nach Mathematik und strenger Wissenschaft.
Joseph Honerkamp schreibt in der Einleitung seines vor zwei Jahren bei Springer Spektrum erschienenen Buches “Über die Merkwürdigkeiten der Quantenmechanik”, dass unsere evolutionär erworbenen Vorstellungen und Bilder für das Verständnis des Wirkens der Natur nicht unbedingt auf allen Längenskalen taugen müssen. Das gilt natürlich auch in umgekehrter Richtung.
Eine reale Anwendung der Quantenverschränkung ist Quantenkryptographie. Eine interessante Podiumsdiskussion dazu gab es im September auf dem Heidelberg Laureate Forum, anzuschauen auf https://youtu.be/y-xNxhBmnc8.
Zur Bedeutung der Kryptographie im Internet-Zeitalter braucht man
wohl nicht viele Worte zu verlieren. Verschlüsselte, abhörsichere Übertragung ist beim Bezahlen im Internet, bei der elektronischen Unterschrift, im Kreditkartenwesen, bei Zugangskontrolle und Copyright oder natürlich auch einfach bei der üblichen Kommunikation per Handy und e-Mail von eminenter Bedeutung.
Die Aufstellung ist stets: Es gibt einen Sender A, der eine Nachricht an den Empfänger B schickt, und einen Lauscher E, der die (verschlüsselte) Nachricht abfängt. In der Fachliteratur heißt die Senderin A immer Alice, der Empfänger B immer Bob, und die Lauscherin E immer Eva, was wohl für “evil” oder auch “eavesdrop” stehen soll. Konkret ist beispielsweise B eine Bank und A ihr Online-Kunde. E ist ein Hacker, der A’s verschlüsselte Daten abgefangen hat.
Zu einem kryptographischen Verfahren gehört eine Verschlüsselungsfunktion (kurz: Schlüssel) die einen Klartext in einen verschlüsselten Text umwandelt, und eine Entschlüsselungsfunktion, die die Umkehrfunktion der Verschlüsselungsfunktion sein muss. Klassisch ist die Cäsar-Chiffre f(A)=D,f(B)=E,…,f(W)=Z,f(X)=A,f(Y)=B,f(Z)=C oder mathematisch f(x)=x+3 modulo 29, deren Entschlüsselungsfunktion f(x)=x-3 modulo 29 ist. Solche Verschlüsselungsverfahren, bei denen man aus der Kenntnis des Schlüssels sofort auf die Entschlüsselungsfunktion schließen kann, heißen symmetrische Verschlüsselungsverfahren.
Bei symmetrischen Verfahren ist es offenbar wesentlich, daß der Schlüssel geheim gehalten wird. So waren durch das Knacken des ENIGMA-Schlüssels im 2. Weltkrieg den Allierten zum Beispiel bei der Invasion 1944 die deutschen Gefechtsaufstellungen in der Normandie bekannt. Deshalb gelten Verfahren als besonders sicher, deren Sicherheit nicht von der Geheimhaltung des Schlüssels abhängt: sogenannte asymmetrische (“public key”) Verfahren.
Die sind freilich mit erheblichem Rechneraufwand verbunden. In der Praxis entscheidet man sich deshalb oft für symmetrische Verfahren
und verwendet bei wirklich sensiblen Daten eine Mischung aus beiden Verfahren: Man verwendet das asymmetrische Verfahren nicht zur Übermittlung der Nachricht selbst, sondern nur zur verschlüsselten Übermittlung eines Schlüssels. Mit diesem gemeinsamen Schlüssel verwenden A und B dann ein symmetrisches Verfahren zur Übermittlung der eigentlichen Nachricht.
Für symmetrische Verfahren gibt es seit 2000 einen vom National Institute of Science and Technology NIST – dem US-amerikanischen Gegenstück zur Physikalisch-Technischen Bundesanstalt – festgelegten Standard, den seitdem unter der Bezeichnung AES (Advanced Encryption Standard) bekannten Rijndael-Algorithmus. Der Algorithmus ist frei verfügbar und darf ohne Lizenzgebühren eingesetzt sowie in Software bzw. Hardware implementiert werden.
AES ist ein Blockchiffre mit Blöcken aus 128 Bit. Jeder Block wird bestimmten Transformationen unterzogen, wobei die Blöcke nicht unabhängig verschlüsselt, sondern verschiedene Teile des Schlüssels nacheinander auf den Klartext-Block angewendet werden.
Nach Meinung der NIST-Jury von 2000 bietet AES ausreichend Sicherheit für die nächsten 100 Jahre. (Mit solchen Prognosen muß man natürlich vorsichtig sein. In einem ähnlichen Zusammenhang sagte Ronald Rivest – einer der Entwickker von RSA – 1977, die Faktorisierung einer 125-stelligen Zahl dauere 40 Billiarden Jahre. Tatsächlich gelang eine solche Faktorisierung dann bereits 1994, ab 2003 wurden immer größere Zahlen faktorisiert und 2009 gelang die Faktorisierung einer 232-stelligen Zahl nach 20-monatiger Arbeit eines Rechnerpools einer Gruppe unter Leitung der Bonner Mathematiker Jens Franke und Thorsten Kleinjung. 2020 wurde am INRIA in Nancy erstmals eine 250-stellige Zahl faktorisiert.)
Jedenfalls soll AES als Standard für symmetrische Verschlüsselungsverfahren auf absehbare Zeit nicht geändert werden. Die Forschung in der Kryptographie konzentriert sich deshalb darauf, immer bessere asymmetrische Verfahren zu entwickeln (bzw. aus Sicht der Hacker immer bessere Angriffe auf asymmetrische Verfahren zu finden).
Alice will Bob eine verschlossene Kiste (mit einer Nachricht) senden, ohne den Schlüssel zu schicken.
Sie macht folgendes: sie sichert die Kiste mit einem Vorhängeschloß (und behält den Schlüssel) und schickt Bob die verschlossene Kiste.
Bob kann die Kiste natürlich nicht öffnen, aber er sichert die Kiste mit einem zweiten Vorhängeschloß (und behält ebenfalls den Schlüssel) und schickt die doppelt gesicherte Kiste an Alice zurück.
Alice öffnet ihr Schloß mit ihrem Schlüssel und schickt die (immer noch mit Bobs Vorhängeschloß gesicherte) Kiste an Bob.
Bob kann die Kiste jetzt mit seinem eigenen Schlüssel öffnen.
Während des gesamten Vorgangs ist die Kiste nie unverschlossen unterwegs gewesen.
Im Prinzip könnte man so Daten sicher übertragen. Nur ist es viel zu umständlich, alles zweimal hin- und herzuschicken.
Lange hatte man das Problem der Schlüsselübertragung für ein unvermeidbares Problem der Datenübertragung gehalten. Mitte der 70er Jahre wurden dann (eigentlich relativ einfache) asymmetrische Verschlüsselungsmethoden entwickelt, die dieses Problem umgehen. Im Nachhinein ist es natürlich paradox, dass diese Methoden gerade rechtzeitig entdeckt wurden, um dann ab den 80er Jahren die sichere Datenübertragung per Internet zu ermöglichen. Ohne die mathematischen Entdeckungen, die Diffie-Hellman 1976 und Rivest-Shamir-Adleman 1977 machten, würde der Datenaustausch im Internet heute wesentlich zeitaufwendiger und Online-Handel damit praktisch unmöglich sein.
We stand today on the brink of a revolution in cryptography.
So begann, wenig bescheiden, 1976 ein Artikel von Diffie und Hellman, einem 32-jährigen Dauerstudenten – der seine Promotion bis heute nicht abgeschlossen hat – und seinem 31-jährigen Professor. In der Sache behielten sie mit ihrer Ankündigung durchaus recht: auf dem Diffie-Hellman-Prinzip beruhen heute die meisten Public-Key-Verschlüsselungsverfahren. (Man weiß heute, dass dieses Verfahren bereits 1974 beim britischen Geheimdienst von Malcolm Williamson entwickelt wurde. Der Geheimhaltung wegen durfte Williamson seine Arbeit damals nicht veröffentlichen.)
Der Diffie-Hellman-Schlüsselaustausch funktioniert nach folgendem Prinzip: A denkt sich a, B denkt sich b, dann schickt A ga an B, der daraus gab berechnet, und B schickt gb an A, der daraus gba berechnet.
Dabei sind a und b ganze Zahlen, g ist Element irgendeiner Gruppe G. gab=gba ist dann der gemeinsame Schlüssel.
Das ist (für Mathematiker) eigentlich eine sehr banale Idee. Dass sie trotzdem sichere Verschlüsselungsverfahren liefert, liegt daran, dass es Gruppen G gibt, die viel komplizierter sind als die ganzen Zahlen, und für die das Problem des diskreten Logarithmus schwer zu lösen ist.
Problem des diskreten Logarithmus: In einer abelschen Gruppe G seien ein Element g und eine Potenz ga gegeben. Berechne die ganze Zahl a.
Der Diffie-Hellman-Schlüsselaustausch lässt sich knacken, wenn in einer Gruppe G der diskrete Logarithmus leicht zu berechnen ist, wie etwa in den ganzen Zahlen. Schwer zu berechnen ist der diskrete Logarithmus zum Beispiel in – darauf beruht RSA – oder in abelschen Varietäten, zum Beispiel in elliptischen Kurven über
, die anders als höherdimensionale abelsche Varietäten auch mit vertretbarem Aufwand zu speichern sind. Auf elliptischen Kurven beruht die Elgamal-Verschlüsselung, die heute meist verwendet wird.
Um das Prinzip an einem sehr einfachen Beispiel zu veranschaulichen, nehmen wir mal die Kurve über
, die zufällig aus genau 28 Punkten besteht, welche man also den Symbolen des deutschen Alphabets – 26 Buchstaben sowie Leerzeichen und Punkt – zuordnen kann.
Der Buchstabe A entspreche dem Punkt (0,5), der Buchstabe B dem Punkt (0,18), der Buchstabe H dem Punkt (4,20), der Buchstabe Z dem Punkt (20,9), das Leerzeichen dem Punkt (20,14) und der Punkt dem Punkt im Unendlichen. Wenn wir dann etwa als Verschlüsselungsfunktion , also a=2 wählen, dann wird jeweils der P entsprechende Buchstabe mit dem 2P=P+P entsprechenden Buchstaben verschlüsselt. Zum Beispiel ist (0,5)+(0,5)=(4,20), also wird A durch H verschlüsselt.
In der Praxis werden natürlich nicht Buchstaben, sondern Blöcke von Bits verschlüsselt, außerdem braucht man elliptische Kurven mit wesentlich mehr Punkten. Bei nur 28 Punkten wäre die Entschlüsselung notfalls auch durch brachiales Probieren machbar, mit Computer-Hilfe eine Sache von Sekunden-Bruchteilen.
Real verwendet man elliptische Kurven mit mindestens 2256 Punkten. Nach der von Hasse bewiesenen Riemann-Vermutung für Funktionenkörper elliptischer Kurven ist die Anzahl der Punkte einer elliptischen Kurve näherungsweise p+1 – genauer , weshalb man also auch p in dieser Größenordnung wählen muss. Um dieselbe Sicherheit nicht mit elliptischen Kurven, sondern mit RSA zu erreichen, müßte man mit viel größeren Zahlen rechnen.
In der Kryptographie gelten Verschlüsselungsverfahren als unsicher, wenn es Entschlüsselungs-Algorithmen in subexponentieller Zeit gibt.
Es gibt eine Reihe von Algorithmen zum Knacken elliptischer Kurven, die exponentielle Zeit benötigen. Bekannte Beispiele sind der Babystep-Giantstep-Algorithmus, der Pohlig-Hellman-Algorithmus, der Pollard ρ-Algorithmus und der Pollard λ-Algorithmus. Wegen ihres hohen Zeit- und Speicher-Aufwandes sind sie nicht praktikabel und stellen also keine Gefahr dar.
Darüber hinaus gibt es Algorithmen, die für sehr spezielle elliptische Kurven tatsächlich Entschlüsselung in subexponentieller Zeit erreichen. Diese speziellen elliptischen Kurven dürfen dann natürlich in der Verschlüsselung nicht verwendet werden.
Konkret dürfen sogenannte “supersinguläre” und “anomale” Kurven nicht verwendet werden.
Eine “supersinguläre” Kurve ist eine Kurve, für die die Anzahl der Punkte genau p+1 ist, also Gleichheit im Satz von Hasse gilt. (Jedenfalls, wenn man modulo einer Primzahl rechnet. Die allgemeine Definition ist, dass
durch p teilbar sein soll.) Für supersinguläre Kurven gibt es den MOV-Algorithmus, der in subexponentieller Zeit entschlüsselt. Der MOV-Algorithmus benutzt die Weil-Paarung, um die Berechnung diskreter Logarithmen in
auf die (etwas einfachere) Berechnung diskreter Logarithmen in der multiplikatven Gruppe
zurückzuführen.
Eine “anomale” elliptische Kurve ist eine Kurve, für die die Anzahl der Punkte genau p ist. Für anomale Kurven gibt es den SSSA-Algorithmus, der in subexponentieller Zeit entschlüsselt.
In der Praxis verwendet man ohnehin nur eine relativ kleine Auswahl von elliptischen Kurven. Die NSA zum Beispiel hat eine überschaubare Liste von zu verwendenden elliptischen Kurven.
In choosing an elliptic curve as the foundation of a public key system there are a variety of different choices. The National Institute of Standards and Technology (NIST) has standardized on a list of 15 elliptic curves of varying sizes. Ten of these curves are for what are known as binary fields and 5 are for prime fields. Those curves listed provide cryptography equivalent to symmetric encryption algorithms (e.g. AES, DES or SKIPJACK) with keys of length 80, 112, 128, 192, and 256 bits and beyond.
For protecting both classified and unclassified National Security information, the National Security Agency has decided to move to elliptic curve based public key cryptography. Where appropriate, NSA plans to use the elliptic curves over finite fields with large prime moduli (256, 384, and 521 bits) published by NIST.
Eine Kuriosität am Rande: auf viele Eigenschaften von elliptischen Kurven gibt es Patente von Unternehmen oder Privatpersonen, die NSA mußte für einige der auf ihrer Liste vorgeschlagenen Kurven zunächst eine Lizenz erwerben.
Quantencomputer – die es freilich noch nicht gibt – könnten mit einem Algorithmus, für den Peter Shor 1998 den (inzwischen in IMU Abacus Medal umbenannten) Nevanlinna-Preis erhielt die Primfaktorzerlegung großer Zahlen effektiv berechnen. Mit einer Variante des Shor-Algorithmus könnten sie auch diskrete Logarithmen in beliebigen zyklischen Gruppen endlicher Ordnung ziehen und damit jede Variante der auf elliptischen Kurven beruhenden Elgamal-Verschlüsselung effektiv brechen.
Wer schon immer einmal wissen wollte, welches Verschlüsselungsverfahren Bitcoins verwenden: diese Frage wurde im November 2019 auf Mathoverflow diskutiert.
Verwendet wird die sehr einfach aussehende elliptische Kurve
über dem endlichen Körper Fp mit
.
Tatsächlich betrachtet man in dieser elliptischen Kurve nur eine zyklische Untergruppe der Ordnung 115792089237316195423570985008687907852837564279074904382605163141518161494337.
Die Antworten auf Mathoverflow kann man wohl so zusammenfassen, dass man an die Sicherheit des Bitcoin-Algorithmus glaubt, weil viele smarte Leute versucht haben ihn zu knacken und es noch niemandem gelungen ist.
Zurück zur Podiumsdiskussion Ende September auf dem Heidelberg Laureate Forum. Diese begann mit einem halbstündigen Referat von Whitfield Diffie über die Geschichte der Kryptographie, das er mit dem Hinweis beendete, dass schon 2015 das Committee on National Security Systems aufgefordert hatte, zu Algorithmen zu wechseln, die auch gegen Quantencomputer – insbesondere Shors Algorithmus – resistent sind. Nach dieser Aufforderung sei sieben Jahre lang nichts passiert, aber vor wenigen Tagen sei ein auf CRYSTALS basierender neuer Algorithmus herausgekommen.
CRYSTALS steht für „Cryptographic Suite for Algebraic Lattices“, es setzt sich zusammen aus Kyber, einem IND-CCA2-secure key-encapsulation mechanism, und Dilithium, einem strongly EUF-CMA-secure digital signature algorithm. Beide Algorithmen basieren auf schweren Problemen aus der Theorie von Gittern in Moduln. Ein paar Stichworte zum mathematischen Hintergrund gibt der Wikipedia-Artikel “Lattice-based cryptography”.
Die Frage, wann mit Quantencomputern zu rechnen sei, wurde von den Teilnehmern der anschließenden Podiumsdiskussion mit Zahlen zwischen 10 und 30 Jahren beantwortet. Man solle trotzdem jetzt mit den Umstellungen beginnen, weil solch ein Wechsel eine lange Zeit benötige: Standards müßten geändert, Menschen dafür ausgebildet und zahlreiche praktische Probleme gelöst werden. Außerdem könnten wichtige Geheimnisse heute gestohlen und 20 Jahre später entschlüsselt werden, weshalb man sie schon heute gegen Angriffe durch Quantencomputer schützen sollte.
]]>Das Video der Podiumsdiskussion (mit Diffies Vortrag in den ersten 30 Minuten):
profil: Wie also kamen Sie zur Quantenphysik?
Zeilinger: Am Ende des Studiums wollten eine Kollegin, ein Kollege und ich mehr darüber wissen. Wir besorgten uns das Manuskript der Quantenvorlesung von Otto Hittmair von der TU Wien. Wir arbeiteten es von vorn bis hinten durch und waren total fasziniert.
profil: Was hat Sie dermaßen fasziniert?
Zeilinger: Die wunderschöne Mathematik, die verwendet wurde. Das ist absolut einmalig. Der Nobelpreisträger Paul Dirac hat einen Formalismus der Quantenmechanik geschrieben, der einfach genial ist. Ebenfalls großartig für uns war das Buch des Nobelpreisträgers Claude Cohen-Tannoudji. Aber am Beginn der Bücher hieß es immer, dazu, was das alles bedeutet, kommen wir noch. Dann las man, aber das Versprochene kam nicht. Da habe ich gemerkt, das war ein Thema, das nicht berücksichtigt wurde.
profil: Ist es auch Teil der Faszination, mit der Sprache der Mathematik in eine Welt einzudringen, die sich der Erfahrbarkeit der Alltagswelt entzieht?
Zeilinger: Die direkte Erfahrbarkeit kümmert einen als Physiker eigentlich nicht. Man sieht das sehr operativ. Es gibt mathematische Vorhersagen und experimentelle Möglichkeiten, diese zu testen.
https://www.profil.at/wissenschaft/anton-zeilinger-wir-galten-als-totale-aussenseiter/402174609
]]>Unter den sieben Vermutungen ist die Hodge-Vermutung der Kugelfisch. Sie brauchen einen Koch, der ihn fachmännisch seziert, sonst ist es tödlich.
begann Sebastian Stiller als Vertreter der Deutschen Mathematiker-Vereinigung seine Einführung. Man wolle die Dinge am Wegesrand zeigen und nicht unbedingt zu den Ursprüngen vordringen. Wie bei der in Berlin gerade gezeigten Ausstellung über die Nil-Expedition, bei der es auch eher um Königreiche und Landschaften am Flussufer (und auch Kugelfische) gehe und um allerlei Mitbringsel. Die Mitbringsel aus mathematischen Abenteuern seien in die Kultur hineingewachsen, man finde sie in der Umgebung des Veranstaltungsorts in Architektur und Musik.
Entsprechend begann auch die Veranstaltung dann mit einem Musikprogramm und mit einem Vortrag von Jürgen Richter-Gebert über Mathematiker und ihre Probleme, in dem unter anderem die nichteuklidische Geometrie, die Unmöglichkeit der Quadratur des Kreises und die Unmöglichkeit eines Algorithmus für ganzzahlige Lösungen polynomieller Gleichungen angerissen und für ein breites Publikum verständlich dargestellt wurden. Dazu gab es auch eine Poster- und Modell-Ausstellung, die vor und nach den Vorträgen und in der Pause besichtigt werden konnte.
Aus dem Hauptvortrag von Christian Liedtke konnte ich jedenfalls so viel verstehen, dass, weil Lineare Algebra einfach und Algebraische Geometrie schwer ist (Strukturtheorie, Klassifikationsresultate, Algorithmen und numerische Verfahren sind für die lineare Algebra bekannt, für die algebraische Geometrie weiß man sehr viel weniger), man algebraische Geometrie zu linearisieren versucht durch Einführung von Kohomologietheorien. Die Frage ist dann wieviele Informationen dabei verlorengeht.
Zum Beispiel gibt es auf einer kubischen Fläche stets 27 Geraden und diese erklären in gewisser Weise, warum die zweite Kohomologie dieser 4-dimensionalen Mannigfaltigkeit Dimension 7 hat. Bei einer Fläche vom Grad 4 (sogenannte Kummer-Flächen) ist die Dimension der zweiten Kohomologie stets 22, aber die Anzahl von Geraden kann alles zwischen 0 und 64 sein, meist ist sie 0. Nun hat man die sogenannte Zykelabbildung, die auf natürliche Weise jeder auf der (komplexen) Fläche liegenden (komplexen) Kurve ein Element der zweiten Kohomologie zuordnet und der Schlüssel zum Verständnis ist der (1,1)-Satz von Lefschetz, demzufolge eine Kohomologieklasse einer Fläche X genau dann einer Kurve (bzw. einer rationalen Linearkombination von Kurven) entspricht, wenn sie in liegt. Die 1950 von Hodge aufgestellte Vermutung ist die höher-dimensionale Verallgemeinerung, also für k-dimensionale Untervarietäten in einer höher-dimensionalen Varietät, deren rationale Linearkombinationen genau
aufspannen sollen.
Ich werde die Videos der Vorträge hier verlinken, sobald sie online sind.
Nachtrag: Inzwischen sind die Vorträge online.
50 ausgewählte aus den 511 teilnehmenden Cartoons kann man in diesem Video anschauen (wobei ich die meisten nicht sooo besonders lustig fand).
Next, let’s replace “number” and “shape” in Maths curriculum with proper terms like “arithmetic” and “geometry”.
Der Kontext ist mir nicht klar, möglicherweise ging es um eine vom damaligen (konservativen) Bildungsminister Gove angestrebte “Akademisierung“ der Schulen (bei der es allerdings eher um eine Selbstverwaltung der Schulen als „Akademien“ als um eine Akademisierung der Inhalte oder Sprache des Schulunterrichts ging).
Truss hat sich auch später als Bildungsstaatssekretärin häufig zum Mathematikunterricht geäußert, allerdings eher mit den üblichen Allgemeinplätzen.
Hausdorff wurde 1913 nach Greifswald berufen und war dort während des Krieges zeitweise der einzige Mathematiker. In Greifswald schrieb er sein Hauptwerk „Grundzüge der Mengenlehre“. Dessen grundlegender Ansatz, statt metrischer Räume allgemeiner topologische Räume zu betrachten, die durch ihre offenen Mengen definiert sind, setzte sich bald durch und ist bis heute der übliche Ansatz. Beispielsweise konnte er mit diesem Ansatz eine einfachere Definition von zusammenhängenden Mengen geben. (Diese Definition war schon von Lennes in seiner Dissertation von 1907 gegeben worden, setzte sich aber erst mit Hausdorffs Buch durch.) Nach dem Krieg lernten die meisten Mathematiker aus Hausdorffs Buch die Punktmengentopologie einschließlich der Maß- und Integrationstheorie. 1921 wurde er nach Bonn berufen, von wo er 1942 deportiert werden sollte, weshalb er sich mit seiner Frau und Schwägerin das Leben nahm.
Gewinner der Abstimmung ist der Virologe Friedrich Loeffler, der den Erreger der Maul- und Klauenseuche entdeckte und in der Nähe von Greifswald eine Forschungsanstalt für Tierseuchen gründete. Die Abstimmung für die bedeutendste Greifswalderin läuft noch, es führt Johanna Odebrecht, Gründerin einer „Rettungsanstalt für arme Mädchen“.
Die “starke bäuerlich-handwerklich-kaufmännische Ausrichtung” des bisherigen Rechenunterrichts genügt nach jüngsten pädagogischen Forschungen nicht mehr den modernen Anforderungen. Denn das Rechnen mit Zahlen, das vor allem schematisches Denken erfordert, wird im Berufsleben mehr und mehr von Maschinen erledigt.
Die neue Mathematik, die auf der sogenannten Mengenlehre basiert, soll dagegen logisches und analytisches Denken fördern. Die Erstkläßler beispielsweise müssen eine Menge von eckigen und runden, roten und blauen, großen und kleinen Figuren nach Form, Farbe und Größe sortieren. Durch diese Methode, die von Schuljahr zu Schuljahr anspruchsvoller wird, soll bei den Schülern – so die nordrhein-westfälischen Richtlinien – die “Fähigkeit des Ordnens … des Erfassens von Strukturen entwickelt werden”.
So also in Heft 12/1970. Ziemlich genau vier Jahre danach schaffte es die Mengenlehre dann sogar auf das Titelbild von Heft 13/1974. Doch der Enthusiasmus war dem Entsetzen gewichen.
Mengenlehre: „3 + 5 = 5 + 3“ war der Leitartikel des Heftes überschrieben. Es ging um Proteste und Prozesse gegen die Mengenlehre an Grundschulen.
Geschweifte Klammern und Ellipsen, in die immer neue und immer andere Mengen geschrieben oder gezeichnet werden, füllen viele Hefte. Väter und Mütter, die pflichtbewußt den Bestseller “Eltern lernen die neue Mathematik” oder ein anderes der fünf Dutzend Elternbücher gelesen oder einen Kurs an der Volkshochschule besucht haben, sind ihren Kindern wenigstens in der Erkenntnis voraus, daß es Mengen in Unmengen gibt: unter anderem Grund-, Teil-, Vereinigungs-, Ergänzungs-, Schnitt-, Unterschieds-, Null-, Verbindungs-, Rest-, Produkt-Lösungsmengen.
Aber selbst allabendlich strebend bemühten Eltern fällt es oft schwer, mit ihren Sprößlingen mitzuhalten oder ihnen zu helfen, wenn sich die Begriffe verwirren.
Von Mächtigkeit reden Achtjährige und meinen nicht Könige oder Kanzler, sondern Mengen von Haselnüssen und Rosinen. Und wenn sie sagen, irgend etwas sei irgend etwas anderem “eineindeutig” zuzuordnen, dann stottern sie nicht, sondern sind stolz darauf, daß sie dem Vater auch dann überlegen sind, wenn er Abitur und Doktortitel besitzt. Laut Mengenlehre-Gegner Hans Stahl (Stuttgart) “sehen die Kinder früh, zu früh, ihre Eltern hilflos und unwissend. Damit schwindet die Achtung, die Kinder können nicht mehr ihre Eltern fragen, deren Vorbild verblaßt”.
Klare Kampflinien gab es immerhin zwischen den akademischen Disziplinen:
Während Ärzte, Ärztekammern und -verbände vorerst nur vereinzelt gegen die Mengenlehre kämpfen, hat sich eine andere akademische Sparte fast vollzählig mit den empörten Eltern verbündet. Es sind die Universitätsprofessoren für Mathematik, die von der Art, wie Mengenlehre derzeit an deutschen Grundschulen betrieben wird, nicht viel mehr als nichts halten.
Mengenlehre sei zwar, argumentiert die “Deutsche Vereinigung für mathematische Logik”, eine “wichtige mathematische Disziplin”, aber für die Schule kaum geeignet. Dort könne es allenfalls eine “Gebrauchsmengenlehre” geben, die “eher eine Sprache als ein eigener mathematischer Stoff” sei und deshalb im Zusammenhang mit anderen Stoffen “allmählich und zwanglos eingeführt werden” solle.
Die Gegenpartei bilden, nahezu ebenso geschlossen, die Professoren für Didaktik der Mathematik, die an den Pädagogischen Hochschulen tätig sind. Sie sind auch als Schulbuch-Autoren bemüht, der Grundschule das neue Gebiet zu eröffnen, um Anschluß an die weiterführenden Schulen zu halten.
Es lohnt, den langen Artikel in Gänze zu lesen (https://www.spiegel.de/spiegel/print/d-41784469.html).
In den scienceblogs haben wir aus Anlaß des 50–jährigen Jubiläums diejenigen Leser, die damals zur Schule gingen, gebeten, ihre Erfahrungen aus heutiger Perspektive zu schildern (http://scienceblogs.de/mathlog/2020/03/13/macht-mengenlehre-krank/). Die Ergebnisse waren durchaus überraschend. Leser und Leserinnen schrieben, sie hätten die Legomaplättchen geliebt und profitierten in ihren heutigen Jobs etwa als Softwareentwickler wunderbar von der in der Grundschule erlernten Mengenlehre. Anders als für jüngere Kollegen sei ihnen das Konzipieren von Abfragen, und somit von Teil-, Schnitt-, Unter- und sonstigen Mengen intuitiv möglich. Der Unterricht habe eine Grundlage gelegt, wie man Probleme strukturiert, sortiert, in Teilaufgaben zerlegt, wie man mit Mathematik sprechen kann. Später habe es ihnen geholfen, um Konzepte zu verstehen wie “Formale Sprachen”, “Entscheidbarkeit”, “Komplexitätstheorie” … alles, was ein Informatikdiplomstudium der 80er/90er Jahre ausmachte. Der damalige Matheunterricht mit seinen bunten Plättchen und den zugehörigen Schablonen zum Zeichnen der Formen habe ihnen sehr viel Spass gemacht, mehr Spass als ihren Kindern später in der Grundschule das Rechnen. Andere dagegen beklagten sich, sie hätten mit den vielen bunten Bildchen nicht Rechnen gelernt, sondern Malen, und könnten bis heute nicht Kopfrechnen.
Es ist natürlich möglich, dass die Leserschaft der scienceblogs keine repräsentative Stichprobe der Grundgesamtheit ist; vielleicht wäre es mal ein Thema für erziehungswissenschaftliche Master- oder Doktorarbeiten herauszufinden, wie damalige Schüler ihren Mathematikunterricht heute einschätzen und inwieweit – subjektiv in der Eigensicht oder möglichst objektiv in der Außensicht – die erlernten und eventuell nicht erlernten Fähigkeiten ihnen genutzt oder auch geschadet haben.
Besser als der reale Unterricht lassen sich die theoretischen und unterrichtskonzeptionellen Hintergründe der damaligen Reform anhand von Quellen, also erziehungswissenschaftlicher und psychologischer Fachliteratur und vor allem damaliger Schulbücher und Lehrermaterialien rekonstruieren. Dies leistet die in dieser Rezension zu besprechende Arbeit “Die „Mengenlehre“ im Anfangsunterricht – historische Darstellung einer gescheiterten Unterrichtsreform in der Bundesrepublik Deutschland”, mit der die Autorin Tanja Hamann (https://www.uni-hildesheim.de/fb4/institute/imai/abteilungen/didaktik-der-mathematik-1/mitglieder/tanja-hamann/= im Jahr 2017 an der Universität Hildesheim promoviert wurde, durch den Vergleich dreier damaliger Lehrwerke: alef von Bauersfeld, Wir lernen Mathematik von Neunzig und Sorger, und Mathematik in der Grundschule von Fricke und Besuden, jeweils in den Ausgaben für das 1. Schuljahr.
Wie die Autorin in der Einleitung schreibt, möchte sie vorrangig eine Beschreibung der Reform liefern, die als Grundlage weiterführender Arbeiten dienen kann, gleichzeitig aber auch die übergeordneten Fragen im Hintergrund aufgreifen, insbesondere die Frage nach den Gründen für das Scheitern der Reform. Es sollen die zentralen Reformideen (Inhalte, didaktische Prinzipien, Methodik, Gesamtkonzept) auf den verschiedenen Ebenen (wissenschaftlich-theoretisch, kurrikular, unterrichtskonzeptionell, schulpraktisch) und die Rekontextualisierung der Ideen auf den unterschiedlichen Ebenen sowie die Entwicklung von Gesamtkonzept und Ideen im Verlauf der Zeit dargestellt werden.
Kapitel I über die wissenschaftlich-theoretische Ebene und internationale Reformeinflüsse stellt die Entwicklungen in verschiedenen europäischen Ländern dar, während auf die USA nicht eingegangen wird, weil sich Ausgangssituation und Umsetzung dort stark unterschied. Als Impulsgeber werden auf insgesamt knapp 60 Seiten das Royaumont-Seminar und die Erkenntnisse Jean Piagets und Jerome Bruners sowie die Konzepte des Unterrichtsreformers Zoltan Dienes ausführlich diskutiert. Weiter geht es dann in Kapitel II (gut 50 Seiten) um den Verlauf der Reformen in der BRD und Kapitel III beschreibt und vergleicht dann auf jeweils 30-40 Seiten die drei obengenannten Lehrwerke. Kapitel IV ist den “Folgerungen” gewidmet.
Die Autorin kommt zu dem Fazit, die Mengenlehre sei als gescheitert anzusehen, weil “die Nähe der Umsetzung von Reformkonzepten zu den Ideen und Zielen, die ihren ursprünglichen Ausgang markieren”, nicht gegeben war, sie “vielmehr durch eine Fülle an Anpassungen und Verkürzungen, auf den verschiedenen Ebenen” gekennzeichnet gewesen wäre. Dennoch sei nicht alles, was im Zuge der Reform neu war, aus dem Unterricht verschwunden. Die Geometrie gehöre erst seit den 1970ern zum festen Kanon der Grundschule. Das Nachdenken darüber, welche Methode am geeignetsten ist, habe sich etabliert, Lernspiele bei Schulanfängern und Gruppenarbeit würden so wenig in Frage gestellt wie offener Unterricht allgemein. Schulbücher seien weiterhin bunt und enthielten viele Bilder, Begriffe sollten nicht vorgegeben, sondern erarbeitet werden. Die Bezeichnung des Faches als “Mathematik” sei geblieben, eine Rückkehr zum alten Fach “Rechnen” habe nie ernsthaft zur Debatte gestanden.
Wir beenden diese Besprechung mit einigen interessanten Auszügen zur Geschichte der Reform, die sicherlich nicht nur dem Referenten so nicht bekannt waren.
]]>Ende 1973 und damit nach dem ersten abgeschlossenen Schuljahr, in dem die Reform in der Praxis implementiert worden war, ergriff eine wohl beispielsweise Protestwelle gegen die Neue Mathematik die Bundesrepublik. Dabei war die Reform des Mathematikunterrichts an den weiterführenden Schulen kein Thema, der Unmut richtete sich allein gegen die “Mengenlehre” in der Grundschule. […] Ein Jahr später waren sämtliche Massenmedien auf eine hysterische Debatte aufgesprungen, an der praktisch die gesamte Öffentlichkeit der Bundesrepublik Anteil nahm. Einen Eindruck von der Situation vermittelt Der Spiegel vom 25. März 1974, der der Reform unter der bemerkenswerten Schlagzeile “Macht Mengenlehre krank?” seine Titelseite widmete.
[…]
Neben den Anschaffungskosten für Material und der häufig geäußerten Sorge, eine Kürzung der Arithmetik zugunsten der neuen Inhalte würde unweigerlich zu schwächeren Rechenleistungen führen, war ein Argument, vermutlich ausgelöst durch fehlendes eigenes Verständnis der neuen mathematischen Inhalte, dass Eltern ihren Kindern nicht mehr bei den Hausaufgaben helfen konnten. Ob dies überhaupt in großem Umfang nötig war, bleibt indes unklar. In dem im Spiegel wiedergegebenen Zitat eines “Mengenlehre-Gegner[s], die Kinder [sehen] früh, zu früh, ihre Eltern hilflos und unwissend. Damit schwindet die Achtung, die Kinder können nicht mehr ihre Eltern fragen, deren Vorbild verblaßt” kommen jedoch tieferliegende gesellschaftliche Überzeugungen zum Ausdruck, die sich gegen die emanzipatorischen Ziele der Reform richten und in der öffentlichkeitswirksamen Verteufelung der “Mengenlehre” ein eher zufälliges Ventil finden. Wie hoch in jedem Fall das Informationsbedürfnis über das, was im Mathematikunterricht geschah, in der Elternschaft war, belegen der Erfolg speziell für Eltern geschriebener Bücher über die Neue Mathematik, die Tatsache dass entsprechende Volkshochschulkurse Anklang fanden und auch die 1974 eigens zum Thema vom Niedersächsischen Kultusministerium herausgegebenen Hilfen zur Durchführung von Elternabenden.
[…]
Der heute so absurd anmutende Spiegel-Titel war weder reine Ironie noch bewußte Provokation, sondern gab wieder, was einige Ärzte tatsächlich öffentlich kolportierten, dass nämlich die mit den neuen Inhalten einhergehende Überforderung – für die es ihrerseits keine Belege gibt – Kinder krank mache. Wie ernst diese Aussagen genommen wurden, wird deutlich angesichts der Tatsache, dass die Frage vermeintlicher Gesundheitsschädigung es bis in die Parlamente schaffte und bei einer Anhörung in Baden-Württemberg 1974 ein eigens eingeladener Kinderpsychologe beschwichtigen mußte.
[…]
Es verdient hier noch unbedingte Erwähnung, dass die Erwachsenen die Diskussion um die “Mengenlehre” unter sich ausmachten, während Grundschulkinder – und damit die Hauptabnehmer der Reform – nie systematisch zum Mathematikunterricht befragt wurden. Es finden sich jedoch diverse Quellen, die darauf hinweisen, dass die Kinder mitnichten überfordert waren, die neuen Inhalte viel schneller beherrschten als die Erwachsenen – mithin wohl auch häufig keiner Hausaufgabenhilfe bedurften – und generell Freude an ihrem Mathematikunterricht empfanden. Noch 1973 konstatierten 73 Prozent der betroffenen Eltern in Baden-Württemberg, der Unterricht mache ihren Kindern Spaß, während 18 Prozent angaben, ihre Kinder empfänden Widerwillen.
It’s really beautiful to observe, as you progress in your mathematical maturity, how everything is somehow connected.(Sylvia Serfaty in “The Beauty of Mathematics: It Can Never Lie to You”, Wired, März 2017)
Der International Congress of Mathematicians, der alle vier Jahre stattfindende Weltkongreß der Mathematiker, sollte 2022 bekanntlich vom 6.-14. Juli in St. Petersburg stattfinden, was wegen zahlreicher Boykottdrohungen letztlich nicht realisiert wurde. Weil sich so kurzfristig kein anderer Veranstaltungsort organisieren ließ, wurde der Kongreß dann im Internet veranstaltet, was zweifellos einen enormen organisatorischen Aufwand bedeutete. Ein positiver Effekt war, dass nun jeder kostenlos und ohne Reisekosten dort teilnehmen konnte, man mußte sich nur registrieren. Offensichtlich wollten das auch viele, die Teilnehmerzahl übertraf die Erwartungen: obwohl es keinen Anmeldeschluß gab, war die Anmeldung wegen der hohen Nachfrage bald geschlossen. Wer sich rechtzeitig angemeldet hatte, bekam seit dem Abend des 3. Juli die abgebildete Begrüßungsseite zu sehen. Eigentlich kam es dann aber nicht darauf an, angemeldet zu sein, weil die Vorträge auch auf YouTube übertragen und gespeichert wurden.
Tatsächlich hatten viele der Vorträge vor einem Life-Publikum stattgefunden, weil sich Vortragende zusammengetan hatten, um an einem Ort mit größerem Publikum jeweils ihre Vorträge zu halten. So fanden etwa Vorträge zu Zahlentheorie und algebraischer Geometrie in Zürich statt, Vorträge zu Geometrie, Topologie und verwandten Gebieten in Kopenhagen, Vorträge zu Dynamik in Jerusalem, zu Wahrscheinlichkeit und mathematischer Physik in Helsinki, zu angewandter Mathematik in London und zu Lie-Theorie in Singapur. Während des ICM wurden dann in der Regel die vorproduzierten Videos abgespielt, was den Vortragenden die (freilich kaum genutzte) Möglichkeit gab, während des Vortrags Fragen auf Discord zu beantworten.
In einigen Fällen hatten Vortragende mit großem Aufwand Videos an verschiedenen Orten produziert. Frank Calegari sieht man während seines Vortrages abwechselnd in der Bibliothek, an der Tafel und auf dem heimischen Sofa. Es muß viel Arbeit (vermutlich mehrerer Leute) gewesen sein, das alles zu produzieren und zu schneiden.
Calegari hatte schon am 27. Februar (also unmittelbar nach der Entscheidung für einen virtuellen ICM) auf seinem Blog „Persiflage“ gefragt: “What should a good ICM talk look like?”
So an ICM of zoom talks (on a St Petersburg schedule in the middle of the night in Chicago) does sound a little uninspiring. But what would be better? pre-recorded zoom lectures sound even worse. The idea of a polished video presentation has some appeal, but possibly it is also unrealistic. The sound and audio quality of a standard zoom lecture are OK if you are interested enough in the material, but I think one should expect a general ICM audience to be a little less forgiving. (Yes, plenty of people give terrible colloquia, but at least there are usually cookies.) And even with access to high quality audio and video, is it just going to be someone standing in front of their blackboard?
Während die Antworten im Blog nicht sehr ergiebig waren, hat er aber offenbar genug Ideen gehabt, um ein sehr ansprechendes Video zu produzieren, mit wechselndem Hintergrund und streckenweise unterlegt mit dramatisierender klassischer Musik. Das Resultat kann man auf https://youtu.be/L0Z4Ng6ZJbY ansehen. In nur 45 Minuten erhält man eine Einführung in die Entwicklungen der algebraischen Zahlentheorie der letzten 30 Jahre seit dem Beweis von Fermats letztem Theorem.
In den Tagen vor dem Kongreß fand in Helsinki die Generalversammlung der Internationalen Mathematischen Vereinigung statt. Sie entschied, dass der nächste ICM 2026 in Philadelphia, USA stattfinden soll. Der in New York ansässige Blog “Not even wrong” kommentierte:
With the 2022 experience in mind, hopefully the IMU will for next time have prepared a plan for what to do in case they again end up having a host country with a collapsed democracy being run by a dangerous autocrat.
Über die bis zum Kongreß geheimgehaltenen Gewinner der Fields-Medaillen wird immer schon Jahre zuvor auf verschiedenen Internetseiten spekuliert, insbesondere auf der Seite Economics Job Market Rumors, wo die Diskussion über mögliche Kandidaten für 2022 letztlich auf mehr als 1800 anonyme Beiträge angewachsen war, die oft erstaunliche Insider-Kenntnisse aus der Mathematik verrieten. Jedenfalls waren in diesem Jahr die meistgenannten Namen dann auch die tatsächlich in Helsinki verkündeten Preisträger: Maryna Viazovska für die Optimalität gewisser Kugelpackungen im 8- und 24-dimensionalen Raum (zweiteres mit Koautoren) und in weiteren Arbeiten (mit Koautoren) Grundlagen der harmonischen Analysis, von denen man sich noch viele Anwendungen erwartet, James Maynard für Verbesserungen der Abschätzungen für Primzahllücken und (mit Koukoulopoulos) den Beweis der Duffin-Schaeffer-Vermutung aus der diophantischen Approximation, Hugo Duminil-Copin für zahlreiche tiefe Sätze der Perkolationstheorie und über Gittermodelle der mathematischen Physik, und June Huh (der übrigens anders als in der medialen Berichterstattung korrekterweise Jun-i Ho mit kurzem “o” am Ende auszusprechen ist) für den Beweis der Unimodalität des chromatischen Polynoms von Graphen und (mit Koautoren) zahlreicher weiterer kombinatorischer Vermutungen.
Die Graphentheorie entwickelte sich seit Ende des 19. Jahrhunderts aus dem klassischen Vier-Farben-Problem. Dieses ist ein spezieller Fall des allgemeinen Problems, die Knoten eines Graphen so zu färben, dass durch eine Kante verbundene Knoten jeweils mit unterschiedlichen Farben eingefärbt sind. Die Anzahl der Möglichkeiten, einen gegebenen Graphen G so mit n Farben zu färben, bezeichnet man mit . Das Vier-Farben-Problem ist also äquivalent zu der Frage, ob
für alle ebenen Graphen G gilt.
George Birkhoff gab 1912 ein rekursives Verfahren zur Berechnung von : für einen Graphen G und eine Kante e seien G-e und G/e die Graphen, die man durch Entfernen bzw. Kontraktion der Kante e bekommt, dann ist
.
Mit dieser Formel kann man rekursiv berechnen und man kann per Induktion beweisen, dass
ein Polynom in n ist, sein Grad ist die Anzahl der Knoten von G. Man nennt es das “chromatische Polynom” des Graphen. Birkhoff hoffte, mit Methoden zur Nullstellenbestimmung von Polynomen letztlich auch das Vier-Farben-Problem lösen zu können, was sich nicht erfüllte.
Das chromatische Polynom des oben abgebildeten Petersen-Graphen ist
.
Beim Betrachten dieses Polynoms fallen zwei Dinge auf:
– die Vorzeichen alternieren,
– die Folge der Koeffizienten wächst zunächst (in diesem Fall bis zum Koeffizienten von , bei anderen Graphen bis zu einer anderen Potenz) und fällt dann.
Folgen mit der zweiten Eigenschaft nennt man unimodal.
Berechnet man charakteristische Polynome weiterer Graphen, so wird man feststellen, dass sie alle diese Eigenschaften haben. Zum Beispiel hat der vollständige Graph auf fünf Knoten das chromatische Polynom
oder der bipartite Graph
das chromatische Polynom
Tatsächlich kann man die alternierenden Vorzeichen der Koeffizienten leicht per Induktion aus der Rekursionsformel beweisen. Dagegen war die zweite Eigenschaft, die Unimodalität der chromatischen Polynome von Graphen, eine seit 1968 offene Vermutung von Read. Beweisen wurde sie 2010 von June Huh, und zwar überraschenderweise mit Hilfe von Erkenntnissen aus der Singularitätentheorie, einem Teilgebiet der algebraischen Geometrie.
Die algebraische Geometrie kommt so ins Spiel: zu einem Graphen mit K Knoten betrachtet man ein Hyperebenenarrangement im : wenn der i-te und j-te Knoten durch eine Kante verbunden sind, soll die Hyperebene
zum Arrangement gehören.
Das chromatische Polynom des ursprünglichen Graphen läßt sich aus der Topologie des Hyperebenen-Komplements berechnen. Sei das Polynom, welches man als Produkt der obigen Linearfaktoren
erhält. Dann ist
das Komplement des Hyperebenenarrangements. Seien
seine Betti-Zahlen, also die Dimensionen der i-ten Homologiegruppen. Aus einem Satz von Orlik-Solomon folgt, dass
das chromatische Polynom des Graphen G ist.
Huh bewies dann, dass die Bettizahlen sich mittels Singularitätentheorie berechnen lassen. Allgemein sei h ein homogenes Polynom, welches ein Produkt aus linearen Faktoren ist (hier aus den
), dann kann man
mittels Morse-Theorie berechnen und als Ergebnis erhält man die i-te Milnor-Zahl
der Singularität, die das Polynom h im Nullpunkt hat. Diese ergibt sich rein algebraisch wie folgt. Betrachte die Ideale
, dann ist die Dimension von
eine (polynomielle) Funktion in u und v und man erhält
als
mal den Koeffizienten von
in
.
Und schließlich bewies er, dass (unter gewissen Voraussetzungen, die durch die spezielle Wahl der Polynome h hier erfüllt sind) die Milnor-Zahlen eine unimodale Folge bilden, woraus sich dann ergibt, dass auch die Koeffizienten des chromatischen Polynoms eine unimodale Folge bilden. (Dieser Beweis benutzte wiederum, dass die Milnor-Zahlen mit gewissen gemischten Volumina aus der Konvexgeometrie übereinstimmen, deren Unimodalität bekannt war.)
Zweifellos eine überraschende Anwendung der algebraischen Geometrie in der Graphentheorie.
In einer 2018 in den Annals of Mathematics erschienenen Arbeit von Adiprasito, Huh und Katz wurde dann gezeigt, dass dies ein Spezialfall eines allgemeineren Phänomens ist und allgemein für die charakteristischen Polynome sogenannter Matroide gilt. Hinter diesem allgemeinen Resultat steckt eine Struktur, die in allen möglichen Zusammenhängen in der Mathematik vorkommt und damit für viele in unterschiedlichen Zusammenhängen vorkommende unimodale Polynome verantwortlich ist: die sogenannten Lefschetz-Pakete.
Seit den 40er Jahren galten die Weil-Vermutungen als die größte offene Frage der algebraischen Geometrie. Sie besagen, dass man die Anzahl der Lösungen einer polynomiellen Gleichung modulo einer Primzahlpotenz bestimmen kann, wenn man die algebraische Topologie derselben Gleichung über den komplexen Zahlen (d.h. die Betti-Zahlen der entsprechenden Varietät im
) kennt. Zum Beispiel ist es nicht einfach die Anzahl der Lösungen von
modulo einer Primzahlpotenz zu berechnen. Über den komplexen Zahlen ist diese Kurve in der projektiven Ebene aber einfach ein Torus. Die Betti-Zahlen sind
. Mit den Weil-Vermutungen bekommt man dann zum Beispiel 9 Lösungen modulo 7, 63 Lösungen modulo 72, 324 Lösungen modulo 73 und eine allgemeine Formel für die Anzahl der Lösungen modulo
.
Alexander Grothendieck erkannte 1968, dass man die Weil-Vermutungen herleiten könnte, wenn es es eine Struktur aus Poincaré-Dualität, schwerem Lefschetz-Satz und Hodge-Riemann-Relationen auch auf den Chow-Gruppen (den Gruppen algebraischer Zykel modulo homologischer Äquivalenz in einer algebraischen Varietät) gibt. Die vermutete Existenz dieser Strukturen wurde dann als Standardvermutungen bekannt.
Alexander Grothendiecks Zugang zur Mathematik war der eines Theoriebauers statt eines Problemlösers. Auch an den Weil-Vermutungen interessierte ihn nicht das schwere und berühmte Problem, sondern die zu suchende dahinterliegende versteckte Struktur.
Erich Kähler hatte Anfang der 30er Jahre die Differentialgeometrie mit den Arbeiten der italienischen Schule zur algebraischen Geometrie verbinden wollen und in diesem Zusammenhang auf komplexen Mannigfaltigkeiten Riemannsche Metriken betrachtet, für die eine geschlossene 2-Form ist. Dies ist insbesondere für die Fubini-Study-Metrik auf Untermannigfaltigkeiten des
der Fall, also auch für glatte projektive Varietäten. Für solche “Kähler-Mannigfaltigkeiten” funktioniert die von Lefschetz in den 20er Jahren für das Studium der Topologie algebraischer Variet\”aten entwickelte Maschinerie. In der Sprache der deRham-Kohomologie kann man sie so formulieren, dass für jedes k (und d die Dimension der Mannigfaltigkeit) das Cup-Produkt mit
einen Isomorphismus
gibt (“schwerer Satz von Lefschetz”), und man zusammen mit der Poincaré-Dualität
eine symmetrische Paarung
erhält, die auf dem Kern von
positiv definit ist. Ausgerechnet gibt diese positive Definitheit die sogenannten Hodge-Riemann-Relationen, die in der komplexen und algebraischen Geometrie an vielen Stellen verwendet werden. Spezieller hat man diese Strukturen dann auch auf der Dolbeault-Kohomologie
.
Kähler hatte Ende der 50er Jahre auch versucht, Zahlentheorie und Geometrie zusammenbringen, indem er Varietäten über lokalen Ringen statt nur über Körpern betrachtete. Nach dem Erscheinen von Grothendiecks Arbeiten verfolgte er dieses Programm aber nicht weiter. Die Geometrie von Kähler-Mannigfaltigkeiten wurde jedoch zu einem wichtigen Ideengeber für die algebraische Geometrie. Die ursprünglich von Hodge für Kähler-Mannigfaltigkeiten entwickelte Theorie harmonischer Formen ließ sich durch Hironakas Auflösung der Singularitäten auch auf projektive Varietäten mit Singularitäten übertragen, was zu Delignes Theorie der gemischten Hodge-Strukturen führte. In einer anderen Richtung entwickelten Goresky und MacPherson eine sogenannte Schnittkohomologie für projektive Varietäten (mit Singularitäten), für die man analog zur Dolbeault-Kohomologie von Kähler-Mannigfaltigkeiten ebenfalls Poincaré-Dualität, den schweren Lefschetz-Satz und die Hodge-Riemann-Relationen hat.
Mit den Standardvermutungen soll es ein solches Lefschetz-Paket dann auch auf den Chow-Gruppen algebraischer Varietäten geben. Damit wollte Grothendieck insbesondere zeigen, dass seine Kategorie der reinen Motive eine halbeinfache abelsche Kategorie ist und eine universelle Kohomologietheorie für Schemata gibt. Die Weil-Vermutungen ergäben sich daraus als Anwendung.
Während für die Gültigkeit von Grothendiecks Standardvermutungen heute nicht viel mehr Fälle bekannt sind als 1968 (abelsche Varietäten, Fahnenvarietäten, verschiedene spezielle Beispiele), wurden die Weil-Vermutungen 1974 von Deligne bewiesen. Er benutzte statt der Standardvermutungen explizitere Methoden der Zahlentheorie wie Modulformen und neben den Methoden aus Grothendiecks Eléments de Géométrie Algébrique noch zahlreiche andere Ingredienzien wie einen von Kazhdan und Margulis bewiesenen Satz über die Monodromiegruppen von Lefschetz-Büscheln, eine Methode Rankins für Abschätzungen von Ramanujans Tau-Funktion, Arbeiten Grothendiecks über gewisse L-Funktionen, die klassische Invariantentheorie der symplektischen Gruppen, Spektralsequenzen und einen Trick, der mit Tensorpotenzen Abschätzungen beweist. Grothendieck beschwerte sich später in Récoltes et Semailles bitterlich, dass seine Arbeit von seinen Schülern nicht fortgesetzt worden sei und diese die Schwierigkeiten einfach “umgangen” hätten.
Der New Yorker hatte im Mai einen Artikel “The Mysterious Disappearance of a Revolutionary Mathematician” von Rivka Galchen über Alexander Grothendieck. Mit zahlreichen Vergleichen, Geschichten und Veranschaulichungen wurde versucht, auch dem Laien das Revolutionäre an Grothendiecks Mathematik nahezubringen ohne in irgendwelche mathematischen Details zu gehen. Beispielsweise wurde sein funktorieller Zugang zur Mathematik mit einem Zitat von Angela Gibney so beschrieben
If you want to know about people, you don’t just look at them individually – you look at them at a family reunion.
Bereits im Januar war (nach mehr als 35 Jahren) Grothendiecks 1500-seitiges Spätwerk “Récoltes et Semailles” bei Gallimard erschienen, ein Buch über philosophische und das Überleben der Menschheit betreffende Fragen und auch über Mathematik und Mathematiker. Grothendieck beschreibt in diesem Buch seinen Weg und beklagt sich, dass Studenten und Kollegen seine Arbeit nicht fortgeführt, sondern mathematische Probleme auf andere Weise gelöst hätten.
Zum Verständnis hilft es vielleicht, Teile der veröffentlichten Korrespondenz Grothendieck-Serre zu lesen. Die letzten Briefe dieser Korrespondenz datieren von 1986/87 und Serre schreibt dort (meine Übersetzung)
Irgendwo beschreibst Du Deinen Zugang zur Mathematik, bei dem man ein Problem nicht frontal angeht, sondern es in eine sanft ansteigende Flut (“Rising Tide”) allgemeiner Theorien einhüllt und so aufweicht. Sehr gut: Das ist Deine Arbeitsweise, und was Du getan hast, beweist, dass es tatsächlich funktioniert. Für topologische Vektorräume oder algebraische Geometrie zumindest . . . Es ist nicht so offensichtlich für die Zahlentheorie (bei der die beteiligten Strukturen alles andere als offensichtlich sind – oder vielmehr, bei der alle möglichen Strukturen involviert sind); Ich habe den gleichen Vorbehalt für die Theorie der Modulformen, die sichtbar reicher ist als ihr einfacher „Lie-Gruppen“-Aspekt oder ihr „algebraische Geometrie-Modulschemata”-Aspekt. Deshalb diese Frage: Hast Du in Wirklichkeit nicht zwischen 1968 und 1970 festgestellt, dass die „Rising Tide“-Methode gegen diese Art von Fragen machtlos war und dass ein anderer Stil erforderlich gewesen wäre – den Du nicht mochtest?
Die Veröffentlichung von “Récoltes et Semailles” war Anlaß für eine Sendung von France Culture mit Laurent Lafforgue und zwei weiteren Mathematikern (Olivia Caramello und Alain Connes). Neben Grothendieck und seinem Buch war auch die Topos-Theorie Thema dieser Sendung. In der Topos-Theorie geht es grob gesagt darum, den Begriff des topologischen Raumes durch einen allgemeineren kategorientheoretischen Begriff zu ersetzen.
Laurent Lafforgue war seit 2000 einer von sechs Professoren am Institut des Hautes Études Scientifiques, dem wohl wichtigsten französischen Forschungsinstitut für Mathematik und Theoretische Physik. 2002 erhielt er die Fields-Medaille für seinen Beweis der Langlands-Korrespondenz im Funktionenkörper-Fall. In den Jahren danach engagierte er sich für eine Erneuerung (“refondation”) des Schulwesens (mehr klassische Sprachen, weniger Naturwissenschaften), war auch kurzzeitig Mitglied im Haut conseil de l’éducation, sowie seit 2013 mit einer Buchveröffentlichung für eine “rationale und rigorose” Analyse des Ukraine-Konflikts. Daneben hat er in den letzten zwanzig Jahren auch noch einige mathematische Arbeiten geschrieben, die aber nicht mehr die Rezeption seiner früheren Arbeiten erhielten. Seine letzte, 2019 erschienene Arbeit mit Olivia Caramello benutzt den Rahmen der Topos-Theorie zur Konstruktion “topologischer Galois-Theorien”, d.h. topos-theoretischer Verallgemeinerungen der klassischen Korrespondenz zwischen Körpererweiterungen und abgeschlossenen Untergruppen der Galois-Gruppe. Seit 2019 wurde sein Lehrstuhl von Huawei gesponsort, 2021 verließ er das IHÉS, um ganz bei Huawei Technologies France zu arbeiten.
In den letzten zehn Minuten der Sendung bei France Culture ging es um eine “Feindseligkeit” der Mathematiker gegenüber der Topos-Theorie. Caramello meint, dass viele Spezialisten Angst davor hätten, dass Probleme ihrer Spezialitäten mit fremden Methoden gelöst werden könnten. (Sie spricht von Ostrazismus.) Ein Mathematiker hätte nach einem ihrer Vorträge mehrere Stunden nach einem Gegenbeispiel gesucht, weil er ihre Verallgemeinerung eines bekannten Satzes nicht hatte glauben wollen. Auch Lafforgue spricht von einer sehr großen Feindseligkeit gegenüber seinen Arbeiten zur Topos-Theorie. Dagegen habe er zu seiner größten Überraschung bei den Ingenieuren von Huawei sehr viel offenere Ohren gefunden. Dort bei den Verantwortlichen der Forschungsabteilung von Huawei glaube man daran, dass die Topos-Theorie für die Entwicklung einer künstlichen Intelligenz wesentlich werden könnte. Nun ja.
One may seek unity in mathematics through the eyes of cohomology. Let X be a mathematical object of “dimension” d. The object may be analytic, arithmetic, geometric, or combinatorial, and the precise notion of dimension will depend on the context. Curiously, often it is possible to construct from in a natural way a graded real vector space
. The new object A(X) called the cohomology of X, often encodes essential information on X. When two objects X and Y of the same kind are related in a particular way, the relationship is often reflected on their cohomologies A(X) and A(Y), and this property can be exploited to extend our understanding. Primary consumers of this viewpoint so far were topologists and geometers, and a great number of triumphs in topology and geometry are based on a construction of A(X) from X. Interestingly, sometimes, satisfactory and equally useful cohomologies exist even when X does not have a geometric structure in the conventional sense. In particular, when X is a matroid, the study of A(X) led to proofs of a few combinatorial conjectures that were beyond reach with traditional methods.
There are a few pieces of evidence for the unity in the above context. The list is short, but the pattern is remarkable. For example, A(X) can be the ring of algebraic cycles modulo homological equivalence on a smooth projective variety, the combinatorial cohomology of a convex polytope, the Soergel bimodule of a Coxeter group element, the Chow ring of a matroid, the conormal Chow ring of a matroid, or the intersection cohomology of a matroid. (Einleitung zu Huhs ICM-Vortrag.)
Während die Standard-Vermutungen über die Existenz von “Lefschetz-Paketen” auf dem Vektorraum algebraischer Zykel (und damit die Grundlegung für Grothendiecks Theorie der Motive) weiterhin offen sind, hat man (wie im obigen Zitat dargestellt) solche Pakete mit Poincaré-Dualität, schwerem Lefschetz-Satz und Hodge-Riemann-Relationen aber in verschiedenen anderen mathematischen Strukturen gefunden. Die bemerkenswertesten Beispiele sind vielleicht die Arbeiten von Elias und Williamson, die solche Strukturen in der Darstellungstheorie finden, und die erwähnte Arbeit von Adiprasito, Huh und Katz, die solche Strukturen in der Theorie der Matroide findet.
Diese Strukturen sind dann wiederum verantwortlich dafür, dass unimodale Polynome in vielen unterschiedlichen Gebieten der Mathematik vorkommen. Grob gesagt folgt aus den Hodge-Riemann-Relationen die Positivität gewisser Determinanten, also Ungleichungen der Form . (Folgen mit dieser Eigenschaft nennt man log-konkav.) Eine Folge von Null verschiedener Zahlen, die diese Ungleichung für alle i erfüllt, ist unimodal.
In der geometrischen Darstellungstheorie sind die Soergelschen Bimoduln eine zentrale Struktur. Die Soergelschen Bimoduln eines Coxeter-Systems bilden eine monoidale Kategorie, deren Grothendieck-Gruppe mit der Hecke-Algebra übereinstimmt. Elias und Williamson zeigten 2014 die Existenz eines Lefschetz-Pakets auf den Soergelschen Bimoduln und bewiesen damit eine Vermutung Soergels über die Existenz unzerlegbarer Bimoduln, deren Klassen der Kazhdan-Lusztig-Basis in der Hecke-Algebra entsprechen. Daraus folgt die Positivität der Koeffizienten der Kazhdan-Lusztig-Polynome sowie ein algebraischer Beweis der zuvor von Beilinson-Bernstein, Brylinski-Kashiwara und später Soergel mit anderen Methoden bewiesenen Kazhdan-Lusztig-Vermutung, einer Charakterformel für Darstellungen höchsten Gewichts. Man bekommt auch die Unimodalität der Strukturkonstanten der Kazhdan-Lusztig-Basis für die Hecke-Algebra.
Wenn das Coxeter-System von einer halbeinfachen Lie-Gruppe kommt, entsprechen die Soergelschen Bimoduln der äquivarianten Schnittkohomologie der zugehörigen Schubert-Varietät und das Lefschetz-Paket entspricht der klassischen Hodge-Theorie. Eine andere Situation, wo man ein Analogon zur Hodge-Theorie hat, ist die kombinatorische Schnittkohomologie von Polytopen, das ist die Schnittkohomologie der zum Polytop zugeordneten torischen Varietät. Die klassischen Dehn-Sommerville-Gleichungen für die Anzahlen d-dimensionaler Seiten des Polytops wurden hier von Stanley mittels Poincaré-Dualit\”at interpretiert. Für diese Schnittkohomologie bewies Peter McMullen 1993 die Existenz von Lefschetz-Paketen und vereinfachte damit Stanleys Beweis der g-Vermutung. (Die g-Vermutung formuliert Bedingungen für den f-Vektor, also den Vektor aus den Anzahlen d-dimensionaler Seiten eines Polytops für d=0,1,,…, für polytopale Sphären.) In ihrer allgemeinen Form für simpliziale Sphären (und sogar Homologiesphären) wurde die g-Vermutung Ende 2018 von Adiprasito bewiesen, wobei er für den Beweis des schweren Lefschetz-Satzes die Hodge-Riemann-Relationen durch eine noch stärkere Bedingung (Hall-Laman-Relationen) ersetzen mußte. Eine Anwendung war der Beweis der Grünbaum-Kalai-Sarkaria-Vermutung, die für den f-Vektor eines d-dimensionalen Simplizialkomplexes die Ungleichung
behauptete.
In der Konvexgeometrie kennt man seit dem Ende des 19. Jahrhunderts die Brunn-Minkowski-Ungleichung für das Volumen von Minkowski-Summen und als weitreichende Verallgemeinerung die Alexandrow-Fenchel-Ungleichungen, deren Beweis von 1938 einen elementaren Fall von Hodge-Riemann-Relationen verwendet. Aus den Alexandrow-Fenchel-Ungleichungen folgt, dass die gemischten Volumina konvexer Körper eine log-konkave (und damit unimodale) Folge bilden. Stanley hatte das in den 1980er Jahren benutzt, um die Log-Konkavität von in der Kombinatorik vorkommenden Folgen zu beweisen. Das kann man als Vorläufer der Arbeit von Huh sehen, die die Log-Konkavität des chromatischen Polynoms von Graphen auf die Alexandrow-Fenchel-Ungleichungen für die gemischten Volumina zugeordneter Gitterpolytope zurückführt. Es war dann die Erkenntnis von Adiprasito, dass man für den Beweis neben den Hodge-Riemann-Relationen auch kombinatorische Versionen des schweren Lefschetz-Satzes und der Poincaré-Dualität formulieren sollte, also ein Analogon des Lefschetz-Pakets, und dass ein kombinatorischer Beweis von McMullens schwerem Lefschetz-Satz alle drei Eigenschaften beweisen und sich auf Matroide übertragen lassen sollte. (Mit einem ähnlichen Ansatz bewies Adiprasito dann auch die g-Vermutung.)
Diesen kombinatorisch formulierten schweren Lefschetz-Satz und die Hodge-Riemann-Relationen für Matroide bewiesen Adiprasito, Huh und Katz dann mit rein kombinatorischen Methoden, ohne noch (wie in Huhs Beweis der Unimodalität des chromatischen Polynoms) Bezug auf zu den Matroiden assoziierte Objekte der algebraischen Geometrie zu nehmen. Sie betrachteten Ordnungsfilter von Teilmengen eines Matroids und definierten einen „Flip“, mit dem sie den trivialen Fall des leeren Filters induktiv mit größeren Filtern in Beziehung setzen konnten. Damit konnten sie die Koeffizienten des charakteristischen Polynoms als Produkte von Klassen im Chow-Ring interpretieren und so den schweren Lefschetz-Satz und die Hodge-Riemann-Relationen beweisen – rein kombinatorisch, ohne Rückgriff auf Objekte der algebraischen Geometrie.
Es gibt unimodale Polynome noch in vielen weiteren Bereichen der Mathematik, wo es noch keine Erklärung (und keinen Beweis) für die Unimodalität gibt. Zum Beispiel hat Stoimenow vermutet, dass das Alexanderpolynom alternierender Knoten unimodal ist. Vielleicht gibt es also Analoga zu Grothendiecks Standardvermutungen noch sehr viel allgemeiner in aller möglichen Mathematik – irgendeine Metastruktur, die sich dann auf völlig verschiedene mathematische Strukturen anwenden ließe.
]]>My speciality as a theoretical physicist is in string theory and supersymmetric field theories; both very abstract topics with closer connections to pure mathematics than to any observable phenomena. As such it is hard to communicate my research to audiences outside my subfield, which is where my hobby of ceramics comes in.
So beginnt die am Freitag auf dem ArXiv erschienene Arbeit Cutting and Sewing Riemann Surfaces in Mathematics, Physics and Clay von Nadav Drukker. („Clay“ hat nichts mit dem Clay Institute zu tun, sondern ist das englische Wort für Ton.)
In der Arbeit werden dann verschiedene Flächen vorgestellt, zum Beispiel die oben abgebildete aus drei Hosen zusammengesetzte fünffach punktierte Sphäre. Das Bild unten zeigt die drei Einzelteile.
Link zum Paper
Bei einem solch abstrakten Thema wie der Funktionalanalysis ist eine bildliche Darstellung natürlich schwierig. Mit Zahlen, wie es das heutige Doodle nahelegt, hatte Banach jedenfalls in seiner Arbeit nicht zu tun. Ich wüßte aber auch keine gute Veranschaulichung zu Banach-Räumen oder Banachs bekannten Sätzen (neben dem Fixpunktsatz vor allem der Fortsetzungssatz von Hahn-Banach, der als Satz von Banach-Steinhaus bekannte Satz von der gleichmäßigen Beschränktheit, der als Satz von Banach-Schauder bekannte Satz von der offenen Abbildung und der Satz vom abgeschlossenen Graphen.)
Anlaß für das heutige Doodle ist Banachs Ernennung zum Professor am 22. Juli 1922.
Banach hatte nie offiziell Mathematik studiert und keine Prüfungen abgelegt, den Doktortitel erhielt er in Lwów 1922 auf Grund seiner Dissertation ohne Examen. Seine Dissertation gab die Definition und die grundlegenden Sätze der Banachraum-Theorie, deren Beweise dank der Linearität der Operatoren erstaunlich einfach waren. Wenige Monate nach seiner Promotion beschloß der Abteilungsrat der Jan-Kazimierz-Universität seine Habilitation und ernannte ihn drei Wochen später am 22. Juli zum außerplanmäßigen Professor. Ordentlicher Professor wurde er dort 1927.
Zum Ukrainekrieg hatte der Blog im Mai einen Artikel “In memoriam Yulia Zdanovska” von Agnes Handwerk, wo unter der (weiter unten in diesem Beitrag abgebildeten) Zeichnung von Constanza Rojas-Molino der folgende Text zu lesen war.
„Wir sehen mit Bitterkeit, dass unser Land, das einen entscheidenden Beitrag zum Sieg über den Nationalsozialismus geleistet hat, nun zum Anstifter eines neuen Krieges auf dem europäischen Kontinent geworden ist. Wir fordern die sofortige Einstellung aller Militäraktionen gegen die Ukraine. Wir fordern die Achtung der Souveränität und territorialen Integrität des ukrainischen Staates. Wir fordern Frieden für unsere Länder. Lassen Sie uns Wissenschaft betreiben, nicht Krieg!“ (https://t-invariant.org/en/). Diese Resolution haben bisher über achthundert russische Wissenschaftlerinnen und Wissenschaftler unterzeichnet. Eine verschwindende Minderheit. Aber sie beziehen mutig Position gegen ein Schweigen über die Grausamkeit dieses Krieges. Wie lange hat die Wissenschaft gebraucht, die Folgen des Zweiten Weltkriegs und die Grenzen zwischen Ost und West zu überwinden! Während des Kalten Krieges konnten Mathematikerinnen und Mathematiker aus Ost und West nur selten z.B. am Mathematischen Forschungsinstitut Oberwolfach zusammenkommen. Über Jahrzehnte hat der Mathematiker Friedrich Hirzebruch mit großem Engagement und Ausdauer den Austausch zwischen Ost und West in Gang gebracht und nach dem Fall der Mauer viele russische und ukrainische Mathematikerinnen und Mathematiker an das Max-Planck-Institut für Mathematik nach Bonn geholt.
Jetzt entstehen mit diesem Krieg, den der russische Präsident Putin gegen die Ukraine führt, wieder schwer überwindbare Fronten. Wenige Tage nach dem Angriff auf die Ukraine wurde in Charkiw die junge Mathematikerin Yulia Zdanovska von einer russischen Rakete tödlich getroffen. 2017 hatte sie an der European Girls’ Mathematical Olympiad in Zürich teilgenommen und die Silbermedaille gewonnen. Es gibt ein Bild von ihr: Ein Mädchen mit rötlichem vollen Haar, hinten zusammengebunden. Das letzte Bild: Eine junge Frau, die sich für die Mathematik einsetzte und sich bei „Ukraine4teach“ engagierte. Jetzt gilt sie aus ukrainischer Sicht als Heldin. So steht es in einem Nachruf der ukrainischen Mathematikerin Yuliia Kravchenko und dem EGMO Board: „Als der Krieg begann, entschied sich Yuliia, in Charkiw zu bleiben und zu helfen, weil dies ihre Heimatstadt war. Sie sagte: „Ich bleibe in Charkiw, bis wir gewinnen“. Ehre den Helden! Für immer vermisst, für immer in unseren Herzen…“. Yuliia Zdanovska ist mit 21 Jahren diesem Krieg zum Opfer gefallen. Es gibt keine Worte für diese Grausamkeit. Aber warum soll ausgerechnet der Krieg sie zur Heldin machen?
Auf dem ECM in Berlin 2016 waren ukrainische Mathematikerinnen sehr zahlreich vertreten. In Gesprächen schwang eine Art Nationalstolz mit, der befremdlich wirkte auf einem Kongress, der ausgerichtet war auf die Zusammenarbeit über nationale Grenzen hinweg. Aber mit diesem Krieg entstehen in der Wissenschaft erst recht neue Fronten. Wie lange wirkte der Zweite Weltkrieg nach! Der französische Mathematiker Marc Yor erzählte, dass er seinem Vater, einst Gefangener der Deutschen Wehrmacht im Zweiten Weltkrieg, noch in den 1970er Jahren nicht vermitteln konnte, dass er die Einladung zu einer Tagung am Mathematischen Forschungsinstitut Oberwolfach angenommen hatte. Der Mathematik wegen nach Deutschland, das bedeutet dreißig Jahre nach Kriegsende für den Vater noch immer Verrat.
Im diese Woche erschienenen Heft 2/2022 der “Mitteilungen” wurde daraus nun der folgende Artikel.
Wer findet 7 Unterschiede zwischen den beiden Artikeln?
]]>Wenn man den linken Weg wählt und im Alter von 18 Jahren eine höhere Ausbildung (5 Jahre) oder eine Berufsausbildung (3 Jahre) beginnt, muß man 100.000 Rubel Studiengebühren bezahlen, geht im Alter von 23 Jahren auf Arbeitssuche, hat ein durchschnittliches Einkommen von 20.000 Rubel, muß eine Wohnung mieten oder eine Hypothek aufnehmen (15.000 Rubel 20 Jahre lang) und hat für Urlaub, Kleidung und Medikamente Ausgaben von 50.000 Rubel. Mit 39 sieht man aus wie der Typ im Unterhemd mit der Bierflasche in der Hand.
Wenn man hingegen mit 18 zur Armee geht, bekommt man mit 19 einen Dreijahresvertrag, mit 22 einen Vertrag für 3, 5 oder 10 Jahre und hat mit 39 ein Haus, eine Veteranenrente von 15.000 Rubel im Monat, hat bisher etwa 9 Millionen Rubel verdient und wird eine gute Stelle im Staatsdienst bekommen. (Und der älteste Sohn trägt auch schon wieder eine Kadettenuniform.)
]]>In der Regel sind die Videos vorproduziert (oft vor einem Life-Publikum einige Tage zuvor), so dass die Vortragenden während des Vortrags Zeit haben, Fragen auf Discord zu beantworten. In einigen Fällen haben Vortragende mit großem Aufwand Videos an verschiedenen Orten produziert. Frank Calegari sieht man während seines Vortrages abwechseln in der Bibliothek, an der Tafel und auf dem heimischen Sofa. Es muß viel Arbeit (vermutlich mehrerer Leute) gewesen sein, das alles zu produzieren und zu schneiden.
Calegari hatte tatsächlich schon am 27. Februar (also unmittelbar nach der Entscheidung für einen virtuellen ICM) auf seinem Blog „Persiflage“ gefragt: What should a good ICM talk look like?
So an ICM of zoom talks (on a St Petersburg schedule in the middle of the night in Chicago) does sound a little uninspiring. But what would be better? pre-recorded zoom lectures sound even worse. The idea of a polished video presentation has some appeal, but possibly it is also unrealistic. The sound and audio quality of a standard zoom lecture are OK if you are interested enough in the material, but I think one should expect a general ICM audience to be a little less forgiving. (Yes, plenty of people give terrible colloquia, but at least there are usually cookies.) And even with access to high quality audio and video, is it just going to be someone standing in front of their blackboard?
Während die Antworten dort nicht sehr ergiebig waren, hat er aber offenbar letztlich genug Ideen gehabt, um ein sehr ansprechendes Video zu produzieren, an unterschiedlichen Orten und teilweise unterlegt mit dramatisierender klassischer Musik. Das Resultat kann man hier ansehen:
In nur 45 Minuten erhält man eine Einführung in die Entwicklungen der algebraischen Zahlentheorie seit dem Beweis von Fermats letztem Theorem. Natürlich werden alle Themen nur kurz angerissen und man müßte sich dann weiter einlesen. Aber jedenfalls ist es bemerkenswert, wie man so viele grundlegende Ideen in solch einem kurzen Vortrag vermitteln kann.
]]>Hugo Duminil-Copin, geboren 1985 in Frankreich, promovierte 2011 in Genf und ist seit 2016 Professor am IHES im Pariser Vorort Bures-sur-Yvette, außerdem seit 2014 Professor in Genf.
In der Arbeit „ Marginal triviality of the scaling limits of critical 4D Ising and φ44 models“ (mit M. Aizenman) bewies er, dass das Skalierungslimit des 4-dimensionalen Ising-Modells nahe des kritischen Punktes eine Gauß-Verteilung ist.
June Huh, geboren 1983 als Sohn koreanischer Eltern in den USA, promovierte 2014 in Michigan und ist seit 2021 Professor in Princeton, zuvor 2020-21 Professor in Stanford, außerdem ist er Distinguished Professor am KIAS in Seoul.
In der Arbeit “Milnor numbers of projective hypersurfaces and the chromatic polynomial of graphs“ bewies er, dass die chromatischen Polynome von Graphen unimodal sind, d.h. die Beträge der Koeffizienten wachsen monoton bis zu einem Maximum und fallen dann monoton.
James Maynard, geboren 1987 in England, promovierte 2013 in Oxford, wo er seit 2017 Research Professor ist.
In der Arbeit „Small gaps between primes“ bewies er, dass für die Folge der Primzahlen pn der Limes inferior der Differenzenfolge pn+1-pn kleiner als 600 ist.
Maryna Viazovska, geboren 1984 in der Ukraine, promovierte 2013 in Bonn und ist seit 2018 Professorin an der EPF in Lausanne.
In der Arbeit „The sphere packing problem in dimension 8“ hat sie bewiesen, dass die Gitterpackung zum Gitter E8 die dichteste Kugelpackung im 8-dimensionalen Raum ist.
Nachtrag: Die Videos zu den Preisträgern
Immerhin kann man damit nun teilnehmen ohne sich räumlich fortbewegen zu müssen. Offensichtlich wollen das auch viele, die Teilnehmerzahl übertrifft die Erwartungen: obwohl es keinen Anmeldeschluß gab, kann man sich wegen der hohen Nachfrage seit einigen Wochen nicht mehr anmelden. Ich hatte mich zum Glück rechtzeitig angemeldet und bekomme deshalb seit Sonntagabend diese Begrüßungsseite angezeigt:
Aktuell findet in Helsinki die Generalversammlung der Internationalen Mathematischen Vereinigung statt. Sie hat entschieden, dass der nächste ICM 2026 in Philadelphia, USA stattfinden wird. Der in New York ansässige Blog “Not even wrong” kommentiert dazu:
With the 2022 experience in mind, hopefully the IMU will for next time have prepared a plan for what to do in case they again end up having a host country with a collapsed democracy being run by a dangerous autocrat.
Ebenfalls in Helsinki wird am Dienstag die Verleihung der Fields-Medaillen stattfinden. Um diese online zu sehen, muss man nicht angemeldet sein, man kann die Übertragung direkt auf YouTube verfolgen:
Die Namen der Preisträger sind wie immer noch geheim und es gibt natürlich zahlreiche Spekulationen. Die Arbeiten der Preisträger werden wieder im Quanta Magazine ausführlich besprochen werden. Tatsächlich war bei den letzten beiden Kongressen (2014 und 2018) das Quanta Magazine die einzige Zeitschrift, die zeitnah und im Detail berichten konnte. Grund dafür war ein “Embargo”: Reporter, die die Namen der Preisträger vorab erfahren wollen, müssen unterschreiben, diese vor der Preisverleihung nicht zu kontaktieren und erst recht natürlich auch keine anderen Mathematiker. Da Journalisten in der Regel kaum in der Lage sein werden, aus eigenem Wissen etwas über die Preisträger und ihre Arbeit zu schreiben, macht dies eine zeitnahe, ausführliche Berichterstattung praktisch unmöglich. Angeblich soll diese Bevorzugung des Quanta Magazines (oder eher die Benachteiligung aller anderen Journalisten) damit zusammenhängen, dass die das Quanta Magazine herausgebende Simons Foundation einen großen finanziellen Beitrag zu den Fields-Medaillen leistet, deren Preisgelder die IMU alleine nicht mehr aufbringen konnte. (Nachtrag: Laut Kenigs heutiger Rede erfolgt die Finanzierung aber mit Hilfe der Heidelberg Laureate Foundation, nicht der Simons Foundation).) Die vom Quanta Magazine geschriebenen Artikel von 2018 waren wirklich gut, aber eine solche Embargopolitik ist natürlich sehr fragwürdig. (Es ist nicht klar, ob es diesmal genauso laufen wird. „Nature“ hat auf Twitter eine Berichterstattung angekündigt; man wird sehen, was das heißt.)
Es gibt ein Programmheft mit Uhrzeiten und Zusammenfassungen der Vorträge. Es ist zwar wegen der Überlastung nicht mehr möglich, sich für das Life-Event anzumelden, die Vorträge werden aber zeitnah auf YouTube eingestellt werden. Tatsächlich finden viele der Vorträge mit einem Life-Publikum statt, weil sich Vortragende zusammengetan haben, um an einem Ort mit größerem Publikum jeweils ihre Vorträge zu halten. So finden etwa Vorträge zu Zahlentheorie und algebraischer Geometrie in Zürich statt, Vorträge zu Geometrie, Topologie und verwandten Gebieten in Kopenhagen, Vorträge zu Dynamik in Jerusalem, zu Wahrscheinlichkeit und mathematischer Physik in Helsinki, zu angewandter Mathematik in London und zu Lie-Theorie in Singapur.
]]>Ein paar Impressionen:
]]>