Die Lösung der linearen Differentialgleichung x‘(t)=Ax(t) im Rn mit einer nxn-Matrix A ist bekanntlich x(t)=etAx(0), wobei das Matrixexponential etA definiert ist als die Reihe \sum_{k=0}^\infty \frac{1}{k!}(tA)^k. (Matrizen können addiert und miteinander und mit Skalaren multipliziert werden, was zunächst Polynome von Matrizen definiert. Es ist dann nicht schwer zu zeigen, dass die Matrizenfolge \sum_{k=0}^n\frac{1}{k!}(tA)^k konvergiert.)

Dagegen läßt sich der Logarithmus einer beliebigen Matrix nicht einfach durch die Potenzreihe ln(1+A)=\sum_{k=0}^\infty\frac{1}{k+1}(-A)^k definieren, denn diese konvergiert nicht für jede Matrix. Für eine Diagonalmatrix etwa konvergiert sie genau dann, wenn ihr Spektrum zum Konvergenzbereich der ln(1+x) definierenden Potenzreihe gehört.
Gegeben eine Funktion f, ist es offensichtlich eine notwendige Bedingung für eine sinnvolle Definition einer Matrix f(A), dass die Funktion f zumindest auf dem Spektrum von A definiert sein muß. (Als Spektrum eines Operators bezeichnet man die Menge der komplexen Zahlen λ, für die λ.id-A nicht invertierbar ist. Ende der 30er Jahre bewiesen Gelfand und Mazur, dass das Spektrum jedes Operators nicht leer ist.)
Für normale Matrizen ist diese Bedingung auch hinreichend, weil sie sich diagonalisieren lassen und für Diagonalmatrizen die Einträge zum Spektrum gehören, auf dem sich f anwenden läßt.
Der Versuch, diesen Ansatz von endlich-dimensionalen Matrizen auf Operatoren zwischen unendlich-dimensionalen Vektorräumen zu verallgemeinern, führt auf verschiedene Funktionalkalküle.

Beim stetigen Funktionalkalkül möchte man Operatoren in (zumindest auf dem Spektrum definierte) stetige Funktionen einsetzen. Für die von einem Operator A und seinem Adjungierten A* (im Fall von Matrizen A^*=\overline{A}^T) erzeugte Algebra B sucht man also nach einem Homomorphismus C(Spek(A))—->B, der den auf dem Spektrum von A definierten stetigen Funktionen f einen Operator f(A) zuordnet, so dass Spek(f(A))=f(Spek(A)).
Der naheliegende Ansatz beginnt natürlich mit Polynomen, in die man Operatoren auf die offensichtliche Weise einsetzen kann. Stetige Funktionen sind zwar im Allgemeinen keine Potenzreihen, sie lassen sich aber jedenfalls nach dem Satz von Stone-Weierstraß durch Polynome p_n(z,\overline{z}) approximieren. Die Frage ist dann, ob die entsprechende Folge von Operatoren p_n(A,A^*) gegen einen Operator konvergiert. Diese Frage führte zur Theorie der C*-Algebren.

Israel Gelfand war Student Kolmogorows gewesen, hatte 1938 im Alter von 25 Jahren über kommutative normierte Algebren habilitiert und war 1941 auf einen Lehrstuhl an der Moskauer Staatsuniversität befördert worden. Zwei Jahre später gründete er sein Forschungsseminar zur Funktionalanalysis.
Mit Naimark bewies er 1943 einen Satz, der zum Ausgangspunkt der Theorie der C*-Algebren werden sollte.
C*-Algebren sind Banach-Algebren (vollständige normierte Algebren mit submultiplikativer Norm), für die es eine anti-multiplikative, konjugiert-lineare Involution * mit \Vert a^*a\Vert=\Vert a\Vert^2 für alle a gibt. (Aus dieser Gleichung folgt, dass die Involution isometrisch ist.)
Das einfachste Beispiel ist die Algebra C0(X) der komplex-wertigen, im Unendlichen verschwindenden, stetigen Funktionen auf einem lokalkompakten topologischen Raum X. Diese Algebra ist kommutativ. Gelfand und Naimark bewiesen, dass man jede kommutative C*-Algebra A als C0(X) für einen lokalkompakten Raum X (den man sogar Hausdorffsch wählen kann) bekommt. Man kann für X nämlich die Menge aller von der Nullabbildung verschiedenen *-Homomorphismen von A in die komplexen Zahlen (oder äquivalent die Menge aller maximalen Ideale in A) mit einer geeigneten Topologie wählen.

Dieser Satz ermöglichte die Übersetzung algebraischer Eigenschaften kommutativer C*-Algebren in topologische Eigenschaften lokalkompakter Räume. Die Algebra A hat ein Einselement genau dann, wenn X kompakt ist. Die Adjunktion eines Einselements entspricht der Einpunktkompaktifizierung. Die Algebra ist endlich erzeugt genau dann, wenn X Teilmenge eines endlichdimensionalen Vektorraums ist. Die Algebra ist separabel genau dann, wenn X dem zweiten Abzählbarkeitsaxiom genügt.

Die zunächst interessantere Anwendung war aber der stetige Funktionalkalkül. Im Allgemeinen hat man für Banach-Algebren nur einen holomorphen Funktionalkalkül, d.h. für holomorphe auf dem Spektrum eines Elements a definierte Funktionen f kann man f(a) definieren. Für C*-Algebren bekommt man aber mit der Arbeit von Gelfand-Naimark sogar einen stetigen Funktionalkalkül, also ein Element f(a) schon für stetige Funktionen auf dem Spektrum des Elements a.
Wenn nun N ein beliebiger normaler Operator auf einem Hilbertraum ist, dann ist der Abschluß der von N und N* erzeugten Operatorenalgebra eine kommutative C*-Algebra E(N,N*), auf die man die Konstruktion von Gelfand-Naimark anwenden kann. Der im Beweis des Satzes von Gelfand-Naimark konstruierte Raum X ist gerade das Spektrum von N. Der Satz von Gelfand-Naimark gibt also eine Isomorphismus C_0(Spec(N))\to E(N,N^*), der die Inklusion auf N abbildet; das ist also der gewünschte Funktionalkalkül nicht nur für Potenzreihen, sondern allgemein für stetige Funktionen.

Kommutative C*-Algebren sind natürlich sehr speziell. Zusammen mit Resultaten von Irving Segal erhielten Gelfand und Naimark später aber eine Charakterisierung aller C*-Algebren: zu jeder C*-Algebra A gibt es einen Hilbert-Raum H, so dass A zu einer selbstadjungierten, in der Normaltopologie abgeschlossenen Unteralgebra der Algebra der beschränkten Operatoren auf H isomorph ist. Segal war es auch, der die Bedeutung der C*-Algebren als Observablen-Algebren für die Formulierung einer axiomatischen Quantenfeldtheorie erkannte.

C*-Algebren waren ursprünglich in der Quantenmechanik verwendet worden. In von Neumanns Ansatz betrachtete man von Lösungen der Schrödinger-Gleichung aufgespannte Hilbert-Räume von Wellenfunktionen, und repräsentierte die Observablen durch Hermitesche Operatoren. Die algebraischen Relationen in den Operatoralgebren sind dann von grundlegender Bedeutung, zum Beispiel konnte von Neumann die Heisenbergsche Unschärferelation algebraisch ableiten. (Eine besondere Rolle spielten bei ihm die später als von-Neumann-Algebren bezeichneten W*-Algebren.) Von Neumanns Ansatz, die Theorie der Operatoralgebren zur Entwicklung einer „algebraischen Quantenmechanik“ zu verwenden war zwar letztlich nicht erfolgreich, durch die Arbeiten von Gelfand und anderen wurden C*-Algebren aber auch innerhalb der Mathematik populär, weil sie einheitliche Ansätze und oft kürzere Beweise für Tatsachen aus unterschiedlichen Bereichen der Mathematik ermöglichten.
Beispielsweise trug Gelfands einfacher Beweis des Satzes von Wiener zur Popularisierung der C*-Algebren bei. Der Satz von Wiener besagt, dass für eine absolut konvergente Fourier-Reihe f(t)=\sum_n c_ne^{int} mit f(t)\not=0 für alle t\in\left[-\pi,\pi\right] auch 1/f eine absolut konvergente Fourier-Reihe hat. Gelfands Beweis benutzt seinen zuvor mit Mazur bewiesenen Satz, dass jede komplexe Banach-Divisionsalgebra isomorph zu C ist. Er betrachtet die Wiener-Algebra aller auf [-π,π] absolut konvergenten Fourier-Reihen. Jedes Element f=\sum_n c_ne^{int} ist in einem Maximalideal M enthalten. Mit dem Satz von Gelfand-Mazur ist W/M\cong{\bf C}, insbesondere bekommt man ein multiplikatives Funktional \phi\colon W\to{\bf C} mit \phi(f)=0. Aus der Multiplikativität des Funktionals kann man aber leicht \vert \phi(e^{int})\vert=1 herleiten, also \phi(e^{int})=e^{int_0} , woraus der Widerspruch \phi(f)=\phi(\sum_nc_n e^{int})=\sum_n c_ne^{int_0}\not=0 folgt.

Bild: https://commons.wikimedia.org/wiki/File:Izrail_Gel%27Fand.jpg

Kommentare (12)

  1. #1 Echt?
    10. September 2020

    Ich lese diese Beiträge – als Nicht–Mathematiker – sehr gern. Schön wäre es, wenn es einen Hinweis auf irgendeine praktische Anwendung geben würde.

  2. #2 rolak
    11. September 2020

    irgendeine praktische Anwendung

    Wird für uns nichtFachleute generell wohl auch ‘nur’ angenehm zu lesen sein, wenn überhaupt, dann eher nicht leicht verständlich. Getippt liegt das Gros der praktischen Anwendungen tief in irgendwelchen Fachgebieten verborgen, ist ein ~’..und deswegen sind seitdem die Brötchen krosser’ bestenfalls sehr selten zu erwarten.

  3. #3 echt?
    12. September 2020

    Tja, da würde dann aber den – sicherlich falschen – Eindruck vermitteln, dass sich die Mathematik im Wesentlichen mit sich selbst beschäftigt.

  4. #4 rolak
    12. September 2020

    im Wesentlichen mit sich selbst

    Nicht nur die Mathematik hat Fachgebiete, ehrlich&echt!

    Abgesehen davon dürfte das Spektrum der Gedanken über die Mathematik noch weit über das durch Galileos “Mathematik ist das Alphabet, mit dessen Hilfe Gott das Universum beschrieben hat” und Einsteins “Die Mathematik handelt ausschließlich von den Beziehungen der Begriffe zueinander ohne Rücksicht auf deren Bezug zur Erfahrung” abgesteckte Areal hinausgehen.

  5. #5 Thilo
    12. September 2020

    Ich hatte ja in der Einleitung erwähnt, dass man mit dem Matrixexponential lineare Differentialgleichungen lösen kann. Ähnliche Anwendungen des Spketralkalküls gibt es natürlich auch für kompliziertere Differentialgleichungen.

    Die Frage nach praktischen Anwendungen wäre dann also die nach Anwendungen linearer oder komplizierterer Differentialgleichungen. Die kommen aber in den Naturwissenschaften praktisch überall vor, es wäre eher schwierig da ein einzelnes Beispiel herauszugreifen.

  6. #6 Jan
    12. September 2020

    @echt?:
    Nur mal angenommen, es wäre tatsächlich so. Wäre das denn so schlimm?

  7. #7 Echt?
    12. September 2020

    Das wäre natürlich nicht schlimm! Aber warum würde man dann MINT-Fächer zusammen fassen? Im Übrigen gibt es in angewandten Fächern durchaus Anwendungen der Mathematik. Da handelt es sich meist um numerische Mathematik, da man relevante Differentialgleichungen selten analytisch lösen kann. Gerade die numerische Mathematik wird aber im Grundstudium nicht gelehrt. Habt ihr eine Idee warum?

  8. #8 Jan
    12. September 2020

    @Echt?:

    Aber warum würde man dann MINT-Fächer zusammen fassen?

    Was hat das eine denn mit dem anderen zu tun? Und auch in den Naturwissenschaften gibt es sehr viel, das keine direkte praktische Anwendung findet. Ebenso im theoretischen Teil der Informatik.

    Im Übrigen gibt es in angewandten Fächern durchaus Anwendungen der Mathematik.

    Und? Hat jemand etwas anderes behauptet? “Es gibt Anwendungen” ist doch nicht das Gegenteil von “vieles hat keine direkte praktische Anwendung”.

    Da handelt es sich meist um numerische Mathematik, da man relevante Differentialgleichungen selten analytisch lösen kann.

    Numerik ist aber nur ein sehr kleiner Teil der Mathematik.

    Gerade die numerische Mathematik wird aber im Grundstudium nicht gelehrt.

    In welchem Grundstudium? An der Uni, an der ich studiert habe, ist im Mathematik-Bachelor sehr wohl ein Kurs Numerik vorgesehen.

  9. #9 echt?
    13. September 2020

    Die nicht im Grundstudium gelehrte numerische Mathematik bezog sich z. B. auf Ingenieurstudiengänge, d.h. Anwender.

    Die Zusammenfassung MINT habe ich eigentlich als eine Zusammenfassung von “praktisch anwendbaren” naturwissenschaftlichen Studiengängen verstanden. Das soll natürlich kein Bashing von “Geisteswissenschaften bedeuten.

  10. #10 Quanteder
    13. September 2020

    . . . .. Mathematik beschäftigt sich im Wesentlichen mit sich selbst.

    Manche sagen auch „reine Mathematik“ zu diesem Wesenszug. Geistestätigkeit unterliegt einer Ordnung, welche wissenschaftlichen Prinzipien unterliegt. Als reine Mathematik stellt sie ein einheitliches System dar, welches keine Anwendungsbereiche ausserhalb ihres Selbst benötigt. Sie stellt ein geschlossenes System dar, wie wir es aus der Quantenmechanik kennen (… das wäre schon eine Anwendung von Mathematik durch Physik 🙂 )

    Geistestätigkeit besitzt für uns bisher keine eigene Realität. Diese wird erst durch die Anwendung auf die Physik, also durch die Physik gegeben. Um Geistestätigkeit wissenschaftlich darzustellen, benötige ich eine physische Tafel und Kreide. Sie bekommt dadurch eine Realität.

    Weitere Realitäten von Mathematik wären die MINT-Fächer. Vorne dran als [1] „M“ für Mathe und als Anwendung [ ∑10 ] das „I“ für Informatik, das „N“ für Naturwissenschaften und das „T“ für die technischen Ingenieurwissenschaften: zusammen [1::∑10] 🙂

    Um Quantenmechanik zu verstehen, brauchen wir nicht nur Physik, sondern können auch Quantenzustände kennen- und erlernen, indem wir alle Anwendungsbereiche von Mathematik (… hinzu kommen noch Sozial- und Medizin-Wissenschaften 🙂 ) untersuchen.

    Mathematik und deren Anwendungsbereiche werden entsprechend der Theorie des Superdeterminismus zugeordnet. Es besteht dann die Möglichkeit z. B. versteckte Variablen nachzuverfolgen und deren Wirkung zu beobachten und Schlussfolgerungen zu ziehen. Dann bekommt die Physik auch ihren kreativen Schub, welchen Frau Dr. Hossenfelder seit Jahren einfordert.

    Auch das von ihr angesprochene Klimaproblem kann mit meinem Ansatz in den Griff bekommen werden: http://backreaction.blogspot.com/2020/09/path-dependence-and-tipping-points.html#comment-form 🙂

  11. #11 echt?
    13. September 2020

    “Als reine Mathematik stellt sie ein einheitliches System dar, welches keine Anwendungsbereiche ausserhalb ihres Selbst benötigt.”

    Das gilt für Poker und Schach auch!

  12. #12 Quanteder
    14. September 2020

    . . . .. da bin ich anderer Meinung 🙂