Anfänge digitaler Berechnungen
Während des zweiten Weltkrieges arbeiteten die in Deutschland gebliebenen Mathematiker an vorgeblich kriegswichtigen Problemen, in Wirklichkeit meist an theoretischen Untersuchungen zu Differentialgleichungen, nach dem Krieg kehrten die meisten sofort zur reinen Mathematik zurück. Hingegen kam zunächst kaum einer der Emigranten zurück. Anders als in Deutschland hatten in den USA Mathematiker und Naturwissenschaftler, oft aus Europa geflüchtet, eine wesentliche Rolle bei der Entwicklung neuer Waffen gespielt.
Anfang der 1940er Jahre hatte man begonnen, sich für digitale elektromagnetische Computer und deren Vorteile gegenüber mechanischen Rechnern zu interessieren. Fortschritte bei der Rechengeschwindigkeit waren zunächst nur durch bessere Röhrentechnik zu erzielen. Noch im Krieg hatte IBM die erste Maschine fertiggestellt. Die Rechenmaschine mit Vakuumröhren im Rechenwerk und mit auf Aussagenlogik beruhenden Schaltungen wurde beim Militär für lineare Differentialgleichungen und Integralgleichungen eingesetzt: der “Electrical Numerical Integrator and Computer”, kurz ENIAC, mit 17000 Radioröhren von 16 verschiedenen Typen, 30 mal 3 mal 1 Meter groß und mit einem Verbrauch von 140 Kilowatt und entsprechendem Kühlungsbedarf.
https://commons.wikimedia.org/wiki/File:Glen_Beck_and_Betty_Snyder_program_the_ENIAC_in_building_328_at_the_Ballistic_Research_Laboratory.jpg
Man sah aber keine reale Möglichkeit, die die Speicherkapazität von Rechnern in einem Maße ausweiten würde wie es für die Behandlung nichtlinearer partieller Differentialgleichungen notwendig gewesen wäre. Viele Mathematiker hielten auch elektronische Konstruktionen für weniger zuverlässig als elektromechanische und lehnten sie deshalb ab trotz ihrer viel höheren Schnelligkeit.
Die Konstruktion einer solchen elektronischen Maschine wurde das Projekt John von Neumanns, der auf Einladung Oppenheimers seit 1943 beim Manhattan-Projekt in Los Alamos war. 1944/45 befaßte er sich mit den logischen Operationen – denen gegenüber er die elektronischen Aspekte als untergeordnet ansah – und wie diese Operationen von einer zentralen Stelle zu koordinieren seien. Ein theoretisches Konzept hatte schon 1936 Alan Turing entwickelt und von Neumanns Ideen waren eine konkrete Realisierung einer universellen Turingmaschine. In seinem Diskussionspapier „First Draft of a Report on the EDVAC“ definierte von Neumann in Analogie zum menschlichen Hirn eine Rechnerarchitektur aus Steuereinheit und arithmetischer Einheit sowie einer Speichereinheit, welche Befehle seriell abarbeitet. Auf den dort dargestellten Ideen beruhten dann alle weiteren Entwicklungen von Rechnern, weshalb man von „von-Neumann-Architektur“ spricht. (Die Ingenieure Eckert und Mauchly, die Erbauer des ENIAC und des Nachfolgemodells EDVAC, sahen ihre Anteile später nicht genügend gewürdigt.)
Weil die ENIAC und ihre Nachfolger sehr wenig Speicherplatz für Zwischenresultate hatten, änderte sich die Ökonomie der Berechnungen über Nacht. Statt teurer Multiplikation und billigem Speicherplatz war jetzt die Multiplikation sehr billig und der Speicherplatz sehr teuer.
Neben den Grundlagen der Informatik beschäftigte sich von Neumann in der Nachkriegszeit auch mit den Grundlagen der Numerik. Seine 1947 mit Goldstine veröffentlichte Arbeit „Numerical inverting of matrices of high order“ wurde später als Beginn der numerischen linearen Algebra und überhaupt der modernen numerischen Mathematik angesehen, weil sie als eine der ersten Rundungsfehler und ihre Fortpflanzung diskutierte. In der Sache war sie hauptsächlich eine detaillierte Analyse der Rundungsfehler für Methoden der Faktorisierung und Inversion von Matrizen. Für invertierbare Matrizen A führte sie die Konditionszahl ein und zeigte, dass die Algorithmen nur für gut konditionierte Probleme brauchbare Näherungslösungen liefern.
Die Arbeit war auch dadurch motiviert, dass unter angewandten Mathematikern divergierende Meinungen herrschten über die Zuverlässigkeit numerischer Verfahren zur Lösung linearer Gleichungssysteme, insbesondere auch des Gaußschen Eliminationsverfahrens für das numerische Invertieren von Matrizen. Als wichtigste Motivation nannten die Autoren aber, dass bisher nur Stabilitätsfragen untersucht worden seien und sie erstmals, und zwar an einem möglichst schwierigen Beispiel mit sehr vielen elementaren Operationen, die Konditionierung untersuchen wollten.
In der Einleitung ihrer Arbeit fassen sie ihre Ergebnisse so zusammen, dass zum Beispiel Matrizen der Ordnung 10, 15 oder 20 „meistens“ mit einer Genauigkeit von 8, 10 oder 12 weniger Ziffern als die Anzahl der Ziffern der Eingabe invertiert werden können. Mit „meistens“ meinen sie, dass unter Annahme einer plausiblen Wahrscheinlichkeitsverteilung auf den Matrizen diese Abschätzungen für alle Matrizen mit Ausnahme einer Minderheit geringer Wahrscheinlichkeit erfüllt sind. Diese Berechnungen fußten auf rigorosen individuellen Abschätzungen, die für alle Matrizen gültig sind. Mit einer wahrscheinlichkeitstheoretischen Behandlung der individuellen Matrizen hätten sie die Abschätzungen noch um einige Dezimalstellen verbessern können.

Kommentare (8)