Das 1965 formulierte Mooresche Gesetz besagt, dass die Komplexität integrierter Schaltkreise sich regelmäßig verdoppelt – und zwar alle 18 Monate.
Ein am Mittwoch veröffentlichter Blogeintrag von Amodei und Hernandez überprüft dieses Gesetz an den Daten der letzten 6 Jahre und kommt für diesen Zeitraum auf eine Verdopplung alle dreiundeinhalb Monate. Für einen Zeitraum von sechs Jahren komme ich damit auf einen Faktor
272/3,5=1556635.
(Im Artikel ist ein Faktor 300000 angegeben, anscheinend hat man dort einen kürzeren Zeitraum zugrundegelegt.)
For this analysis, we believe the relevant number is not the speed of a single GPU, nor the capacity of the biggest datacenter, but the amount of compute that is used to train a single model — this is the number most likely to correlate to how powerful our best models are.
AlphaGo ist natürlich das offensichtlichste Beispiel für das Leistungswachstum selbsttrainierender Maschinen. Auf Spiegel Online diskutiert Christian Stöcker den Nutzen, den solche künstlichen Intelligenzen auch bereits in relevanteren Bereichen haben, etwa beim Medikamentendesign.
Kommentare (64)