Ich habe auf Youtube einen interessanten Vortrag von Maciej Ceglowski gefunden.

Bei dem soll es zwar in erster Linie um die Entwicklung des Webdesigns gehen (und dazu kommt er auch noch reichlich), aber er fängt mit einigen guten Anekdoten aus der Luftfahrt an. Die gelten nicht nur für die Luftfahrt.

Das Beispiel hier ist die Boeing 747, das erste nach heutigen Maßstäben moderne Passagierflugzeug. Es wurde nicht von den Spitzeningenieuren von Boeing entwickelt, sondern sozusagen von der B-Mannschaft. Die besten waren in den 60er und frühen 70er Jahren damit beschäftigt ein amerikanisches Überschallpassagierflugzeug zu entwickeln. Erfolgreich wurde aber die 747. Nicht weil sie schneller als alle anderen Flugzeuge war, sondern weil sie schnell genug war und billiger Tickets ermöglichte als alle anderen Flugzeuge.

Die Technik der Flugzeuge hat in den 70er Jahren ein gewisses Optimum erreicht. Höhere Geschwindigkeiten würden nur noch zu höherem Treibstoffverbrauch führen, aber gleichzeitig keine fundamentalen Vorteile mehr bieten. Maciej argumentiert nun, dass ganz ähnliches auch für Computer und Handys gilt. Aber anders als bei der Hardware hat man das bei der Entwicklung der Software noch nicht verinnerlicht.

Man orientiert sich immernoch an den vergangenen Paradigmen, nach denen die Technik ohnehin immer schneller wurde. Das war tatsächlich so. Deswegen lohnte es sich, die Leistungsfähigkeit bis an die absolute Grenze auszunutzen und darauf zu vertrauen, dass die Beschleunigung der Hardware in der Zukunft schon für die dringend nötigen Reserven sorgen würde.

Inzwischen nähert sich die Hardware ihren Leistungsgrenzen und wird kaum noch schneller. Gleichzeitig entwickelt man immernoch nach den alten Paradigmen. In der Folge haben wir es alltäglich mit Software zu tun, die unglaublich langsam ist. Trotz aller Beschleunigungen muss man immernoch warten bis Programme nach dem Start zur Verfügung stehen. Und zwar immernoch etwa genauso lang wie zu Zeiten, zu denen ein Pentium II mit 266MHz und 32MB RAM zur Topausstattung gehörte. Selbst die Twitterseite schafft es nicht simple Textbotschaften in Sekundenbruchteilen darzustellen, es braucht eine merkliche Zeit von mehreren Sekunden, bis neue Meldungen angezeigt werden.

Ich kann den Vortrag jedenfalls nur sehr empfehlen. Es gibt ihn übrigens nicht nur als Video zum ansehen, sondern auch als Manuskript mit den Folien zum anschauen.

Bitte schaut euch die Patreon-Seite an oder schaut, ob ihr mir sonst helfen könntet. Auch mehr Leser im Blog helfen sehr.

Kommentare (15)

  1. #1 Stephan Vrecer
    31. Juli 2015

    Es gibt keinen Fachbereich der sich schneller entwickelt als die Softwareentwicklung. Vor allem im Bereich der Webentwicklung kommen fast jährlich neue Frameworks und “State-of-the-art” Technologien raus die schnellere und bessere webapps versprechen als ihre vorgänger.
    Es gibt dennoch viele Firmen und Institutionen die noch immer auf alte Technologien bauen weil sie funktioren und lernfaule (bitte um entschuldigung) softwareentwickler und it´ler mit dem Spruch “Never change a running system” sämtliche neuerungen und verbesserungen vom Tisch fegen.
    Twitter gehört mit sicherheit nicht zu diesen Firmen. Der Grund warum aber jetzt ein text nicht in sekundenschnelle am bildschirm erscheint ist folgender. Die Hardware ist schnell genug den Text innerhalb weniger Nanosekunden auszuschicken, Die Software unterstützt das Ganze durch gewisse Design-paradigmen (die ich jetzt in diesem Kommentar nicht erläutern werde weils einfach zu lang wird). Der wahre Bottelneck (der teil einer Anwendung mit der geringsten Performance) ist das Netzwerk. Der Internetverkehr ist in den letzten Jahren durch das Auftauchen von Smartphones, Tablets, SmartTV´s etc. drastisch gestiegen. Das Netzwerk hinkt ein wenig hinterher. Glasphaser und LTE wird zwar ausgebaut aber selbst die schnellste Internetanbindung die es momentan gibt wäre noch immer langsamer als die Software + Hardware von Twitter z.b.
    Woher ich das weiß? Ich habe Informationsmanagement und Softwareentwicklung Studiert und als Softwareentwickler in diversen Firmen Praktika absolviert und an einigen staatlichen Projekten gearbeitet, das Thema meiner Bachelorarbeit im letzten Jahr war genau dieses.

  2. #2 Karl Mistelberger
    31. Juli 2015

    > Inzwischen nähert sich die Hardware ihren Leistungsgrenzen und wird kaum noch schneller. Gleichzeitig entwickelt man immer noch nach den alten Paradigmen. In der Folge haben wir es alltäglich mit Software zu tun, die unglaublich langsam ist. Trotz aller Beschleunigungen muss man immer noch warten bis Programme nach dem Start zur Verfügung stehen. Und zwar immer noch etwa genauso lang wie zu Zeiten, zu denen ein Pentium II mit 266MHz und 32MB RAM zur Topausstattung gehörte.

    Diese Aussagen sind ziemlich pauschal und undifferenziert. Wer genauer hinschaut stellt fest, dass die Hardware immer noch schneller und auch energiesparender wird:

    https://karlmistelberger.wordpress.com/2014/02/24/personal-computer-masanfertigung-ich-bin-beeindruckt/

    HDDs können teilweise oder ganz durch SSDs ersetzt werden, was gerade beim Starten von Programmen einen überaus spürbaren Geschwindigkeitsvorteil bringt:

    https://karlmistelberger.wordpress.com/2015/01/07/solid-state-disk-benchmark-was-bringt-es-denn-eigentlich/

    Wenn eine Seite im Browser genauso lange braucht wie auf einem langsamen Computer liegt es nicht an der Software, sondern an den vielen eingebauten Referenzen, die alle erst abgeklappert werden müssen. Bei stinknormalen Webseiten ist die Geschwindigkeit des Aufbaus durch die Übertragungsrate der Internetanbindung limitiert:

    https://www.fourmilab.ch/etexts/www/atomic_tests_nevada/

    Eine lokale Seite auf meinem Rechner baut sich im Browser ohne fühlbare Verzögerung auf. Eine Suche im Filesystem, die einmal zig Minuten brauchte läuft praktisch instantan ab.

    Fazit: Wer ahnungslos ist und sich einen Klotz an das Bein binden lässt wird vom technischen Fortschritt nichts bemerken. Wer weiß was er tut, dem entgeht nicht, dass sich die Leistungsgrenzen immer noch nach oben verschieben.

  3. #3 Christian Thiele
    31. Juli 2015

    Danke fürs teilen, sind echt ein paar Dinge zum Nachdenken dabei.

    Habe mich auch gefreut, dass er C. elegans erwähnt hat! Ich finde das Beispiel echt gut für die Begrenztheit unseres Wissens. Exponentiell wachsende Datenbanken und Publikationslisten bedeuten eben nicht exponentiell wachsendes Wissen.

    Wer ein bisschen mehr über C. elegans und das “Open Worm Project” erfahren möchte, ist herzlich willkommen meinem Blogbeitrag dazu zu lesen: https://thielestierwelt.de/caenorhabditis-elegans-vom-modelltier-zum-computerwurm/

  4. #4 demolog
    31. Juli 2015

    Es gibt zwar noch die immer schnellere Hardware, aber die wird auch immer teuerer und frisst über die Stromkosten weiter Geld weg. CPU´s mit 100/150 Watt sind irgendwie von allen guten Geistern verlassene Strategie. Wüde ich mir für einen lang laufenden Rechner nie einbauen und für einen kurz laufenden zu teuer.

    Ich habe übrigens eine “lustige” Rechnung bezüglich CPU-Leistung als Herdplatte.
    Rechnet mal ein CPU-Die auf eine Herdplattenfläche hoch und staunt über deren Heizwerte. Das geht zwischen 20 und 50 KW Heizleistung pro “CPU-Kochfeld”.

    50 KILOWATT – 50000 Watt

    absurd.

    • #5 wasgeht
      31. Juli 2015

      Wenn die CPUs wenigstens bei Temperaturen von 300-400 Grad laufen würden, dann könnte man ab ein paar 100MW Abwärme ein Kraftwerk damit betreiben und etwa 1/3 der Energie zurückgewinnen …

  5. #6 demolog
    31. Juli 2015

    Ach so:
    Eine Herdplatte hat so ~ 500 bis 1000 Watt Leistung.

  6. #7 demolog
    31. Juli 2015

    #5 wasgeht
    31. Juli 2015

    schon richtig. Leistungsaufnahme ist nicht gleich Heizleistung. Und das Wasser kocht nie, ist aber ruckzuck auf Maximaltemperatur.

    Man braucht nur mal eben Call of Duty spielen. Oder ganz verspielt: Primzahlen berechnen.

  7. #8 Karl Mistelberger
    1. August 2015

    > #4 demolog, 31. Juli 2015
    > Es gibt zwar noch die immer schnellere Hardware, aber die wird auch immer teurer und frisst über die Stromkosten weiter Geld weg.

    Internetforen sind noch wesentlich geduldiger als Papier. Wer sich tatsächlich informiert kommt zu einem anderen Schluss:

    Bei annähernd gleichem Preis wurden die Prozessoren immer leistungsfähiger bei gleichzeitig reduziertem Stromverbrauch. Vor 12 Jahren brauchte eine 08/15 Desktop-Maschine 90 W, vor 6 Jahren 45 W und im letzten Jahr 25 W. Gleichzeitig stieg die Leistungsfähigkeit von 185 (2003) über 1300 (2008) auf 4800 (2014).

    Eine umfangreiche Übersicht gibt es z.B. hier: https://www.cpubenchmark.net/

    Eine ganz andere Geschichte ist natürlich was der Kunde kauft. Die “vernünftige CPU” für 100€ hat gerade mal einen Marktanteil von 0,45%. An der Spitze liegt eine 8-fach CPU für 300€ mit 4,4%.

    Das Käuferverhalten entspricht hier ungefähr dem Verhalten der Autokäufer. Fast jede Hausfrau hat oder will einen SUV zum Einkaufen und Kinderabholen. Fazit des Trends: Im letzten Jahrzehnt wurden Verbrennungsmotoren um 16,5% sparsamer, der durchschnittliche Verbrauch eines Autos in Deutschland reduzierte sich aber im selben Zeitraum um gerade mal 1,5%, weil schwerere und leistungsstärkere Autos angeschafft wurden. Somit sind 90% des technischen Fortschritts verpufft.

  8. #9 Karl Mistelberger
    1. August 2015

    Apropos Energieverbrauch: Intel schaffte im letzten Herbst die Verkleinerung der Strukturen von 22 auf 14 nm durch Einsatz von FinFET-Transistoren. Resultat: Mobile Prozessoren kommen mit ein paar Watt aus und liefern annähernd die gleiche Leistung wie ihre Desktop-Vorgänger mit einigen 10W.

    https://www.notebookcheck.com/Intel-Core-M-5Y51-SoC.129320.0.html

  9. #10 rolak
    1. August 2015

    Selbst die Twitterseite schafft es nicht

    Bedanke Dich beim monetarisierten Web2.0, wasgeht – es wird nicht etwa hypertext von einem browser dargestellt, sondern in einer universal-problem-solver-Plattform namens browser für jedes WerbeBildchen, Trackerpixel etc eine virtuelle JS-Maschine angeworfen. Alleine die über diverse server verteilte Quelle umfaßt selbst bei winzigen Seiten lässig 1-2MiB (ohne den eigentlichen SeitenInhalt Text+Bilder) — wie soll da auch nur irgendetwas flott gehen?.

    • #11 wasgeht
      1. August 2015

      Exakt das meinte ichund wird auch so in dem Vortrag beschrieben.

    • #12 rolak
      1. August 2015

      Mist, das Anhören hatte ich mir für nach dem ErnteSpaziergang aufge(sc)hoben, nahm die Sequenz einerseits als Eigentext statt ClipBeschreibung, andrerseits als die übliche ‘Beschwerde’, die Programme seien zu üppig und lahm.

  10. #13 Lercherl
    1. August 2015

    Als Pole kann er sich Seitenhiebe auf die Russen nicht verkneifen. Dabei gab es die Konstruktion mit 4 Triebwerken am Heck, über die er Witze reißt, nicht nur bei der Iljuschin 62 sondern z.B. auch bei der Vickers VC 10.

  11. #14 demolog
    2. August 2015

    @ #8 Karl Mistelberger
    1. August 2015

    Schon recht. Ich hinke der Technologie tatsächlich 10 Jahre hinterher (AMD AM3 x32).

  12. #15 demolog
    2. August 2015

    @ #13 Lercherl
    1. August 2015
    Am skurilsten kam ja noch die gleiche Anordnung von 8 Triebwerken am Kopf des seltsamen Kaspischen Seemonster.
    Bodeneffektfahrzeug Ekranoplan KM und da gibt es noch andere.

    Muß man mal gebaut haben.