Auf die Idee, einen Computer zu bauen, der nicht gut rechnen kann, muss man erst mal kommen. Aber warum sollte man? Wäre so eine Kiste denn nicht völlig nutzlos (vor allem, wenn man bedenkt, dass selbst korrekt funktionierende Rechner nicht unbedingt immer den Nutzen der Menschheit mehren)? Im Gegenteil, findet Deb Roy, Professor am Media Lab des Massachusetts Institute of Technology, der – wie ich in dieser MIT-Pressemitteilung lesen konnte – gemeinsam mit seinem Kollegen Joseph Bates an genau so einem Chip bastelt.
Angenommen, so ein Fuzzy-Math-Chip läge in seine Ergebnissen in einer Schwankungsbreite von zwei Prozent um das korrekte Resultat herum; das wäre für einige Aufgaben – zum Beispiel bei dem Problem, auf einem Foto Objekt und Hintergrund zu unterscheiden – durchaus noch ausreichend: Hier wäre selbst mit den besten Chips schon eine Trefferquote von etwa 50 Prozent das Beste, was man derzeit erwarten kann. Die Frage ist nur: Wie schwer würde in solcher Rechenfehler am Ende ins Gewicht fallen? Die beiden Professoren ließen das mal von einem Studenten am praktischen Beispiel simulieren; heraus kam, dass ein solcher schlecht rechnender Chip etwa 14 von einer Million Pixels auf einem Foto falsch einordnen würde. “Ein Mensch würde das gar nicht merken”, meint Bates.
Vergleichbar wäre dies mit einer Überschlagsrechnung, wie wir sie oft im Kopf ausführen: Wenn ich nur weiß, dass ich mein Auto mit etwa 100 Kilometer pro Stunde fahre und die Karre sieben Liter auf hundert Kilometer verbraucht, dann kann ich leicht im Kopf abschätzen, dass es mit einem 40-Liter-Tank nach etwa fünfeinhalb Stunden Fahrt an der Zeit ist, eine Tankstelle aufzusuchen. Ob es nun 5,42 Minuten oder 5,43 Minuten wären, ob der Tank nun exakt mit 42 Litern gefüllt war (oder vielleicht ein paar Kubikzentimeter mehr oder weniger) und ob man die Durchschnittsgeschwindigkeit von 100 km/h auch wirklich eingehalten hat oder vielleicht eher bei 102 oder 98 km/h liegt, ist dabei ziemlich egal.
Dieser Chip (den es bisher nur in der Theorie gibt – Bates und Roy haben dessen Funktion anhand eines Algorithmus simuliert, der nach dem Zufallsprinzip die Rechenresultate um plus oder minus ein Prozent verändert) kann zwar nicht sehr gut rechnen – aber er hätte andererseits einen ernormen Vorteil: Er könnte kleiner, billiger und sparsamer sein als herkömmliche Hochleistungs-Prozessoren. Und gerade weil er seine Zeit nicht mit Präzision verschwendet, wäre er auch viel schneller. Manchmal ist knapp daneben nicht nur gut genug – es kann sogar die bessere Lösung sein …
Kommentare (26)