Uhren stellen seit jeher mehr dar als ein Messinstrument und waren daher oft kunstvoll verziert. (Deutsches Museum, Inventarnummer 1676)
Von Thomas Rebényi, Benjamin Mirwald (Text) und Hubert Czech (Fotos und Video)
Uhren haben Werke – und sie sind oft selbst Kunstwerke. So etwa eine Uhr, die ein geschickter Mechaniker im 18. Jahrhundert für das Kloster Raitenhaslach herstellte. Der Clou: die Uhr wird von ihrer eigenen Masse angetrieben: Sie rollt in zwölf Stunden gemächlich ein geneigtes Brett hinab. Mit Hilfe eines Zeitrafferfilms ließ sich ihr Bewegungsablauf festhalten.
Unser alltäglicher Blick auf die Taschenuhr, Turmuhr oder Wanduhr ist seit etwa hundert Jahren selbstverständlich. GPS und Internet schicken eine milisekundengenaue Uhrzeit aufs Handy. Vor etwa dreihundert Jahren waren sekundengenaue Uhren Einzelstücke. Was heute, romantisch verklärt, als Ungebundenheit und Freiheit von disziplinierenden Stundenplänen erscheinen könnte, war für Menschen im 17. Jahrhundert ein großes Hemmnis, denn exakte Uhren hätten eine viel genauere Planung von Produktion und die Abrechnung von Arbeit ermöglicht. Sie hätten auch einfach Wartezeiten bei Verabredungen verkürzt.
Uhren waren mehr als ein Messinstrument, sie waren auch Statussymbol. Zum Beispiel konnten sich Fürsten mit originellen, kunstvollen Uhren als wissenschaftlich gebildet inszenieren. Auch Klöster stellten sogenannte Kabinette zusammen, die kuriose und zugleich wissenschaftliche Instrumente enthielten. So baute der süddeutsche Mechaniker Philipp Kumperger (Lebensdaten unbekannt) im Jahr 1779 eine Uhr für das mathematische Museum des Zisterzienserklosters Raitenhaslach bei Burghausen. Außer der Uhr waren in der klösterlichen Naturwissenschaftlichen Sammlung noch mindestens eine Camera Obscura und eine Laterna Magica vorhanden. Nach der Säkularisation des Klosters wurde die „viel bewunderte automatische Uhr“ von Johann Christoph Freiherr von Aretin (1772-1824) nach München beordert, um sie in die Sammlung der Bayerischen Akademie der Wissenschaften aufzunehmen. Aretin war Mitglied der Akademie und als Publizist mit der Auflösung von Klosterbibliotheken betraut. Sehr wahrscheinlich handelt es sich bei der vorliegenden Uhr um diejenige des Klosters, denn in Listen über die säkularisierten Bestände ist ein „Uhrräderwerk“ mit einem geschätzten Wert von 5 Gulden aufgeführt, was etwa zwei Wochenlöhnen für handwerkliche Arbeit entsprach.
Doch wie kam der auch „Gumberger“ genannte Uhrmacher aus Tittmoning auf die Idee, eine rollende Uhr zu bauen, und wie funktioniert sie genau?
Der Mönch und Naturforscher Caspar Schott (1608-1666) hatte schon in seinem 1687 erschienenen Werk Technica curiosa, sive mirabilia artis unterschiedliche Uhren beschrieben, darunter ein „Horologium Cylindricum volubile, quod innat a sua gravitate per declive planum sensim descendus, horas indicat“. Schott zeigte also eine „Uhr als Drehzylinder, der[,] durch die ihm innewohnende Schwerkraft langsam eine geneigte Ebene hinabsteigend, die Stunden anzeigt.“
Von Schott selbst ist zwar keine solche Uhr überliefert, von seinen Zeitgenossen sind aber genügend Beispiele für Uhren auf schiefer Ebene erhalten: DerMathematisch-Physikalische Salon in Dresden besitzt zwei Brettuhren, eine davon vom Uhrmacher Johann Wisthoff aus Hall aus dem Jahr 1665. Zwei Uhren aus der Hand Gerhard Muths, vor 1687 hergestellt, befinden sich im Astronomisch-Physikalischen Kabinett in Kassel (Inv.-Nrn. APK U 59 und U 60). Eine davon wird durch die Schwerkraft angetrieben, die andere aber durch eine Feder: Sie rollt, während sie läuft, das Brett hinauf statt hinab. Aus Frankreich, wo im Conservatoire National des Arts et Métiers ebenfalls eine Rolluhr überliefert ist, stammt die Vorstellung, man könne eine solche Uhr besonders lang nutzen, wenn sie eine Schraubenbahn hinunter rolle. Die Uhrzeit wird dabei zusätzlich zum Zifferblatt auch durch Markierungen am Rand der schiefen Ebene abgelesen.
Haftreibung, fertigungsbedingte Kraftschwankungen im Räderwerk, Unebenheiten auf der schiefen Ebene sowie die Tatsache, dass der Käfig nicht exakt rund läuft, hemmen die gleichmäßige Bewegung der Uhr. Diese Schwankungen lassen sich im Zeitraffervideo gut erkennen.
So rollt die Tischuhr von Philipp Kumperger in einigen Stunden ein Brett hinab. Die „Sprünge“, die sie macht, sind Phasen, in denen das Uhrwerk der Rollbewegung wenig Widerstand entgegen setzt. Nur im Zeitraffervideo war dieses Phänomen zu erschließen.
Die Bedeutung der Uhr liegt darin, dass sie zeigt wie weit die Beschäftigung mit wissenschaftlichen Themen schon in der Neuzeit verbreitet war. Vor etwa 250 Jahren war dies auch im ländlichen Raum nichts ungewöhnliches: In den Klöstern wollte man auf diese Weise Gottes Schöpfung verstehen und ihr gleichzeitig huldigen. Zudem halfen Kenntnisse in Physik, Mathemetik und Astronomie auch dabei, die Landwirtschaft und Technik weiterzuentwickeln, von denen der Wohlstand der Klöster und der Dörfer um sie herum wesentlich abhing.
Daher wusste ein sonst relativ unbekannter Mechaniker, Philipp Kumperger, aus einer kleinen Stadt in Süddeutschland von originellen Uhren und baute selbst eine solche Uhr nach. Diese Wissenskommunikation in ländlichen Regionen trug damit über die Säkularisierung stark zur Vielfalt des Instrumentenbestands bei, den die Bayerische Akademie der Wissenschaften nutzen konnte.
Zum Weiterlesen:
Bassermann-Jordan, Ernst von: Uhren. 2., verm. Aufl., Braunschweig 1920.
Franks, Jonathan W.: “Uhren auf schiefer Ebene”. In: Klassik Uhren 2 (2005). S. 46–55.
Good, Richard: “The Inclined Plane Clock”. In: Horological Journal 136 (1994). S. 628–631.
Grollier de Servière, Gaspard: Recueil D’Ouvrages Curieux De Mathématique Et De Mecanique, Ou Description Du Cabinet De Monsieur [Nicolas] Grollier de Servière. Paris 1751, S. 18-20 und Tafeln 42-44.
Krausen, Edgar: Die Zisterzienserabtei Raitenhaslach. Berlin [u.a.] 1977, insbes. S. 28 und 169.
Lübke, Anton: Das große Uhrenbuch. 2. Ausg., Tübingen 1977, S. 310.
Schott, Kaspar: P. Gasparis Schotti Regiscuriani E Societate Jesu, Olim in Panormitano Siciliae, posteà in Herbipolitano Franconiae Gymnasio ejusdem Societatis Jesu Matheseos Professoris Technica Curiosa, Sive Mirabilia Artis, Libris XII. Comprehensa. [Nürnberg] 1687.
Wheeler, Maurice: “Automatum novum”. In: Acta eruditorum (1686). S. 79–86.
Herzlichen Dank für Hinweise auf einen Großteil der hier genutzten Literatur schulden wir Irmgard Muesch vom Landesmuseum Württemberg sowie Peter Winkler für wertvolle Hinweise auf Archivbestände. Fruchtbare Diskussionen mit unseren Kolleginnen und Kollegen Bettina Goldes und Johannes-Geert Hagmann sowie Karsten Gaulke und Peter Schimkat vom Astronomisch-Physikalischen Kabinett in Kassel flossen in den Artikel ein.
Hubert Czech, Fotograf im Deutschen Museum, fängt in seinen Bildern den Charakter historischer wissenschaftlicher Instrumente ein. Darüber hinaus erstellt er wie für diesen Beitrag hin und wieder auch Filmsequenzen.
Thomas Rebényi ist Uhrmachermeister in der Restaurierungswerkstatt für wissenschaftliche Instrumente im Deutschen Museum.
Benjamin Mirwald ist wissenschaftlicher Mitarbeiter am Deutschen Museum und erforscht die Objekte der mathematisch-physikalischen Sammlung der Bayerischen Akademie der Wissenschaften im Rahmen eines im Januar 2013 gestarteten DFG-Projekts.
Themen wie der deutsche Atomausstieg, das Nuklearabkommen mit dem Iran oder die Katastrophe von Fukushima – alle sind auf die Entdeckung der Kernspaltung und diesen einen Tisch zurückzuführen, was diesem Objekt eine einmalige Aura verleiht. Im Museum erklärt die Originalstimme von Otto Hahn die Geräte auf dem Tisch und den Versuch.
Im Kaiser-Wilhelm-Institut für Chemie in Berlin-Dahlem im Jahr 1938 gab es die radiochemische Abteilung des Chemikers Otto Hahn und die radiophysikalische Abteilung der Physikerin Lise Meitner. Die beiden kannten sich bereits über 30 Jahre, hatten sehr erfolgreich zusammen gearbeitet und gehörten damals zur wissenschaftlichen Elite. Die gebürtige Wienerin Meitner hatte zu Beginn ihrer Zeit in Berlin mit großen Schwierigkeiten zu kämpfen, so durfte sie als Frau ihre vormalige Arbeitsstätte an der Universität nur durch den Hintereingang betreten. Ende der 1930er Jahre war sie als Professorin auf Augenhöhe mit ihren Forscherkollegen.
Zusammen mit dem Chemiker Fritz Straßmann bildeten Hahn und Meitner ein geniales Team, das sich 1935 der Suche nach den Transuranen, den chemischen Elementen schwerer als Uran, verschrieben hatte. Bei dem Beschuss von Atomen sollte je ein Neutron in dem Atomkern quasi stecken bleiben und es somit unter Abgabe eines β-Teilchens in einen Atomkern der nächsthöheren Stelle im Periodensystem der Elemente zerfallen. Den Versuch von Straßmann führten Meitner und Hahn wie folgt weiter: Eine Probe aus gereinigtem Uran brachte man in einen Paraffinblock ein, daneben eine Neutronenquelle aus Beryllium und Radium. Nach unterschiedlichen Bestrahlungszeiten wurde die Uranprobe entnommen und chemisch analysiert. Nach Lösen in Salzsäure fügte man einen dem vermuteten Produkt ähnlichen Stoff zu, der gemeinsam mit dem Reaktionsprodukt aus der Lösung auskristallisieren sollte. Uran verblieb in der Lösung. Danach wurden die Filtrate getrocknet, die Filterpapiere in die zylindrische Mulde eines Bleiblocks eingeklebt und der Geiger-Müller-Zähler darauf gelegt. Das Zählrohr bestand aus einem Aluminiumzylinder, gefüllt mit einem speziellen Argon-Gasgemisch und einem Draht im Zentrum. Starke Batterien setzten den Draht unter Spannung. Ein aus der radioaktiven Probe entweichendes negatives β-Teilchen wurde zum Draht hin beschleunigt und bewirkte über eine Kaskade von Ionisierungen einen elektrischen Impuls. Dieser wurde verstärkt und von einem mechanischen Zählwerk angezeigt. Durch Auftragen der Zählimpulse gegen die Zeit erhielt man die Zerfallsraten der Reaktionsprodukte.
Im Sommer 1938 musste Lise Meitner an diesem spannenden Punkt der gemeinsamen Arbeit Deutschland fluchtartig verlassen. Nach dem Anschluss Österreichs an Deutschland war sie als österreichische Jüdin nicht mehr vor der Verfolgung durch die Nationalsozialisten geschützt. Meitners Flucht muss eine große Erschütterung im Berliner Team hinterlassen haben. Hahn, der Meitner nach der Flucht nicht nur finanziell unterstützte, sondern sich auch um ihren Hausstand und ihre wissenschaftlichen Unterlagen kümmerte, schrieb später: „Ich werde den 13. Juli 1938 nie vergessen“. „Hähnchen“ und „Lieschen“, wie sie sich genannt haben sollen, bleiben dennoch in intensivem brieflichem Kontakt.
„Immer mehr kommen wir zu dem schrecklichen Schluss: Unsere Radium-Isotope verhalten sich nicht wie Radium, sondern wie Barium. […] Falls Du irgendetwas vorschlagen könntest, dann wäre es doch noch eine Art Arbeit zu Dreien!“ schrieb Otto Hahn kurz vor Weihnachten 1938 an Lise Meitner und suchte den Rat seiner Kollegin. In den folgenden Weihnachtstagen erarbeitete sie gemeinsam mit ihrem Neffen Otto Robert Frisch in Kungälv, Schweden, eine Theorie, nach der das Zerplatzen des Kerns denkbar war. Nach einem Modell von Niels Bohr könnte sich der Urankern wie ein Wassertropfen verhalten. Durch den Beschuss mit dem Neutron geriet dieser in Schwingungen und teilte sich ebenso wie ein Wassertropfen in zwei annähernd gleich große Fragmente. „Disintegration“ wurde das genannt oder eben „fission“. Meitner und Frisch schätzen auch bereits den enorm hohen Energiebeitrag ab, der bei dieser Spaltung frei werden musste. Sofort nach den Veröffentlichungen Anfang 1939 von Hahn und Straßmann bzw. Meitner und Frisch fingen viele Arbeitsgruppen auf der Welt an, die Ergebnisse zu reproduzieren. Die Gruppe um Irene Curie stellte fest, dass aufgrund zusätzlich frei werdender Neutronen auch eine Kettenreaktion denkbar wäre. Die USA trieben die Kernforschung mit großem finanziellem und technischem Aufwand voran. Bereits 1942 lief unter der Leitung von Enrico Fermi der erste Atomreaktor an. Am 6. und 9. August fanden die Atombombenabwürfe auf Hiroshima und Nagasaki statt. Meitner und Hahn sprachen sich ihr Leben lang öffentlich gegen die militärische Nutzung der Atomkraft aus.
Der Umzug des Otto-Hahn-Tischs innerhalb des Deutschen Museums ist auf Video festgehalten worden.
]]>Am Entwicklungszentrum Röntgentechnik des Fraunhofer-Instituts für Integrierte Schaltungen wurde das iPhone 3 für uns tomografiert. Aufgrund unterschiedlicher Materialien (Gold, Zinn, Kunsstoff usw.) lässt sich die Gehäusestruktur nicht darstellen. Sichtbar werden aber die einzelnen Bausteine im Inneren des Smartphones.
Auf dem Motherboard des Telefons befinden sich die meisten Komponenten zur Daten- und Signalverarbeitung sowie der interne Speicher. Eine Abdeckplatte separiert in der Regel das Motherboard vom inneren Gehäuse. Weitere Module sind durch Koaxialkabel mit dem Motherboard verbunden. Im Inneren werden hauptsächlich Steckverbindungen verwendet und es befinden sich kaum Schrauben an den Platinen. Viele Komponenten sind verklebt und lassen sich daher nur sehr schwer von einander trennen.
Bild- und Helligkeitssensoren sind die Herzstücke der Kamerafunktion von Smartphones. Die Umwandlung eines Bildes in elektrische Signale erfolgt durch CCD-Sensoren (Charged-Coupled-Device). Die Bildsensoren bestehen aus einer Matrix einer großen Zahl lichtempfindlicher Zellen und jede dieser Zellen wirkt als einzelner Kondensator für ein Pixel des aufgenommenen Bildes.
Im Jahr 1990 noch ging man von 10 Millionen Abonnenten des GSM-Systems für das Jahr 2000 aus. Die Schätzung galt damals als verwegen, aber letztendlich waren es dann über 400 Millionen. GSM steht für Global System for Mobile Communication. Eine schnellere Weiterentwicklung war der UMTS-Standart (Universal Mobile Telecommunications System). Mit LTE (Long Term Evolution) wird ein neuer Mobilfunkstandard etabliert, der Downloadraten von bis zu 100 Megabit pro Sekunde ermöglicht. Über die Mobilfunksignale wird oft auch die Ortung des Gerätes unterstützen, indem die Daten der Satelliten für den GPS (Global Positioning System) Empfänger vermittelt werden.
„Jedermann wird sein eigenes Taschentelefon haben, durch welches er sich, mit wem er will, wird verbinden können. Die Bürger der drahtlosen Zeit werden überall mit ihrem Empfänger herumgehen, der irgendwo, im Hut oder anderswo, angebracht sein wird […]. Das Senden von Bildern und Fotografien an in Bewegung befindliche Schiffe, Züge, Autos und Luftschiffe wird einfach […] drahtlos von statten gehen.“ Dies sagte der US-Journalist Roberst Sloss 1910 in einem Beitrag „Das drahtlose Zeitalter“ für das Buch „Die Welt in 100 Jahren“ voraus und erkannte sogar, dass Hüte wieder in Mode kommen würden. Wie die Welt in weiteren 100 Jahren aussehen wird, wird bestimmt noch viel spannender als das Recycling von Modetrends.
]]>Am Abend durften sie jeweils in einem 15 Minuten Vortrag die oft komplizierte Technik der allgemeinen Öffentlichkeit verständlich machen. Denn die beste Erfindung ist nichts wert, wenn sie von der Öffentlichkeit nicht akzeptiert wird. Alle Erfindungen sind nicht brand neu, aber sind zukunftsfähig, da sie Arbeitsplätze und Wohlstand schaffen und nicht „nur“ clevere Erfindungen sind. Genau das ist die Idee des Zukunftspreises. Hier habe ich einmal versucht die Innovationen zusammen zu fassen:
Team I
Binaurale Hörgeräte – räumliches Hören für alle
oder auch
Die Brille für die Ohren kann jetzt auch 3D
Wer schlecht sieht und keine Kontaktlinsen oder gar eine Lasik-Operation verträgt lässt sich vom Augenarzt und Optiker eine Brille anpassen. Auf die Idee zu einem Monokel zu greifen kommt heute wohl keiner mehr. Auch zwei Monokel machen nur Sinn, wenn sie verbunden und die Gläser auf das jeweilige Auge so angepasst sind, dass räumliches Sehen wieder ermöglicht ist; aber dann sind wir ja ohnehin schon wieder bei der Brille.
Das Team um Prof. Dr. rer. nat. Dr. med. Birger Kollmeier, Prof. Dr. rer. nat. Volker Hohmann (beide Carl von Ossietzky Universität Oldenburg) und Dr.-Ing. Torsten Niederdränk (Siemens AG) haben genau diese Logik auf Hörgeräte angewandt und so räumliches Hören für Hörgeräteträger ermöglicht. Der eigentliche Mehrwert für Menschen mit Schwierigkeiten beim hören liegt aber ganz klar in der Inklusion in das soziale Leben.
Jeder Sechste leidet in Deutschland unter vermindertem Hörvermögen; bei Menschen über 60 Jahren ist dies sogar jeder Zweite. Und lauter ist nicht gleich besser, genauso wie heller nicht gleich besser ist, wenn man schlecht sieht. Der Nachhall in Räumen oder mehrere durcheinanderredende Menschen und laute Hintergrundgeräusche bleiben trotz Hörhilfe ein großes Problem, da sie ein diffuses Hörbild zeichnen, wie eine Milchglasscheibe für die Augen. Das räumliche Hören mit zwei Ohren funktioniert dadurch, dass die Richtung und das Aussondern von Hall durch die Kombination von zwei Ohren erfolgt. Das Trennen von Nutz- und Störschall findet im Gehirn statt.
Die Innovation des Teams um Herrn Prof. Kollmeier besteht darin, dass die zwei einzelnen Hörgeräte sich nicht mehr nur auf jeweils ein Ohr konzentrieren, sondern zusammen gekoppelt als „binaurales“ Hörgerät agieren. Das Hören findet also durch einen Vergleich von rechts und links statt. Daher tauschen das linke und das rechte Hörgerät Daten per Funk untereinander aus. Mit gezielten Algorithmen entsprechend des Hörfehlers kann die Hörunterstützung ganz individuell angepasst werden. Die relevanten von irrelevanten Geräusche zu unterschieden und so nur die gewünschten durch zu lassen kann eigentlich nur dadurch übertroffen werden die dummen von den klugen Worten zu unterscheiden; aber dafür sind leider noch keine Hörgeräte in Arbeit.
Die Technik ist seit 2004 auf dem Markt und wird bereits in fast 80% aller Hörgeräte eingesetzt.
Team II
Radaraugen im All – revolutionäre Technik für Erde und Umwelt
oder auch
Die Vermessung der Erde mit einem Tandem
Genau wie bei den Hörgeräten ist auch bei Satelliten das Zusammenspiel von zwei Geräten der eigentliche Knackpunkt. Im Jahr 1904 wurde zum ersten Mal ein „Telemobiloskop“ von Christian Hülsmeyer zum Patent angemeldet. Heute heißen solche Geräte Radar. Mit Radar nach dem Fledermausprinzip (Echo erfolgt auf Sendeimpuls) kann man die Oberfläche der Erde abtasten und das unabhängig von Wetter, Wolken oder Licht. Allerdings ist dies, wie die Betrachtung der Erde mit nur einem Auge, lediglich eindimensional. Ein dreidimensionales Bild durch Radarabtastung können Prof. Dr.-Ing. habil. Alberto Moreira, Dr.-Ing. Gerhard Krieger und Dr.-Ing. Manfred Zink vom Deutschen Luft und Raumfahrtzentrum (DLR) seit dem Jahr 2010 mit dem Satellitenpaar TanDEM-X erzeugen. Die Schwierigkeit lag in dem Formationsflug der beiden Satelliten sowie der Datensynchronisation im All. Letztere geschieht im Billionstelsekunden Bereich um die Genauigkeit der Daten auf wenige Zentimeter genau erzeugen zu können. Würden die beiden Satelliten neben einander fliegen, so würden sie irgendwann kollidieren. Um das zu vermeiden müsste oft gegengesteuert werden, was aber Treibstoff verbraucht der maximal ein Jahr halten würde. Übereinander ist auch nicht möglich, da sich der Abstand aufgrund der unterschiedlichen Längen der Umlaufbahnen sehr schnell sehr stark vergrößern würde. Die Lösung ist der Formationsflug in einer Doppel-Helix um den Erdball. Der Abstand zwischen den Satelliten bleibt somit konstant und stabil. Meisterleistungen für die das Team um Prof. Moreira für den Deutschen Zukunftspreis nominiert ist.
Mit den so erzeugten Daten kann man den Verkehr auf den Straßen besser lenken, ideale Standorte für Offshore-Windparks erkunden, den Klimawandel anhand von Veränderungen der Gletschern oder Meeresströmungen beobachten und noch viel mehr. Die Genauigkeit liegt im Zentimeterbereich, so dass sogar die Boden-Absenkung durch Grundwasserverlust beobachtet werden kann. Derzeit dauert es etwa ein Jahr, um den Erdball einmal komplett zu erfassen. Das Nachfolgeprojekt TanDEM-L schafft dies innerhalb einer Woche zwei mal (!), so dass auf Veränderungen deutlich schneller und besser reagiert werden kann. Eine Verbesserung um Faktor 100! In etwa fünf Jahren soll es soweit sein.
Team III
„Integrity Guard“ – Sicherheit für die vernetzte Welt
oder auch
Der persönliche Türsteher im Pass
Es fällt vielen Menschen immer noch schwer sich an einen Chip im Reisepass oder auch an seine Bankdaten auf einer Plastikkarte gespeichert zu gewöhnen. Vom Bezahlen mit dem Mobiltelefon mit der Hilfe von Near Field Communication (NFC) ganz zu schweigen. Von Hackerangriffen und sonstigen Attacken auf unsere Sicherheit im digitalen Leben hört man leider viel zu oft. Um so schöner, dass es auch gute Neuigkeiten von der anderen Seite gibt; von der Seite, die uns diese bequemen Alltagshilfen sicher machen.
Dr. Stefan Rüping, Marcus Janke und Andreas Wenzel von der Infineon AG haben den derzeit sichersten Standard für die Verschlüsselung sensibler Daten entwickelt und diesen im Zentrum der Mikrochips verortet.
Der Status Quo beinhaltete zwei elementare Einschränkungen bei der sicheren Chip-Architektur: 1) Unverschlüsselte Daten im Herzen des Sicherheitschips und 2) eine einzige Recheneinheit beim Daten verarbeitenden Prozessor. Die Innovation beim „Integrity Guard“ besteht in der Verwendung von zwei Rechenwerken, die sich gegenseitig kontrollieren und so verschlüsselte Daten im Prozessorkern ermöglichen.
Man muss prinzipiell unterscheiden zwischen der Art und Weise, wie man Daten speichert und wie man diese verwendet. Genau wie man unterscheiden muss, wie schwierig es ist ein Auto aufzubrechen und was man damit macht. Stellt man sich den Chip mit den sensiblen Daten als Auto vor, so ist es durch Integrity Guard quasi unmöglich das Auto aufzubrechen. Wenn der Fahrer und Besitzer des Wagens sich allerdings dazu entschließt die Gestalten mit ausgestreckten Daumen am Wegesrand mitzunehmen, kann auch die beste Wegfahrsperre nicht mehr helfen.
Der elektronische deutsche Personalausweis verwendet diese Technologie bereits. Insgesamt wurden schon über 80 Millionen solcher Chips verkauft – ein klarer Vertrauensbeweis und eine gute Nachricht im Dschungel der Nachrichten über Hacker-Angriffe. Aufklärung mit dem sicheren Umgang mit seinen Daten kann das nicht ersetzen. Hier müssen aber wohl andere ansetzen.
Team IV
Brillante Videos überall – effiziente Codierung mit internationalen Standards
oder auch
Wie Hollywood zu mir nach Hause kommt
Als Mary Poppins in ihrem neuen Zuhause einzieht zaubert sie unendlich viele Dinge aus ihrer Tasche hervor, auch wenn diese viel größer sind, als die Tasche selber. Die Kinder bekommen große Augen bei diesem “Zaubertrick” und der Zuschauer vor dem Fernseher schmunzelt vergnügt bei dieser Idee.
Auch wenn diese Szene aus dem Film Klassiker wohl nicht die Inspiration für Prof. Dr.-Ing. Thomas Wiegand, Dr.-Ing. Detlev Marpe und Dr.-Ing. Heiko Schwarz war, so kommt ihre Innovation dieser Idee vom effizienten verpacken großer Daten sehr nahe.
Das mp3 Format hat im Musik Bereich das gemacht, was die Wissenschaftler vom Fraunhofer-Institut für Nachrichtentechnik, dem Heinrich-Hertz-Institut, Berlin und der Technischen Universität Berlin für bewegtbild Formate gelungen ist. Sie haben einen weltweiten Industriestandard gesetzt um Filme so effizient zu komprimieren, dass man sie quasi überall hin übertragen kann. Bewegte Bilder stellen etwa die Hälfte des Internet-Traffics dar. Man kann also sagen, dass jedes zweite Byte im Internet mit diesem Standard übertragen wird, für den das Team um Prof. Wiegand für den Deutschen Zukunftspreis nominiert ist. Der Standard hat den Namen H.264/AVC.
Für Film- und Fernsehproduktionen, Telemedizin, Videokonferenzen, E-Learning etc. werden Bilder über Satelliten, Mobilfunk, Internet, Kabel und Speichermedien auf Displys, Computer, TV-Geräte, Smartphones und Tablet-Computer übertragen. Um das Originalsignal zu übertragen bräuchte man ungefähr 600 MBit. Es stehen aber meisten nur etwa 10 MBit zur Verfügung – eine Kompression auf 1,7% ist notwendig. Auf den Geräten soll man aber dennoch HD Material sehen können. Um dies zu erreichen passiert folgendes: Die Sequenz von Bildern aus denen ein Videosignal besteht wird analysiert und durch den Abgleich der Bilder auf Ähnlichkeiten werden Vorhersagen für die kommenden Bilder getroffen. Dies passiert nicht für das Bild als ganzes sonder für gerasterte Blöcke des Bildes. Diese Blöcke können in der Größe variieren, um bessere Vorhersagen treffen zu können. Darüber hinaus werden noch weitere Codierungsmethoden angewandt, um eine so hohe Komprimierung zu erreichen. Natürlich gibt es hierbei Nachteile wie bei dem mp3 Format. Prof. Wiegand hatte seiner Großmutter einmal erklärt was er so arbeitet. Ihre Antwort war: „Und Du machst die ganze Arbeit und am Ende sieht es schlechter aus als vorher?“ Für den Betrachter sind die Qualitätsverluste praktisch nicht bemerkbar und die übertragene Qualität ist wirtschaftlich interessant genug, um deutlich zukunftsfähig zu sein. Zum Beispiel verwendet jeder Blu-ray Player diesen Standard. Europas größtes Blu-ray Presswerk steht in Deutschland und Deutschland ist auch weltweit führend in der Herstellung von Blu-ray-Disc-Produktionsanlagen. Das sind mehr als 1000 Arbeitsplätze. Weitere 1000 Arbeitsplätze gibt die Deutsche Telekom für ihr T-Home Entertain Segment an, welches auch komplett mit diesem Standard arbeitet.
Drei der vier Arbeiten basieren auf der Auswertung von Interferenzen was die kolossale Bedeutung dieses Phänomens verdeutlicht. Die Projekte decken auch vier wichtige Herausforderungen unserer Zeit ab: Alternde Gesellschaft, Klimawandel, digitale Sicherheit und effiziente Kommunikation. Egal, wer am 28. November mit dem Deutschen Zukunftspreis geehrt wird. Es tut sehr gut zu wissen, dass es nach wie vor so schlaue und neugierige Köpfe gibt, die mit Inspiration und Transpiration an der Tradition der Konstruktion von Dingen mit Mehrwert weiterarbeitet.
]]>Viele Beschäftigte der Werkstätten arbeiten schon sehr lange im Haus und wissen es zu schätzen, daß hier nicht in Serie produziert wird, sondern Unikate gefragt sind, die mit Akribie und Kreativität hergestellt werden.
Am 12. Mai 2012 bieten wir interessierten Besuchern die Möglichkeit, “hinter die Museumskulissen” zu blicken: Die Museumswerkstätten öffnen an diesem Tag von 8.00 – 18.00 Uhr ihre Türen für eine Reihe von Fachführungen. Besucht werden in den ca. zweistündigen Führungen unterschiedliche Werkstätten aus den Bereichen Bauunterhalt, Demonstrationsbau und Restaurierung. Die Teilnahme ist kostenfrei, allerdings ist eine Anmeldung bis zum 20.4.2012 erforderlich. Die Teilnehmerzahl ist begrenzt; bei zu vielen Anmeldungen werden die Plätze ausgelost.
Blick in die Bildhauerwerkstatt des Deutschen Museums
Die Modellbauwerkstätte zählt zu den größten Werkstätten im Deutschen Museum. Hier werden die Modelle und Dioramen aus den Sammlungen instand gehalten und restauriert oder neue Modelle gebaut. Dabei kommt es auf das kleinste Detail an.
Der Leiter der Modellbauwerkstatt, Franz Huber im Gespräch mit Andrea Bistrich:
Modellbau im Deutschen Museum – da denkt man möglicherweise als Erstes an die vielen wunderbaren Schiffs- und Flugzeugmodelle, die in den Sammlungen ausgestellt sind.
Der Modellbau im Deutschen Museum ist sehr vielfältig und reicht vom Schiffsmodell, vom Flugzeugmodell, dem Flyer I der Gebrüder Wright zum Beispiel, den wir zum 100-jährigen Jubiläum gebaut haben, über die ISS-Raumstation, den Benz-Motorwagen, über ein Vogelflugmodell, das die Flügelbewegungen eines Vogels zeigt, eine begehbare Körperzelle, bis zu einem Baustellenmodell der Normandiebrücke. All diese Modelle werden bei uns in verschiedenen Maßstabsgrößen von 1:200 verkleinert oder bis 350.000:1 vergrößert gebaut.
Was ist das Besondere am Modellbau im Deutschen Museum?
Grundsätzlich kann man sagen, ist der Modellbau bei uns im Haus in einer sehr guten Position. Anders als in der freien Wirtschaft, wo der ständige Druck besteht, möglichst günstig und schnell zu produzieren und der Anschauungsmodellbauer sein Modell alleine anfertigt, selber lackiert und auch die Beschriftung herstellt, haben wir den großen Vorteil, dass wir uns auf die technische und mechanische Komponente im Modellbau konzentrieren können.
Wir können auf die Zusammenarbeit mit 24 verschiedenen eigenständigen Werkstätten, die hier unter einem Dach sind, zählen. Da gibt es die Malerwerkstätte, die die Farbgestaltung übernimmt, die Mechaniker, die Elektriker und Elektroniker, die Installateure, die Schneiderinnen, die Siebdruckwerkstätte, die Schlosserei, die Schreinerei und viele weitere die uns unterstützen – nicht zuletzt die Bildhauerinnen und Bildhauer, die den künstlerischen Part übernehmen, indem sie die Figuren, das Gelände und besondere Oberflächen modellieren.
Unsere Modelle müssen sehr solide gefertigt sein, weil sie nicht nur zwei Wochen auf einer Messe präsentiert werden, sondern jahrzehntelang in der Sammlung stehen. Das erfordert einen ganz anderen Materialeinsatz. Das besondere an unseren Werkstätten ist, dass wir über ein museumsspezifisches Fachwissen verfügen. Gemeinsam sind wir für die Restaurierung, die Instandhaltung und die Neugestaltung der Objekte und Ausstellungen zuständig.
Was sind die ersten Schritte, bevor Sie ein Modell bauen?
Zunächst kommt die Konservatorin oder der Konservator mit einer Idee zu uns. Meist bringt sie oder er dazu Fotos oder alte Abbildungen oder Skizzenblätter mit und fragt, ob wir daraus ein Modell bauen können.
Und dann müssen Sie weiterspinnen …
Genau. Da kann es dann passieren – so wie beim Modell für die Rialtobrücke -, dass ein Dreierteam nach Venedig fährt und schaut, ob es Pläne und Unterlagen bekommt. Vor Ort wird dann vermessen, fotografiert und skizziert. Wenn man die einzelnen Informationen anschließend im CAD-Programm (Programm für computerunterstützte Entwürfe) zusammensetzt, merkt man recht schnell, ob tatsächlich alles passt oder nicht.
Können Sie prinzipiell jedes Modell bauen? Oder gibt es klare Grenzen?
Der Modellbau kann fast alles! Spaß beiseite. Tatsächlich können wir hier in der Museumswerkstatt so vieles realisieren, weil wir einfach sehr gute Bedingungen im Hause haben, was in der freien Wirtschaft nicht möglich wäre.
Ein ganz wichtiger Faktor, der den Erfolg unserer Arbeit ausmacht, sind die Vorrecherchen, das Einholen von Informationen. Da ist jeder im Team gefordert. Zum Teil sind die Recherchen recht aufwendig, bis man überhaupt loslegen kann. Für die Abteilung Drucktechnik, in der auch industrielles Buchbinden gezeigt werden sollte, waren wir zum Beispiel in einer Traditionsbuchbinderei in der Schweiz. Wir haben lange suchen müssen, bis wir eine alte Drahtheftmaschine fanden, die noch im Einsatz war. Nach so gründlichen Recherchen nehme ich ein Buch ganz anders in die Hand: ich schaue, wie der Rücken, wie die Bindung gemacht ist und vieles mehr.
Wenn wir ein Modell in einem entsprechenden Maßstab bauen, dann wird jedes Detail sichtbar und muss stimmen. Manchmal ist es auch so, dass man, nachdem man sämtliche Unterlagen, Pläne und Skizzen zusammengetragen hat, erst bei der praktischen Umsetzung merkt, dass etwas nicht ganz eindeutig ist. Die Tücke liegt oft im Detail! Das merkt man in dem Moment, wo man etwas ins Dreidimensionale umsetzt; da werden unter Umständen Zusammenhänge sichtbar, die einem auf dem Papier nicht aufgefallen sind.
Bei dem Wright-Flugzeugmodell beispielsweise ist plötzlich ein kleiner Hebel mit Schnurverbindung aufgetaucht, über den wir bisher noch nichts gehört hatten. Aber wie sich herausstellte, war das etwas ganz Entscheidendes, denn den Gebrüdern Wright war es anscheinend bewusst, dass die Motorleistung nur ausreicht, wenn sie mit Vollgas starten. Und sie wussten wahrscheinlich, dass der Mensch von Natur aus eher zögert, statt gleich Vollgas zu geben. Sie bauten daher einen Mechanismus ein, bei dem in dem Moment, wenn der Motor gestartet wird, sich die Zugschnur automatisch aushängt, so- dass der Motor immer auf Vollgas läuft.
Das sind so nette Details, die man entdecken kann. Und darüber hinaus erfährt man auch sehr viel über die Menschen, die damals so enorm viel Energie, Ehrgeiz und mitunter sogar ihr Leben aufs Spiel gesetzt haben, nur um für einige Augenblicke knapp vom Boden abzuheben.
Haben Sie trotz intensiver Vorbereitungen auch schon mal etwas nicht so hinbekommen, wie Sie es sich vorgestellt hatten?
Das ist auch schon passiert. Es gab zum Teil Versuchsaufbauten, bei denen über Monate hinweg ständig Probleme aufgetreten sind, mit denen wir nicht gerechnet hatten. Und dann kann es passieren, dass wir von diesem Versuchsmodell Abstand nehmen und sagen, wir setzen das lieber nicht in der Ausstellung ein. Im Dauerbetrieb ist das Modell hoher Beanspruchung ausgesetzt, da kommen Einflüsse wie Staub, Temperaturschwankungen etc. hinzu, die über lange Zeiträume hinweg enorme Schwierigkeiten bereiten können.
Gibt es auch den umgekehrten Fall: Sie entdecken, dass das Modell unerwartet gut gelungen ist?
Ja, auch das kommt immer wieder vor. Wir haben die Möglichkeit, genügend Zeit in ein Projekt zu investieren – das wirkt sich auch auf das Ergebnis aus.
Wenn man dann anschließend in der Sammlung beobachtet, wie der Besucher auf das eine oder andere Modell reagiert und etwas besonders loben, dann motiviert das enorm. Es ist ein schönes Erfolgsgefühl, das nicht zuletzt auch die Begeisterung für die nächsten Aufgaben steigert.
Kreativ arbeiten kann man erst, wenn man die Zeit dazu erhält. In dem Moment, wo der Zeitdruck zu groß ist, wird jede Form der Kreativität abgewürgt, weil man dann vom Denken her ganz anders an eine Sache herangeht. Sobald der zeitliche Rahmen sehr eng ist, müssen wir bei der Ausführungsqualität abspecken.
Worauf kommt es beim Modellbau an?
Ein Modell oder Diorama in einer naturalistischen Ausführung zu bauen, ist immer eine Gratwanderung. Wir müssen schon sehr darauf achten, dass es nicht ins Kitschige abfällt. Es gibt da zum Beispiel einfache Regeln, dass man keine Glanztöne oder überzogenen Farbtöne verwendet.
Eine weitere Herausforderung ist es, den richtigen Maßstab für ein Moulegen. Dabei sind zwei Fragen entscheidend: Wie groß muss mein Modell sein, um eine bestimmte Technik oder einen bestimmten Vorgang am besten zu veranschaulichen? Und wie viel Platz steht dazu zur Verfügung? Es gibt bestimmte Maßstabsgrößen, die für das menschliche Auge am natürlichsten wirken. Zum Beispiel der Maßstab 1:33.
Die Begeisterung für die dreidimensionale Nachbildung im Kleinen hatte schon unser Gründer, Oskar von Miller, Anfang des 20. Jahrhunderts erkannt. Schon damals waren die Schaukästen oder Dioramen bei den Besuchern sehr beliebt. Ich bin mir sicher, dass wir eine der wenigen Modellbauwerkstätten auf der Welt sind, die die Tradition des Dioramenbauens auch heute noch weiterleben lassen.
Modelle sind dreidimensionale Momentaufnahmen, die – möglichst naturalistisch – eine bestimmte Arbeits- oder Lebenssituation wiedergeben. Der Betrachter soll einen realistischen Eindruck davon erhalten und diesen Eindruck mit nach Hause nehmen.
Wenn man als Betrachter vor einem Diorama steht, hat man das Gefühl, man selbst befinde sich darinnen. Der Betrachter erhält ein Gefühl von dem dargestellten Raum – sei es eine alte Gusshalle, eine Werkstatt oder eine Industrieanlage. Allein schon dieser Eindruck kann im idealen Fall dazu motivieren, sich weitere Informationen über das Dargestellte einzuholen.
Das ist der eigentliche Wert eines Modells: Es birgt stets die Möglichkeit, sich weiterzubilden – unabhängig vom Bildungsstand ist es eine entspannte Form der Information.
Wann würden Sie ein Modell als gelungen bezeichnen?
Wenn meine Kollegen oder ich ein Modell beurteilen, dann schauen wir auf jedes Detail: Passt die Farbgestaltung? Ist der der Maßstab oder der Ausschnitt grundsätzlich gut gewählt? Stimmen Perspektive und Beleuchtung? Das geht bis zur richtigen Materialauswahl, zum Beispiel beim Holz: Hier müssen Jahresringabstand und Holzstruktur stimmen. Damit es so realistisch und authentisch wie möglich wirkt, verwenden wir Astmaterial. All diese Feinheiten machen das Gesamtbild eines Modells aus. Wenn wir beispielsweise einen Beschneidehobel von einer Buchbinderei nachbauen, dann versuchen wir- wenn es der Maßstab zulässt und solange es nicht aufgrund der Maserung den Maßstab zerstört – auch das entsprechende Holz zu verwenden. Und auch das metallene Schneidemesser ist in der Regel so geschliffen, dass es auch im Kleinen noch funktionsfähig ist.
Ob ein Modell tatsächlich als gelungen bezeichnet werden kann, lässt sich aber erst feststellen, wenn man beobachtet, wie die Besucher darauf reagieren – und natürlich auch die Kolleginnen und Kollegen.
Eines der beliebtesten Modelle bei den Besuchern ist die begehbare Zelle in der Ausstellung Pharmazie. War das auch eines Ihrer schwierigsten Projekte?
Ja, das kann man sagen. Die Körperzelle war eine große logistische Herausforderung. An einem so riesigen Projekt wie der Körperzelle, die eine 350tausendfache Vergrößerung ist und zehn Meter lang und sechs Meter hoch gebaut wurde, waren viele Leute gleichzeitig beteiligt: Bildhauerinnen und Bildhauer, Elektriker, Maler, Schlosser, Modellbauer und viele andere. Das Ganze musste zeitlich ineinandergreifen und machbar bleiben.
Schön ist es auch zu sehen, mit welcher Begeisterung alle Beteiligten dabei waren. Da werden dann auf einmal Dinge möglich, die unter normalen Umständen nicht realisierbar wären.
Bei der Eröffnung habe ich mich bewusst gleich hinter den Eingang gestellt, um die Reaktionen der ersten Gäste zu beobachten. Wenn auch vorher das eine oder andere schwierig war und viel Arbeit bereitet hat – die begeisterte Reaktion der Besucher hat in jedem Fall dafür entschädigt.
Haben Sie ein Lieblingsmodell?
Sehr gerne mag ich das Baustellenmodell der Normandiebrücke, den Flyer I der Gebrüder Wright oder auch den Benz-Motorwagen.
Es ist immer wieder schön, das Normandiemodell mit seinem über sechs Meter hohen Pylon zu sehen. Für einen Modellbauer ist das natürlich spektakulär. Noch dazu in einem 40stel Maßstab.
Nicht zuletzt ist auch die begehbare Körperzelle zu erwähnen. Ich genieße es nach wie vor, wenn ich in der Sammlung unterwegs bin, dort vorbeizuschauen und einen Blick hineinzuwerfen. Denn das ist kein Objekt, das nur für kurze Zeit gebaut wurde und dann irgendwo im Keller oder im Depot landet. Die Zelle wird intensiv betrachtet, oft auch bewundert – und das ist ein schönes Gefühl.
Brechende Dämme, Flutwellen, Evakuierungsmaßnahmen, der überfüllte New Orleans Superdome – das waren die Bilder, die in den unmittelbaren Tagen nach dem Hurrikan Katrina um die Welt gingen und einen Eindruck jener Katastrophe vermittelten, die weite Teile der amerikanischen Golfküste und von New Orleans im August 2005 in beispielloser Weise verwüstete. Für die Bewohner, für die in den Wochen und Monaten danach die mühseligen Aufräumarbeiten begannen, wurde allerdings bald ein anderes Bild allgegenwärtig und Ausdruck dessen, was geschehen war: In der ganzen Stadt säumten unzählige Kühlschränke die Ränder der Straßen und Vorgärten.
Aus der Ferne erinnerte das Bild an die für die Südstaaten charakteristischen Friedhöfe mit ihren schiefen, weißen Grabsteinen. Aus der Nähe wurde etwas anderes sichtbar: Die weißen Kühlschränke, ihrer ursprünglichen Funktion entzogen, waren zum Schwarzen Brett geworden, zu Flächen für Zeichnungen, Graffiti und emotionale Botschaften. Ein Kühlschrank trägt ein eindringliches “Do not open!” (Nicht öffnen!), in dicker schwarzer Graffiti-Schrift quer über Tür und Eisfach. Ein anderer verkündet: »Bush, you’re fired« (Bush, du bist gefeuert). Ein dritter äußert in einer Sprechblase den wehmütigen Wunsch “I want to evacuate too” (Ich will auch evakuiert werden). Drei unter Tausenden im New Orleans der Post-Katrina-Ära. Was war passiert?
Mit Katrina waren nicht nur die Überschwemmungen, sondern auch der Zusammenbruch des Energienetzes gekommen. Nur wenige Bewohner hatten die Chance gehabt, vor der Evakuierung ihre Kühlschränke zu leeren, und so blieben die oft bis zum Rand gefüllten Haushaltshelfer ihrem Schicksal überlassen. Diejenigen, die nicht von den Überschwemmungen des Sturms mitgerissen wurden, erlagen bald anderen Naturprozessen: Ohne die Kühlfunktion verdarb das Essen innerhalb kürzester Zeit. Fleisch, Milchprodukte, Obst und Gemüse, ganze Mikrowellenmahlzeiten, die in den ausladenden und auf Vorratshaltung ausgelegten amerikanischen Modellen in rauen Mengen Platz finden, erlagen Schimmel und Maden. Wer in sein Heim zurückkehrte und das ehemalige Herzstück der Küche öffnete, erhielt nicht selten den Eindruck, die Büchse der Pandora aufgemacht zu haben: “Parfum New Orleans après Katrina” (Der Duft von New Orleans nach Katrina) bewarb ein Kühlschrank seinen Inhalt – eine sarkastische Beschreibung des üblen Geruchs, den die verrotteten Waren im Inneren verströmten. Hinter dem unmittelbaren Schock beim Öffnen der Geräte verbarg sich eine akute Gefahr für die Gesundheit von Mensch und Natur im Katastrophengebiet. War die Menge an Schutt und Müll durch zerstörte Gebäude, Straßen und Bäume schon groß genug, so stellten die “white-goods”, elektrische Haushaltsgeräte, die Aufräummaßnahmen vor eine zusätzliche Herausforderung: Sie bargen toxische Stoffe – generiert zum einen durch die verweste Nahrung, zum anderen aber auch aufgrund von Stoffen in den Bauteilen der Geräte selbst. Die Beraterin für Umweltfragen, Linda Luther, erläuterte in ihrem Kongressreport aus dem Jahr 2008 die Entsorgungsproblematik von Haushaltsgroßgeräten nach Katrina: Zu den Problemstoffen gehört beispielsweise Freon, ein Halogenkohlenwasserstoff, der unter enormem logistischen und zeitlichen Aufwand aus den Geräten entfernt werden muss. Der Prozess selbst ist Standard bei der Entsorgung von “white goods”. Aber die Notwendigkeit einer Entsorgung Tausender solcher Geräte gleichzeitig bedeutete den Ausnahmezustand – und führte auf einen Schlag vor Augen, welche Mengen an potenziell schädlichem Sondermüll unseren Alltag begleiten.
Der erste Schritt der Entsorgung wurde meist von den Besitzern selbst vorgenommen. Sie verfrachteten ihre Kühlschränke auf die Gehsteige, wo sie auf ihre Abholung warteten, die jedoch wegen fehlender Kapazitäten für eine fachgerechte Entsorgung oft erst nach Monaten erfolgte.
Der Anblick dieser Geräte, die bislang Nahrung im Überfluss gekühlt und gesichert hatten und nun deplatziert vor den Häusern standen, versinnbildlichte vielen, wie tief die Natur in den Alltag der Menschen eingedrungen war. Weder die modrigen Sofas, die auf Abholung warteten, noch die Mengen an dreckigem Schlamm, der aus den Häusern auf die Straßen geschaufelt werden musste, vermittelten das, was der Anblick der Kühlschränke signalisierte: den Verlust von Normalität und Sicherheit.
Die besondere symbolische Wirkung der Kühlschränke auf den Straßen wird verständlich, wenn man einen Blick auf die Geschichte dieser Haushaltshelfer wirft. Insbesondere Kühlschränke waren das haushaltstechnische Wunder des frühen 20. Jahrhunderts. Die Möglichkeit, Essen zu konservieren, erweiterte nicht nur die Auswahl an zugänglichen Lebensmitteln, sondern bedeutete auch Versorgungssicherheit und Unabhängigkeit.
In den USA der Nachkriegsjahre wurden Kühlschränke wie kein anderes Gerät zum Symbol kapitalistischen Wohlstands und Überflusses. Im neuen Jahrtausend ist mindestens einer der weißen Riesen die Norm in jedem amerikanischen Haushalt und eine absolute Selbstverständlichkeit. Unsichtbar und unaufhörlich gespeist von Elektrizität, ermöglichen sie dem Menschen, seinen eigenen kleinen klimatischen Mikrokosmos zu steuern, oder, wie die Geografin Helen Watkins es nennt, ein »Klima-aus-der-Kiste«. Sie schaffen einen Komfort, der so alltäglich und natürlich für uns ist, dass er erst in unser Bewusstsein rückt, wenn eine Klimakatastrophe wie Katrina ihn zum Stillstand bringt.
Doch für die Katrina-Kühlschränke blieb es nicht bei einer bloßen Klassifizierung als toxischer Müll. Auf der Straße erfuhren die einstigen Haushaltshelfer einen vergleichslosen Rollenwechsel. Unter den Nachwehen von Katrina wurden ihre steril-weißen Oberflächen, einst Versprechen von Modernität und Hygiene, zur Leinwand für spontane Zeichnungen, politische Parolen und persönliche Nachrichten. Waren sie ehemals neutrale Produkte der Massenfertigung, wurden sie auf einmal individuelle Sprachrohre der Bewohner von New Orleans und trugen statt ihrem beruhigenden Surren in der Küchenecke nun Gedichte, wütende Parolen, Suchanzeigen und schwarzen Humor auf die Straßen von New Orleans.
Was die ausrangierten Kühlschränke bereits durch ihre deplatzierte Anwesenheit symbolisierten, wurde von ihren Besitzern auf ihrer Oberfläche weitergeführt, so dass die ehemaligen Haushaltsgeräte nicht bloß zu Müll, sondern letztlich zu einer Form politisch-populärer Kunst wurden. Bereits sechs Wochen nach dem Unglück zählte das U. S. Army
Corps of Engineers (USACE) auf einer Halde in den Außenbezirken von New Orleans, die als Sammelstelle für die Kühlschränke genutzt wurde, 5500 Stück, eine Zahl die noch auf 250 000 steigen sollte.
Wer heute, sieben Jahre später, auf der amerikanischen Seite von Google die Begriffe “Katrina” und “Kühlschrank” eingibt, stößt auf Angebote für kleine Magneten mit Bildern der Katrina-Kühlschränke. Die kann man sich dann wiederum auf seinen neuen Kühlschrank kleben. Eine Erinnerung vor allem an die Katastrophe, die überstanden ist. Eine kleine Erinnerung aber vielleicht auch an die Rolle der elektrischen Haushaltshelfer, die nun wieder wie selbstverständlich den Alltag begleiten.
Weitere Kühlschrankbilder findet man hier.
Von Simone Stirner
Simone Stirner (B.A.) ist Master-Studentin der Literatur- und Politikwissenschaft an der Ludwig-Maximilians-Universität München und Research Scholar an der University of California, Berkeley. Seit Herbst 2010 arbeitet sie als Hilfskraft am Projekt “Objekte des
Energiekonsums” im Deutschen Museum. Zu diesem Projekt wird heute die Ausstellung “Kabelsalat – Energiekonsum im Haushalt” eröffnet.
Mehr zu den Kühlschränken von New Orleans:
Katheryn Krotzer Laborde, Do Not Open:
The Discarded Refrigerators of Post-Katrina New Orleans, Jefferson 2010.
Die Neuerwerbung: ein Hansa-Lloyd Elektroschlepper der Hansa Lloyd AG Bremen, Baujahr 1924
Denn Elektrofahrzeuge sind bekanntlich keine neue Erfindung. Die ersten Versuchsfahrzeuge bauten schon 1881/82 die Briten Ayrton und Perry und die Franzosen Trouvé und Jeantaud. 1888 versuchte sich auch ein deutscher Geschäftsmann im Bau eines Elektrowagens, Andreas Flocken. Fotos von ihm und seiner Elektromotor-Kutsche finden sich im Archiv des Deutschen Museums. Um 1900 gab es, vor allem in den USA, dann einen kleinen Boom an Elektrowagen. Doch setzten sich im PKW-Sektor noch vor dem Ersten Weltkrieg die sportlicheren Benziner gegen die Konkurrenz durch. Seither hatten es Elektrofahrzeuge schwer, wenngleich es im 20. Jahrhundert immer wieder Anläufe gab, die leise und örtlich abgasfreie Antriebstechnik zu nutzen. Sie scheiterten regelmäßig, was zum einen an der Technik – insbesondere der unbefriedigenden Batterietechnik – zum anderen an einer Automobilkultur lag, deren Leitbild bis in die Gegenwart durch schnelle, komfortable Reise- und Allroundfahrzeuge geprägt ist.
Eine zeitweilig fast vergessene Nische fanden Elektrofahrzeuge immerhin im Nutzfahrzeugbereich. Zum Beispiel unterhielt die Reichspost in den 1920/30er Jahren eine größere Flotte von elektrisch betriebenen Paketlieferwagen. Und nutzbringend waren Elektrofahrzeuge seit jeher auch im Hallenbetrieb oder dort, wo Lebensmittel gelagert werden.
So ein elektromobiles Arbeitstier, ein Elektroschlepper der Bremer Hansa Lloyd AG (Baujahr 1924), gehört seit wenigen Wochen zum Bestand des Deutschen Museums. Wir haben ihn in Belgien bei einem Oldtimerhändler gefunden, wo er nach einer langen Geschichte als Arbeitswagen als Tauschobjekt einging. Über Jahrzehnte war das Fahrzeug als Wagen Nr. 3 für die Bremerhavener Eiswerk GmbH im Hafengebiet unterwegs und versorgte mit einem halben Dutzend anderer Elektroschlepper den Bremerhavener Fischereihafen, die Auktionshallen, die Fangflotten, aber auch Passagierschiffe mit Eis zur Kühlung von Lebensmitteln. Der letzte Eisschlepper dieser Art wurde nach Auskunft der Firmenleitung erst 2003 außer Betrieb gestellt.
Abfüllung von Eis in waggonähnliche Hänger bei den Geestemünder Eiswerken, um 1923. Der „Eiszug” wird von einem Hansa Lloyd Elektroschlepper gezogen. (Foto: Slg. Ulrich Kubisch)
Batterie-Ladestation für Hansa Lloyd-Wagen um 1925: Die Akkusätze waren in Holzkisten untergebracht, die zum Laden einfach ausgetauscht wurden, so dass die Ladezeiten die Fahrzeiten nicht beeinträchtigten. (Foto: Slg. Ulrich Kubisch)
Das 4,5 t schwere Fahrzeug wurde von einem Elektromotor auf einer Vorlegewelle vor der Hinterachse angetrieben. Der Strom kam aus austauschbaren Batteriepacks mit bis zu 40 Blei-Akku-Sätzen, die in einer zentralen Ladestation geladen wurden und die noch einmal bis zu 1 t Gewicht als Zuladung erbrachten. Dafür konnte der Schlepper gleich mehrere Anhänger mit Eis auf einmal ziehen. Dabei ging es bedächtig zu, im Normalfall war er mit höchstens 12-20 km/h unterwegs.
Die einfache Konstruktion war robust und langlebig. – Das Museumsobjekt fährt z.B. noch auf seinen alten Vollgummireifen. – Dementsprechend warb die Firma Hansa Lloyd unter anderem mit der hohen „Amortisationsquote” für Elektromobile, und wies darauf hin, dass Batterie und Bereifung „einer Qualitätsminderung überhaupt nicht unterliegen, da sie periodisch vollkommen erneuert werden, und dass ferner das Elektromobilchassis (…) so unterhalten werden kann, dass es qualitativ auf einem gewissen normalen Zustande bleibt”.
Mindestens für die robusten Elektroschlepper traf das wohl wirklich zu. Es haben mehrere Exemplare überlebt. Und für ein über 80 Jahre altes Fahrzeug befindet sich der Neuzugang unserer Sammlung in einem überraschend guten Zustand. Die Spuren der Zeit sind gleichwohl nicht an ihm vorbeigegangen. Sie machen sich insbesondere in verschiedenen Farbschichten bemerkbar, die beibehalten werden sollen. In den nächsten Monaten wird dieser Elefant unter den Elektromobilen zunächst gereinigt werden und dann ab Sommer 2012 in der Ausstellung zu sehen sein, als Repräsentant einer nützlichen, zuverlässigen und umweltfreundlichen Spezies von Elektromobilen des 20. Jahrhunderts.
Bettina Gundler – Kuratorin für Straßenverkehr im Deutschen Museum
(Weiterführende Literatur: Gijs Mom, The Electric Vehicle: Technology and Expectations in the Automobile Age. Baltimore, London 2004; Ulrich Kubisch, Borgward war nicht der Anfang: Hansa Lloyd Automobilbau. Bremen 1986).
]]>
Eines der verbreitetsten Modelle war der Weihnachtsbaumständer „Gloriosa”, der zu Weihnachten 1892 auf den Markt kam. Bereits zeitgenössische Anzeigen priesen die aufwendige, an Renaissanceformen orientierte Gestaltung des Gehäuses aus mattiertem Nussbaum an.
Von Hand mit einer Kurbel wird das Uhrwerk aufgezogen, das das Instrument betreibt. Es bewegt zwei verschiedene Mechaniksysteme: Das eine drehte die Halterung, in die der Christbaum eingespannt war. Bäume bis zu 100 Pfund Gewicht und 55 mm Stammdicke konnten verwendet werden. Das zweite ist das Musikwerk vom damals bekannten Typ „Kalliope”. Es besteht aus einem Stahlkamm, wie er auch von anderen Spieldosen bekannt ist, mit 52 oder 55 Zähnen. Diese werden von Metallstiften angezupft und damit zum Klingen gebracht. Ein Christbaumständer konnte über bis zu vier Kämme, zudem über Glocken verfügen.
Die Musik ist auf Metallplatten codiert, die als Programmträger dienen. Sie besitzen einen gezackten Rand und auf der Unterseite vorstehende Nocken. Ein Zahnrad greift in die Zacken des Randes, um die Scheibe zu drehen. Die Nocken bewegen die Metallstifte, die die Zungen des Stahlkamms anzupfen. Eine abklappbare Andruckstange mit Hartgummirollen führt die Scheibe genau über den Anzupfmechanismus.
War das Uhrwerk aufgezogen, drehte sich der Weihnachtsbaum und die auf der gewählten Platte codierte Musik erklang. Für die Verwendung an öffentlichen Plätzen wurde „Gloriosa” auch mit einem Münzeinwurf gebaut. Die Platten konnten leicht ausgewechselt werden.
Die Weihnachtsbaumständer waren ein Erfolgsmodell: Bis 1911 wurden 100.000 Stück verkauft. Wie nicht anders zu erwarten, erhielt Eckardt bald Konkurrenz, die ebenfalls verschiedene Bauweisen anboten – wobei sie die Patente durch abweichende Konstruktionen zu umgehen suchten. Andere Hersteller wählten ganz andere Wege: Die Modelle „Triumph” und „Troubadour” konnten mit jedem Spielwerk betrieben werden; eine Schnur verband den Christbaumständer mit der Achse des Spielwerks.
Da der Einsatz als Christbaumständer nur für eine sehr begrenzte Zeit möglich ist, standen auch verschiedene andere Aufsätze zur Auswahl, Blumenvasen, einfache Porzellanplatten und kunstvolle Gebilde aus mehreren Etagen mit ornamentierten Säulen. Das umfangreiche musikalische Repertoire, das für „Gloriosa” angeboten wurde, umfasste dementsprechend neben traditionellem weihnachtlichen Liedgut („Am Weihnachtsbaum die Lichter brennen”, „O Tannenbaum”, „Ihr Kinderlein kommet” und „Stille Nacht”) auch jahreszeitunabhängige Stücke, so verschiedene Choräle, aber auch leichte Musik wie das Couplet „Immer an der Wand lang” oder der Weibermarsch aus „Die lustige Witwe” und nationale Melodien wie die „Wacht am Rhein”. Sie erklangen, während sich der Aufsatz langsam drehte.
]]>
2003 fing es an. Die alte Automobil-Ausstellung auf der Museumsinsel sollte geräumt werden und der Borgward P 100, das Goggomobil, der Opel Laubfrosch und all die anderen Preziosen in das zu eröffnende Verkehrszentrum auf der Theresienhöhe umziehen. Im Rahmen des Umzugs stellte man fest, dass die Mottenpopulation stark zugenommen hatte. Ein Problem, das auch bei anderen Museen zeitgleich beobachtet wurde. Was tun?
Fünf Fragen zu Motten im Museum an Elisabeth Knott, Leiterin der Abteilung Technik, die in Zusammenarbeit mit den Werkstätten für Schutz und Instandhaltung aller Objekte im Deutschen Museum verantwortlich ist.
Warum braucht das Museum einen Holzwurmflüsterer?
Als Museum haben wir immer wieder Probleme mit Kleidermotten. In vielen unserer Objekte, wie beispielsweise in Kutschen, Autos und Eisenbahnen sind Naturmaterialien wie Wolle, Seide und Rosshaar vorhanden. Die enthalten Keratin und das gehört einfach zu den Leibspeisen der Motten. 2003 gab es einen besonders starken Befall, der übrigens zeitgleich auch in anderen Museen bemerkt wurde. Zuerst haben wird die Motten mit Stickstoff bekämpft. Dazu wurden die Fahrzeuge in Alufolie gesteckt und über zwei bis drei Monate immer wieder mit Stickstoff behandelt. Danach waren sie „entwest”, wie man so schön sagt, also frei von Motten.
Nach dem Umzug in das Verkehrszentrum kamen die Motten jedoch wieder zurück. Die Sitckstoffbehandlung haben wir gemeinsam mit Stephan Biebl durchgeführt. Er betreibt auch Schädlingsbekämpfung mit Nützlingen, ein Kind hat ihn daher einmal „Holzwurmflüsterer” genannt. Er schlug vor, den erneuten Mottenangriff mit Nützlingen zu bekämpfen. Als erstes Museum schlugen wir 2007 diesen Weg ein, mittlerweile findet diese Methode in mehreren Häusern Verwendung. Gift kam für uns in einer Ausstellungshalle nie in Frage, der Einsatz von Stickstoff ist teuer und aufwändig, wir waren also bereit etwas Neues zu versuchen.
Wie läuft Mottenbekämpfung mit Nützlingen ab?
Stephan Biebl hat in unserem Fall Trichogramma evanescens, also Schlupfwespen eingesetzt. Damit konnte die Mottenpopulation innerhalb von drei Jahren von 10 bis 15 Motten pro Objekt auf zwei bis drei Motten reduziert werden, einige Fahrzeuge sind ganz mottenfrei. Die Schlupfwespe legt ihre Eier in die Eier der Motten und frisst sie von innen auf. Damit sterben die Motten irgendwann aus. Mit Pheromonfallen, das sind Dufstofffallen, die die männlichen Motten anziehen, wird regelmäßig der Mottenbefall überwacht. Sobald in einem Fahrzeug wieder eine Motte auftaucht, setzen wir dort Schlupfwespen aus. Das ist einfach und günstig: eine Mitarbeiterin legt zwei Kärtchen in ein Fahrzeug, ein Kärtchen kostet weniger als ein Cappuccino. Zudem arbeiten wir mit dem System der „Mottenverwirrung”, das ich ganz interessant finde. Im Prinzip funktioniert das so, dass die Pheromonrezeptoren der Männchen durch eine Art Bestäubung in speziellen Mottenfallen überlastet werden. Die Konsequenz ist ein Zustand sexueller Verwirrung der männlichen Mottenpopulation, wodurch der Paarungszyklus effektiv gestört wird.
Welchen Schaden richten die Motten an?
Fraßlöcher in den Bezügen der Automobile auf Sitzen, im Kofferraum oder den Fußmatten.
Was passiert mit den ausgesetzten Schlupfwespen?
Diese einheimische Nützlingsart ist nur so groß wie ein Schreibmaschinenpunkt („ . “) und kann unter günstigen Bedingungen bis zu 15 Meter laufen, um an ihren Wirt zu kommen. Trichogramma evanescens ist normalerweise auch im Freiland anzutreffen, kann im Labor als Massenware gezüchtet werden und führt bei erhöhtem Aufkommen und gezieltem Einsatz zu einer Reduzierung von Schädlingen. Bei 20° lebt sie ungefähr 10 Tage. Sobald keine Motteneier mehr da sind, kann sie sich nicht mehr fortpflanzen und stirbt aus. Auf diese Weise kamen in den letzten Jahren bei 74 Oldtimern, Kutschen und Zugwaggons insgesamt 45000 Schlupfwespen pro Jahr zum Einsatz.
Sind die Schlupfwespen für die Besucher gefährlich?
Nein, der Besucher bekommt von den Schlupfwespen nichts mit. Sie sind winzig klein und interessieren sich eigentlich nur für die Motteneier. Dank der Schlupfwespen kann man die Fahrzeuge in der Ausstellung bei laufendem Betrieb behandeln. Ansonsten müssten wir sie einhausen oder aus den Ausstellungen nehmen.
Stephan Biebl hat die Schädlingsbekämpfung mit Nützlingen in Museen vor kurzem auf einer Tagung in London vorgestellt. Das Poster dazu finden Sie
.
]]>Die Karriere des Schlittschuhs begann vermutlich in der Jungsteinzeit.
Es stimmt, dass Schlittschuhe auf Knochenschlittschuhe aus Tierknochen (Renntiere, Kühe, Pferde) zurückgehen. Da ihre Geschichte bis weit in vorchristliche Zeit zurückreicht, ist es allerdings nicht möglich einen “Erfinder” zu benennen. Relikte von Knochenschlittschuhen finden sich überall in Nord- und Mitteleuropa.
Einen einzelnen Ursprungsort zu lokalisieren ist schwierig. Wahrscheinlich ist Skandinavien (Finnland) eine der Ursprungsregionen. Sicher ist nur, dass die Knochengleiter in Regionen er- und gefunden wurden, in denen genügend Eis und Schnee vorkamen, um Menschen zu inspirieren, Gehhilfen zu nutzen (Skandinavien, Russland, Mitteleuropa).
Über die ältesten Knochenfunde und Ursprünge des Knochenschlittschuhs gibt es widersprüchliche Angaben. Manche nehmen an, dass sie bereits in der Jungsteinzeit bekannt waren. Es wurden immer wieder Knochen gefunden, die geschliffen waren. Es lässt sich aber nicht immer mit Sicherheit sagen, dass solche Knochen dann auch als Gleithilfen genutzt wurden.
Als mehr oder mindert gesicherter Fund eines Knochenschlittschuhs gilt ein Knochenartefakt aus der Zeit um 3000 v. Chr. (Veseli / Slowakei), aber auch in der Schweiz und Skandinavien wurden Knochenschlittschuhe gefunden, die in das 2./3. Jahrtausend. v. Chr. datiert werden können. Eine größere Verbreitung und Nutzung als Alltagsgegenstand fanden Knochenschlittschuhe dann ganz offensichtlich aber erst seit dem Mittelalter, wobei sie durchaus lange genutzt wurden – auch noch als bereits Schlittschuhe mit Eisenkufen bekannt waren. In den Alpen hat man sie bis ins 20. Jahrhundert sogar unter Sitzbretter montiert und als Gleithilfe für einfache Knochenrodel genutzt.
Foto: Frühmittelalterliche Knochenschlittschuhe
Knochenschlittschuhe sind so lange bekannt wie das Rad. Die Knochen stammen meist von Pferden, Rindern, Hirschen oder Rentieren. Eine geglättete und mit Talg eingeriebene Oberfläche erhöhte die Gleitfähigkeit. Die Läufer befestigten die mit Löchern versehenen Schlittschuhe mit Lederbändern direkt an den Schuhen.
]]>Die Innovation wird im kommenden Jahr Einzug in die Ausstellung zum Deutschen Zukunftspreis haben, wo sie von einer breiten Öffentlichkeit bewundert werden kann und genauer erklärt wird.
Dr. Peter Post und Markus Fischer von der Festo AG & Co. KG, Esslingen, und Andrzej Grzesiak vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart, und ihre Teams schufen nach dem Muster von Konstruktionsprinzipien aus der Natur einen einzigartig flexiblen Handling-Assistenten für eine neue Generation vielseitig einsetzbarer Assistenzsysteme.
Erstaunlich anpassungsfähig: Greifer und Finger können selbst rohe Eier, Tomaten oder ein Glas Wasser anfassen.
Das bionische Handhabungssystem, das an einen Elefantenrüssel erinnert, besteht aus einem mechatronischen Rüssel, einem Greifer und drei Fingern. Seine Besonderheit ist eine enorme Anpassungsfähigkeit: Greifer und Finger können sehr behutsam selbst rohe Eier, Tomaten oder ein Glas Wasser anfassen und ebenso sachte mit Tieren und Menschen umgehen.
Das Problem von Robotern, die heute in der industriellen Produktion schwere, eintönige oder gefährliche Tätigkeiten verrichten, ist ihre Ungelenkigkeit und fehlende Sensibilität. Der neuartige Handling-Assistent, der bislang als Prototyp existiert, ermöglicht den Bau von Assistenzsystemen, die Menschen ohne Verletzungsgefahr zur Hand gehen können. Und sie sollen über mögliche Anwendungen in der Industrie hinaus künftig zur Unterstützung von kranken oder gebrechlichen Menschen dienen – etwa, indem sie ihnen Speisen, Getränke oder Medikamente holen und reichen. Das würde mehr Lebensqualität für diese Menschen bedeuten.
Wofür würdet Ihr so einen Rüsselroboter einsetzen, wenn Ihr einen zur Verfügung hättet?
]]>Von Nina Lorkowski
Im Rahmen einer Podiumsdiskussion wurde darüber am 28.10.2010 im Ehrensaal des Deutschen Museums debattiert. Veranstaltet in einer Kooperation aus dem Projekt „Geisteswissenschaften im Dialog”, dem Deutschen Museum, dem BMBF-Forschungsprojekt „Objekte des Energiekonsums” und der „Energieroute der Museen” der Leibniz-Gemeinschaft diskutierten Prof. Dr. Manuel Frondel (Rheinisch-Westfälisches Institut für Wirtschaftsforschung), Prof. Dr. Gerd Michelsen (Institut für Umweltkommunikation der Leuphana Universität Lüneburg und Dr. Nina Möllers (Deutsches Museum) unter der Moderation von Susanne Poelchau (Wissenschaftsredaktion des Bayerischen Rundfunk) zum Thema „Wie energielastig ist unser Konsum. Elektrizität – vom Hoffnungsträger zum Problemfall”.
Die Klima- und Energiediskussion fordert Lösungen im Bereich des politischen und des individuellen Handelns.
Energie ist längst zu einem Bestandteil öffentlicher Debatten geworden. Klimawandel und globale Konflikte als Folge unseres Energiekonsums fordern Lösungen, die zum einen im Bereich des politischen, zum anderen im Bereich des individuellen Handelns liegen. Nina Möllers macht in der Diskussion deutlich, wie klärend hier ein Blick in die Konsum- und Technikgeschichte sein kann.
Mit dem Einzug technischer Geräte in den Privathaushalt haben sich Konsumgewohnheiten und kulturelle Werte sukzessive gewandelt. Einleuchtend veranschaulicht Möllers dies am Beispiel des Wandels von Hygienestandards. Der enorme Anstieg des Wäschewechsels und folglich auch des Waschens, zwischen 1968 – also nachdem der Waschvollautomat massenhaft in die Privathaushalte eingezogen ist – und 1988, macht deutlich wie Sauberkeitsvorstellungen und die Empfindsamkeit gegenüber Schmutz und Geruch fortgeschritten sind.
“Selbstverständliche” Konsumgewohnheiten hinterfragen
Konsumgewohnheiten die zu einer unhinterfragbaren Selbstverständlichkeit geworden sind oder die verkürzte Lebensdauer der Geräte, stellen Probleme dar, die aus der Geschichte unseres Energiekonsums resultieren. Indem diese „Selbstverständlichkeiten” wieder in die Aufmerksamkeit gerückt werden, lassen sich sinnvolle Anreize für ein umweltverträglicheres Konsumverhalten schaffen. Auch Gerd Michelsen stellte in seiner Untersuchung über Vermittlungsmöglichkeiten energiesparenden Handelns fest, dass diese besonders dann erfolgreich waren, wenn die KonsumentInnen ihre Energieeinsparungen anhand einer Anzeige ablesen konnten. Energie wurde für die Verbraucher wieder „sichtbar”.
Ein energieeffizienter Umgang mit Haushaltstechnik bedeutet aber nicht nur Aufmerksamkeit gegenüber dem elektrischen Verbrauch während das Gerät in Betrieb ist, sondern Berücksichtigung der gesamten „Lebensdauer”, betont Michelsen. Das heißt Geräte sollten nicht nur energieeffizient arbeiten, sie sollten vor allem auch lange halten. In einer Veränderung unserer Konsumgewohnheiten bezüglich der Häufigkeit von Neuanschaffungen und einer sparsamen Nutzungsweise der Geräte liegt also ein erhebliches Potential zum Klimaschutz beizutragen.
Energiesparlampen einschrauben genügt nicht.
Frondel kritisiert jedoch, dass vielfach am falschen Ende gespart würde. Die „Verteufelung des Stroms” – die er im Ausschalten von Standby-Geräten oder im Zwang zur Energiesparlampe sieht – koste die Verbraucher in erster Linie Zeit und Mühe. Der Beitrag zum Klimaschutz sei hingegen gering. In Hinblick auf den Klimaschutz verringert der Emissionshandel das Energiesparpotential der KonsumentInnen erheblich. Frondels Einwand basiert auf einer sehr verkürzten Darstellung des Prinzips des Handels mit Emissionszertifikaten. Seine geringere Einschätzung der Handlungspotentiale privater VerbraucherInnen ist dennoch berechtigt, da diese ohne nachhaltige politische Strategien wenig Wirkung haben. Es muss um weit mehr gehen, als den Stecker zu ziehen und Energiesparlampen einzuschrauben. Ebenso Wichtig ist die Nachhaltigkeit der Energieversorgung und die technische Infrastruktur die ohne sinnvolle politische Maßnahmen nicht zu verwirklichen sind.
Während an diesem Abend die drei Experten und auch das zahlreich anwesende Publikum angeregt miteinander diskutierten setzten am gleichen Tag in Berlin Union und FDP die Laufzeitverlängerung der Atomkraftwerke durch. Doch nicht zuletzt die hohe Beteiligung des Publikums an diesem Abend macht deutlich, dass sich die Aufmerksamkeit gegenüber dem privaten Energiekonsum gewandelt hat und dass dieser ein Problem darstellt das bisher nur unzureichend gelöst wurde.
—
Von Nina Lorkowski // Die Autorin ist wissenschaftliche Mitarbeiterin am Zentralinstitut für Geschichte der Technik im Deutschen Museum.
]]>Eine Rettungskapsel, wie sie aktuell zur Rettung der Kumpel in Chile im Einsatz ist, steht auch im Deutschen Museum in München.
Um sich so ein Rettungsbombe einmal im Original anzusehen, muss man nicht gleich ins Ruhrgebiet oder gar nach Chile fahren. Mitten in München auf einer Isarinsel beherbergt das Deutsche Museum so ein Exemplar. In der Abteilung „Erdöl und Erdgas” gelangt man über eine Treppe in das verdunkelte Untergeschoss, welches sich dem Thema Tiefbohren widmet. Dort steht in einem Eck des Raumes ein original Lengede-Rohr mit Rettungsbombe, mit welchem 1963 das „Wunder von Lengede” vollbracht wurde. In der Eisenerzgrube Lengede-Broilstedt konnten im Herbst 1963 elf Bergleute gerettet werden. Nach dem Unglück wurden 14 Tage später die Überlebenden aus 56 m Tiefe geborgen.
* Die Dahlbusch-Rettungsbombe wie sie in der Abteilung Erdöl und Erdgas des Deutschen Museums zu sehen ist.
Natürlich ist die technische Weiterentwicklung auch nicht an dem Bereich „Tiefbohren” spurlos vorübergegangen. Die Phoenix 1 verfügt mittlerweile über ein Audio- und Videosystem sowie Sauerstoffversorgung. Funktionen, die sicher hilfreich sind, bei einer Bergungsdauer zwischen 30 Minuten und zwei Stunden pro Person. Die eigentliche Technik der Kapsel ist dem aktuellen Modell, das nun in Chile verwendet wird, jedoch sehr ähnlich.
Die Rettungskapsel hat einen Durchmesser von etwa 40 cm.
Die Dahlbuschbombe besitzt eine mannsgroße Öffnung im untersten Teil, durch welche die Eingeschlossenen die Kapsel besteigen und wie in einem Lift aus der Grube gezogen werden. In der über zwei Meter langen Rettungskapsel befinden sich in Armlänge über dem Kopf der zu rettenden Person Griffe zum Festhalten; ein Gurt verhindert zusätzlich das Herausfallen. Der geringe Durchmesser von etwa 40 cm ermöglicht den Einsatz als Rettungsgerät bei extrem geringen Bohrdurchmessern.
Wer sich für das Thema „Bergbau” interessiert und mehr wissen will:
In der Bergbau-Abteilung des Museums sind zahlreiche Szenen aus der Geschichte des Bergbaus naturgetreu nachgebaut. Auf dem ca. 900 m langen Führungsweg durch Bergwerksstollen werden die verschiedenen Techniken und Verfahren des Bergbaues, wie Schachtbau und Schachtförderung, Grubenvermessung, Erz-, Salz- und Kohlebergbau dargestellt. Beim Rundgang durch den Schacht – der etwa 1 Stunde dauert – hat man durch die realitätsnahe und detailgetreue Gestaltung das Gefühl, sich tatsächlich unter Tage zu befinden.
Kammerabbau: Sprenglochbohrung im Kalisalz-Kammerabbau, 1925. 1861 begann die Entwicklung der Kaliindustrie, nachdem Justus von Liebig kurz vorher den Wert der Kalisalze für die landwirtschaftliche Düngung erkannt hatte.
(Alle Fotos frei zur Veröffentlichung nur mit dem Vermerk: Foto Deutsches Museum)
Text: Bernhard Weidemann
]]>Am 16. Mai 1960 hat der Physiker Theodore Maiman in Malibu, Californien einen besonders hellen Moment: Er schickt einen Lichtblitz durch einen roten Rubinstein. Dadurch entsteht stark gebündeltes Licht dessen Strahlen enorme Wirkung haben. Sie brennen Löcher in Papier, Kunststoff oder Metall.
Laser ist ein englisches Kunstwort. Es sind die Anfangsbuchstaben für Light Amplification by Stimulated Emission of Radiation also sinngemäß „Lichtverstärkung durch Strahlung”. Weil es zu dem Zeitpunkt der Erfindung noch keine Messeinheit für das Laserlicht gibt, haben Forscher eine Idee als Sie Rasierklingen mit Lasern durchlöchern. Ein schwacher Laser hat die Einheit 1 Gillette, ein starker Laser 5 Gillette. Die erste Stärke-Einheit für Laser war also tatsächlich die Anzahl der durchbohrten Rasierklingen.
Karriereschub in den 1980er Jahren
In den 80er Jahren wird die Lasertechnik zum vielseitigsten Werkzeug der Welt. Ein Laser kann schneiden, schleifen oder reinigen. Wenn es drauf an kommt auch auf 1000stel Millimeter genau. Laser sorgen aber auch für gute Unterhaltung. In jedem CD Player steckt ein Laser. Der reflektierte Strahl erfasst die Unebenheiten auf der CD und liest so die Daten.
Farbige Laser-Lichteffekte kommen auch in großen Shows zum Einsatz. Weltberühmt wird zum Beispiel die Laser-Harfe bei Konzerten des Elektromusikers Jean Michel Jarre. (s. Foto rechts) Er unterbricht harfenförmig angeordnete Laserstrahlen mit der Hand und aktiviert dadurch Töne, die ein Synthesizer produziert.
Heute hat fast alles was uns umgibt mit Lasertechnologie zu tun. Im Laserdrucker lädt der Strahl die Trommel elektrisch so auf, dass nur an bestimmten Stellen Tonerstaub haften bleibt und sich auf das Papier abrollt. Internet Datenverbindungen funktionieren per Glasfaser ebenfalls mit gebündeltem Licht. Und pro Jahr werden in Deutschland 100.000 Augen per Laser operiert.
Zum 50-jährigen Jubiläum der Lasertechnik wurde die Dauerausstellung Werkstoffprüfung im Deutschen Museum um dieses Thema erweitert. Beginnend bei der Erzeugung des Laserlichts und den unterschiedlichen Lasertypen werden die Anwendungen aus den Bereichen Fertigung, Informationstechnik und Medizin-Lebenswissenschaften dargestellt. Jeder Bereich zeigt ein Leitexponat / eine Demonstration und vertieft die Anwendungsbereiche. Anhand ausgewählter Beispiele gibt die Ausstellung einen Überblick über die Vielfalt der Anwendungen.
]]>Wer jetzt nicht von Mathe träumt ist selber schuld…
]]>
Er nimmt Karbon-Nanoröhrchen, Silber-Nanodrähte, Tinte und handelsübliches Kopier Papier und baut daraus einen Energiespeicher. Es ist im eigentlichen Sinne keine Batterie, sondern eher ein Kondensator. Kondensatoren können prinzipiell mehr Energie speichern als Batterien, geben diese aber auch deutlich schneller wieder ab und sind seit 1745 bekannt. Papier eignet sich in diesem Fall auch deutlich besser als andere flache Materialien wie etwa Plastik.
Der Papierspeicher von Yi Cui lässt sich bis zu 40.000 mal wieder aufladen – etwa zehn mal so oft wie Lithium-Ionen Batterien. Für die Verwendung von Nanomaterialien werden immer weitere Anwendungsfelder gesucht, da diese oft erstaunliche Eigenschaften haben. Karbon-Nanoröhrchen zum Beispiel leiten elektrische Energie deutlich besser als Kupferdraht.
Und warum ist eine Batterie aus Papier interessant? Wer eine gewöhnliche Blei-Batterie in die Hand nimmt, merkt direkt das relativ hohe Gewicht. Eine Verbesserung des Verhältnisses von Leistung zu Gewicht wäre revolutionär – nicht nur in der Elektromobilität. Aber hierfür sind ja leider langlebigere Energiespeicher gefragt, die nicht nach einer sportlichen Anfahrt an einer Ampel gleich leer sind.
Dieses Leitfähige Papier kann als Stromabnehmer in Lithium-Ionen Batterien verwendet werden, um die bisherigen metallischen zu ersetzen und Gewicht zu reduzieren.
Bewegtes Drahtgittermodell einer ATPase (Adenosintriphosphatase)
Natürlich sind die Themen Bio- und Nanotechnologie recht komplex: Ein Funktionsmodell einer Aktin-Myosin-Kette zeigt einen bewegten molekularen Schrittmotor, der innerhalb der Zellen chemische in mechanische Energie für Transporte umsetzt. Daneben stellt die rotierende Adenosintriphosphat-Synthase eine Art „Protonenturbine” dar.
Aber muten wir damit unseren Besuchern etwas zu? Zuviel vielleicht? Etwas Vorwissen ist natürlich sehr hilfreich, wenn man in solche Themen einsteigen möchte. Auch wird man in der Abteilung Atomphysik nicht gleich alles verstehen, wenn man nicht die ein oder andere physikalische Grundlage aufgefrischt hat. Aber auch ohne Vorwissen wird man beim Besuch der Ausstellung zumindest verstehen können, was „Nano” ist und wo es in der Natur vorkommt.
Die Technik, die wir Menschen heute verwenden wird zunehmend komplexer. Aber genau deshalb ist ein Verständnis davon auch so wichtig – und die Erklärung derselben um so mehr. Das sollte man den Leuten durchaus zumuten können.
]]>
Die Familie wurde nach einjähriger Haft nach Fürsprache österreichischer Politiker nach Westdeutschland abgeschoben. In dem Gerichtsverfahren hatte die Staatliche Luftfahrtinspektion der DDR das Flugzeug getestet und für flugfähig befunden. Vorgesehen waren ein Probeflug ohne Passagiere in dem stillgelegten Braunkohlentagebau Nonnewitz bei Leipzig und dann der eigentliche Flug über die ehemalige innerdeutsche Grenze bis Hof. Für den Bau wurden wegen der notwendigen Geheimhaltung nur allgemein erhältliche Werkstoffe verwendet. Zerlegt misst das längste Teil nur 4m damit der Transport mit Pkw-Anhänger zum Startplatz möglich war. Der Tragflügel-Rumpf-Anschluß und der Triebwerkslauf wurden von Herrn Wagner selbst erprobt. Als Antriebsaggregate wurden die Motoren des in der damaligen DDR gängigen Zweitakt-Motorrads MZ 250 verwendet. Der Motor einer MZ 250 leistet 19 PS (14 KW) bei 5 400 U/min. Ebenso fanden die Räder des Motorradtyps als „Fahrwerk” Anwendung. Die Familie Wagner erwarb zwei dieser Motorräder und baute die Motoren aus, entfernte die Getriebe und versah sie mit je einem Propeller. Einer der beiden Motoren wurde in der Kurbelwellen-Drehrichtung geändert. Die beiden Propeller des Flugzeugs liefen somit gegenläufig.
Seit 1981 befand sich das Flugzeug im Traditionskabinett der Stasi der DDR, 1990 wurde es in der Ausstellung „Flucht-Mobile” im Museum für Deutsche Geschichte, Berlin, gezeigt und dann dem Erbauer zurückgegeben. Heute steht das vermutlich kleinste Flugzeug, dass je für fünf Personen gebaut wurde als Leihgabe im Deutschen Museum.
Spannweite | 9,0 m | |||||
Länge | 5,85 m | |||||
Flügelfläche | 8,61 m2 | |||||
Leermasse | 240 kg | |||||
Abflugmasse | 580 kg | |||||
Flächenbelastung | 67 kg/m2 | |||||
Antrieb | 2 Motorradmotoren MZ-ES-250/2 je 14 kW (19 PS) | |||||
Fluggeschwindigkeit | 210 km/h max., 90 km/h min. | |||||
Startstrecke | 450 m | |||||
Steiggeschwindigkeit | 1,8 m/s |
Ein handelsüblicher Video-Projektor projiziert über ein Prismensystem Bilder auf die Innenseite einer 82cm großen Acrylglas-Kugel. Damit lassen sich aktuelle Satellitenbilder der Erdoberfläche aber auch beliebige andere globale Daten, wie z.B. Erderwärmung darstellen. Daneben kann aber auch die Bewegung der Erde selbst mitsimuliert werden. Diesen Apparat nennt man dann Kugel-Projektor, Hyper- oder multimedialer Globus. Die Software wurde von der Herstellerfirma in Kooperation mit der Universität Wien entwickelt.
Ganz besonders ist die stündlich aktualisierte Echtzeitdarstellung des Wettergeschehens (Wolkenbilder) der gesamten Erdoberfläche als bewegte 24-Stunden-Sequenz. Diese Daten bekommen wir stündlich über unsere Wettersatelliten-Empfangsstation von den europäischen Satelliten Meteosat 8 und 9, dem japanischen MTSAT-1 und den beiden amerikanischen Satelliten GOES-10 und 12 geliefert.
Der Besucher kann selbst über einen “Touch Screen” unter den folgenden sieben Darstellungen auswählen:
Das Deutsche Museum zeigt als erstes Museum in Deutschland diese neuartige Display-Technik.
]]>Eine Schiffsschaukel auf der Wiesn.
Fast jeder, der auf einer Schaukel gesessen oder gestanden hat, vollzieht den Vorgang oft unbewusst. Ob auf einer Spielplatzschaukel oder bei der Extremsportart Kiiking für die es sogar eine Weltmeisterschaft gibt, der Grundablauf der Bewegung ist stets der gleiche: Im richtigen Moment der Bewegung wird der Abstand des Körperschwerpunkts zur Schaukelaufhängung verkürzt. Bei der Schiffsschaukel erreicht man dies durch Aufstehen beim Durchgang durch die Gleichgewichtslage. Dabei verrichtet der Körper Arbeit gegen die Zentrifugalkraft und erhöht die Bewegungsenergie und damit auch die Geschwindigkeit. Hält man diesen Vorgang eine Weile durch, kann man einige Überschläge schaffen – und hat viel Spaß dabei.
Auch beim Transport behält der Dichterfürst seine Haltung bei
Jetzt wird der Platz im Bibliotheksfoyer von dem monumentalen Turmuhrwerk belegt, das der bedeutende Turmuhrbauer Johann Mannhardt 1842 für die Münchener Frauenkirche konstruiert und dort auch installiert hatte. Mehrfach technisch verändert war es dort bis 1969 in Betrieb gewesen und rostete seither, von den Zeigern und Glockenhämmern abgekoppelt, nutzlos vor sich hin.
Nach allen Regeln der Kunst restauriert übernimmt das historische Turmuhrwerk den Platz, von dem es Goethe verdrängt hat.
Nachdem 2006 über eine Finanzierung durch den Freundes- und Förderkreis Deutsches Museum und die Münchener Firma Andreas-Huber-Bucherer der Abtransport und die aufwendige Restaurierung möglich geworden war, stiftete das Metropolitankapitel das Turmuhrwerk dem Deutschen Museum. Noch im Herbst des gleichen Jahres wurde es von den erfahrenen Turmuhrbauern der Regensburger Firma Rauscher zerlegt und vom Turm abgeseilt. Die Restaurierung sollte allen Ansprüchen der modernen Restaurierwissenschaft genügen und so wurden umfangreiche Voruntersuchungen vorgenommen und eine umfassende Dokumentation sämtlicher Einzelteile angelegt. Diese Arbeiten wurden im Wesentlichen von Cornelia Huttenlocher in den Werkstätten von Franz Huber und Thomas Rebényi ausgeführt. Gleichzeitig fand das Projekt bei zahlreichen Stellen außerhalb des Museums zum Teil sehr aufwendige Unterstützung, besonders durch die Herren Professoren Erwin Emmerling vom Lehrstuhl für Restaurierung an der TU, sowie Frank Owen, dessen Maschinenbaustudenten die Dokumentation mit der Erstellung eines virtuellen Modells ergänzten und nicht zuletzt Dr. Richard Knerr, der als pensionierter Physiker unermüdlich in den Münchener Archiven recherchierte.
Das Turmuhrwerk war schon im Oktober 2006 von seinem angestammten Platz geholt worden. Dort hatte es seit 1969 ungenutzt Schmutz und Rost angesammelt.
Die historische Bedeutung dieser Turmuhr ist nicht gering. Ihr Konstrukteur Johann Mannhardt war 1798 auf einem Einödhof bei Gmund am Tegernsee geboren worden und hatte 1826 – unterstützt vom Polytechnischen Verein – in München eine Werkstatt gegründet und sie bald zur Fabrik ausgebaut. Er war einer der bedeutenden Vorkämpfer der Industrialisierung in Bayern und stellte neben den Turmuhren auch Maschinen aller Art her. Eine Hobelmaschine und eine Steindruckpresse aus seiner Werkstatt sind seit langem in unseren Ausstellungen zu sehen. Mehrere Erfindungen auf dem Gebiet des Turmuhrenbaus sind auch heute noch mit seinem Namen verknüpft. Die Uhr für die Münchener Frauenkirche aus dem Jahr 1842 brachte ihm nicht nur den geschäftlichen Durchbruch, sondern als Turmuhrkonstrukteur bleibenden Ruhm. Als Geschäftsmann sollte er jedoch letztlich scheitern. Obwohl er 1862 seine tausendste Turmuhr ausliefern und seine Produkte auch im Ausland zahlreiche Auszeichnungen erhielten, ging die Firma 1866 bankrott. Mannhardt starb 1878. Die mehrfach wechselnden Besitzer der von ihm gegründeten Firma wollten auf seinen Namen nicht verzichten und behielten ihn noch bis 1940 bei.
]]>
Die harten Fakten sehen so aus: Der MINI E wird von einem 150 kW/204 PS starken Elektromotor angetrieben, der seine Energie aus einem Lithium-Ionen-Akku bezieht und seine Kraft nahezu lautlos und emissionsfrei über ein einstufiges Stirnradgetriebe an die Vorderräder überträgt.
Der Elektroantrieb des MINI E aktiviert ein maximales Drehmoment von 220 Newtonmetern und ermöglicht eine unterbrechungsfreie Beschleunigung in 8,5 Sekunden auf 100 km/h – die Höchstgeschwindigkeit ist elektronisch auf 152 km/h limitiert.
Der Lithium-Ionen-Speicher verfügt über eine Gesamtkapazität von 35 Kilowattstunden (kWh) und überträgt seine Energie in Form von Gleichstrom mit einer Nominalspannung von 380 Volt an den Elektromotor. Der Akku setzt sich aus 5.088 Batteriezellen zusammen, die von 48 Modulen zusammengefasst sind.
Der Akku des MINI E kann an jede konventionelle Netzstrom-Steckdose angeschlossen werden. Die Aufladezeit beträgt dann ca. 10h für eine volle Ladung bzw. 4h bei der Verwendung von Starkstrom wie zum Beispiel von einer der neu installierten Elektrotankstellen im Innenhof des Deutschen Museums. Für eine vollständige Wiederaufladung werden maximal 28 Kilowattstunden aus dem Stromnetz entnommen. Umgerechnet auf die Reichweite des Fahrzeugs (150 km) genügt eine Kilowattstunde für die Distanz von 8,7 Kilometern – die Fortbewegung ist also deutlich günstiger als mit Benzin.
Der vorn quer unter der Motorhaube positionierte Antrieb stellt seine volle Durchzugskraft (220 Nm) aus dem Stand heraus zur Verfügung. Sobald der Fahrer allerdings den Fuß vom Gaspedal nimmt, übernimmt der Elektromotor die Funktion eines Generators. Dabei entsteht ein Bremsmoment von 0,25 g (ein Viertel der Erdanziehungskraft) und der aus der Bewegungsenergie gewonnene Strom wird in die Fahrzeugbatterie zurückgespeist. Im Stadtverkehr können rund 75 Prozent aller Verzögerungsvorgänge ohne Hilfe der Bremsanlage absolviert werden. Eine intensive Nutzung dieser so genannten Rekuperation von Energie durch den Motor führ zu einer Erhöhung der Reichweite um bis zu 20 Prozent.
Flink ist er ja und grün noch dazu. Leider gibt es nur Platz für zwei Personen und einen teilbaren Kasten Bier. Wirklich große Ausflüge oder Ferienfahrten wären auch mit einem weiter verbreiteten Stromtankstellen Netz nicht möglich, aber der Eigentlich Nutzen soll ja auch im Stadtverkehr liegen. Dort Sollen die Fahrzeuge auch mehr als „nur” Autos sein – als Energiespeicher zu Peak Zeiten sollen sie herhalten. Bleibt zu hoffen, das die großen beteiligten Firmen sich nicht in Diskussionen über Steckerstandards oder anderen Machtfragen verlieren.
]]>
Eine Gruppe von Wissenschafts- und Technikjournalisten der Journalistenvereinigung für Technisch-Wissenschaftliche Publizistik TELI nimmt die Bundestagswahlen zum Anlass, um eine breite öffentliche Debatte über Forschung, Wissenschaft und Technologie anzustoßen. Als Vorbild dient die Aktion des US-Journalisten Shawn Lawrence Otto. Er startete mit Kollegen im US-Wahlkampf die „Science Debate 2008″, die dazu beitrug, dass Forschung und Technik die neuen Schwerpunkte auf US-Präsident Obamas Polit-Agenda sind.
Die Gruppe unabhängiger Journalisten wollen eine solche Debatte jetzt auch in Deutschland in Gang setzen und zwischen Forschern, Politikern und Bürgern vermitteln und suche dafür noch nach Mithelfern.
Wissenschaftler und Mitarbeiter der führenden deutschen Forschungsorganisationen sind aufgefordert ihre Wünsche und Fragen an die Politik, die Öffentlichkeit und Journalisten zu stellen!
Ziel ist es, aus den Ergebnissen die 15 bis 20 wichtigsten Herausforderungen an die deutsche Wissenschaft und Technik herauszuarbeiten und den Spitzenkandidaten vorzulegen. Die Antworten werden von den TELI Journalisten auf einer Webseite publiziert, in den Medien verbreitet sowie in öffentlichen Debatten diskutiert.
Weiter ist geplant in einem späteren Schritt die Wissenschaftsdebatte auf ganz Europa auszudehnen und sie letztlich auch bei EU-Wahlen zu aktivieren. Deshalb wurde in Deutschland der englische Titel „Science Debate Germany 2009″ gewählt.
]]>250 Schüler der Klassen 9 bis 13 in einem Raum versammelt. Allesamt mucksmäuschenstill und gespannt, was sie aus dem Bereich der Teilchenphysik lernen können. Ein Moment fast so selten wie Nachweise von Higgs-Teilchen.
Die Teilchenphysikshow der Studenten der Uni Bonn hat nicht nur weitere 250 Schüler sondern auch einen bis an den Rand gefüllten Ehrensaal an Erwachsenen elektrisiert und fasziniert. Natürlich kann man bei Wikipedia oder noch besser natürlich ScienceBlogs sich in die spannende Welt der kleinsten Teilchen einlesen.
Dass man auch mit Baumarktprodukten einen Teilchenbeschleuniger bauen kann, beweisen die Studenten der Bonner Teilchenphysikshow bei Ihrer Tour. Hier wird ein „Holzbolzon” hergenommen, um zu beweisen, dass Teilchen aus Quarks bestehen.
]]>
Das Archiv des Deutschen Museums zählt zu den bedeutendsten Spezialarchiven zur Geschichte der Naturwissenschaft und der Technik in Europa. Insgesamt verwahrt es rund 4,5 Regalkilometer an Archivalien, Quellen und Dokumenten zur Geschichte der Naturwissenschaft und Technik.
Besondere Schätze sind die ersten Deutschen Fotografien überhaupt, das original Laborbuch von Otto Hahn, dem Entdecker der Kernspaltung (1938), Originalzeichnungen von Otto Lilienthal für seine verschiedenen Gleiter, unter anderem dem Normal-Segelapparat (1894), original Handschriften von Albertus Magnus aus dem 13. Jahrhundert (übrigens die ältesten Stücke im Archiv), der komplette Nachlass von Konrad Zuse oder auch die Nobel Urkunde von Ferdinand Braun, dem Vater der Braunschen Röhre.
Die ersten deutschen Photographien überhaupt sind diese photographischen Versuche von Kobell und Steinheil in München, um 1839 (Neuhauserstraße)
Insgesamt lagern im Archiv des Deutschen Museums:
Das Deutsche Museum steht auf über 1500 so genannten „Straußenpfählen” die bis zu sieben Meter in den Inselboden gerammt sind. Auch ist der massive Stahlbetonbau des Bibliotheksgebäudes, in dem das Archiv untergebracht ist und 1932 fertig gestellt wurde so stabil, das er einem Erdbeben in diesen Breitengraden standhalten müsste. Eine U-Bahn, wie in Köln, würde man nicht unter der Insel hindurch führen sondern an einer schmaleren Stelle des Flusses. Die größte Gefahr würde ein Feuer darstellen. Natürlich sind hier Brandschutzmaßnahmen getroffen. Den größten Schaden würden aber sowieso nicht die Flammen sondern das Löschwasser für die Archivalien bedeuten. Vorsorge hierfür ist auch getroffen. Es gibt eine Vereinbarung mit den Kühlhausbetreibern der Großmarkthallen in München, dass bei einem Brand und damit Löschfall, die Objekte gleich dort eingefroren werden können, um weitere Schäden wie Schimmel o.ä. zu vermeiden. Sobald dann die entsprechenden Restaurierungsmöglichkeiten zur Verfügung stehen, würde man die Kartons vorsichtig auftauen und restaurieren. Aber zu so einem Fall wird es hoffentlich nie kommen.
]]>
Das Interferonmeter teilt das Licht in zwei Wege. In zwei folgenden Experimenten wird die Luft in jeweils einem der Wege verdünnt, so dass das Licht um eine Periode (0,00217ps) eher am gemeinsamen Treffpunkt eintrifft.
In Experiment 1 wird die Luft auf einer Strecke von 2x5mm um 100°C erhitzt. Dadurch verschiebt sch das Interferenzbild um einen Streifen.
In Experiment 2 wird der Druck auf einer Strecke von 2x50mm reduziert. Ein Bleistiftständer ist als Küvette umgearbeitet und de Druck wird mit einem Wasserrohr und einem Lineal gemessen. Die Messung ergibt einen Wert zwischen 25 -30 cm, etwas mehr als erwartet, da der Bleistiftständer etwas undicht ist.
Pro cm Wassersäule ändert sich die Verzögerung um etwa 100 atto-sekunden. 0.000 000 000 000 000 1 s.
Es ist schon erstaunlich, wie man eine Zeitverzögerung mit einem Bleistiftständer und einem Lineal so fein einstellen kann.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>Lichtquanten, etwa tausend Milliarden Mal energiereicher als das sichtbare Licht, sind Zeugen von gewaltigen Explosionen, nicht nur in unserer Milchstraße, sondern auch von Geschehnissen um supermassive schwarze Löcher in fernen Galaxien. Auf der Kanareninsel La Palma spürt ein europäisches Forscherteam die Quellen der Gammastrahlung auf.
Der Blick zum nächtlichen Himmel mit seinen Abertausenden Sternen, Nebeln und Galaxien fasziniert die Menschheit seit Anbeginn der Zeit. Im 17. Jahrhundert begannen die Astronomen, allen voran Galilei, Teleskope einzusetzen, um die Gesetzmäßigkeiten des Universums zu begreifen. Bis heute tragen Beobachtungen astronomischer Objekte im sichtbaren Licht entscheidend zu unserem Verständnis des Alls bei. Trotzdem stellt das sichtbare Licht nur einen kleinen Teil des gesamten Spektrums der sogenannten elektromagnetischen Strahlung dar, die sich von den Radiowellen über das Infrarotlicht, das sichtbare Licht und das ultraviolette Licht bis hin zur Röntgenstrahlung und darüber hinaus erstreckt: Auf die Akustik übertragen entspricht das sichtbare Licht einer Oktave, und so können wir behaupten, die Natur spielt auf einer 15 Meter breiten Klavier!
Als der österreichische Physiker Victor Hess am 7. Juli 1912 zu einer Fahrt in seinem Forschungsballon aufbrach, konnte er nicht ahnen, dass die Astrophysiker knapp 100 Jahre später noch immer damit beschäftigt sein würden, seine damaligen Beobachtungen zu erklären. Hess entdeckte während seiner Ballonfahrten eine hochenergetische, durchdringende Strahlung aus dem Universum. Heute wissen wir, dass diese »kosmische Strahlung« aus hochenergetischen Elementarteilchen besteht, hauptsächlich aus Protonen und schwereren Atomkernen, welche weit höhere Energien besitzen, als wir auf der Erde erzeugen können. Die kosmische Strahlung erreicht uns aus allen Richtungen des Weltalls, und die auf der Erde ankommenden hochenergetischen Teilchen selbst erlauben daher keine eindeutige Zuordnung zu ihren Quellen. Aufgrund ihrer elektrischen Ladung werden sie auf dem weiten Weg von ihren Entstehungsorten durch Magnetfelder innerhalb und außerhalb unserer Galaxie abgelenkt. Dadurch sind uns Rückschlüsse auf ihre ursprüngliche Richtung am Himmel nicht mehr möglich.
Eine Herausforderung: Die mysteriösen Gammastrahlungsblitze: Noch weiter entfernt als Quasare sind die sogenannten Gammastrahlungsblitze, bei denen innerhalb weniger Sekunden ungeheure Energien freigesetzt werden. Im Jahre 1967 zufällig von Überwachungssatelliten für Atomwaffen entdeckt, ist noch immer recht wenig über diese mysteriösen Ereignisse bekannt. Zeit und Richtung am Himmel, an denen ein Gammastrahlungsblitz stattfinden wird, sind nicht vorhersagbar. Satelliten, die den ganzen Himmel beobachten, schlagen bei solchen Ausbrüchen Alarm, und die beiden je 65 Tonnen schweren MAGIC-Teleskope sind in der Lage, sich im Schnitt innerhalb von nur 40 Sekunden auf eine beliebige Stelle am Himmel auszurichten. Das ist entscheidend, um den Gammastrahlungsblitzen auf die Spur zu kommen, und die Wissenschaftler hoffen, das »Nachglühen« solcher Blitze auch mit MAGIC zu beobachten. Um die Sensitivität ihrer Detektoren und die Präzision der Messungen weiter zu steigern, planen sie derzeit schon die Nachfolgeinstrumente der zurzeit betriebenen Teleskope: Am Zukunftsprojekt »Cherenkov Telescope Array«, einem großen Teleskopfeld mit bis zu einhundert einzelnen Teleskopen, arbeiten mehr als vierzig europäische Forschungsinstitute mit. Wenn das Observatorium in Betrieb geht, hoffen die Physiker nicht nur einige Tausend Gammastrahlungsquellen aufzuspüren und sie genau zu vermessen, sondern auch auf das, was ihnen immer schon am liebsten war: überraschende und völlig unerwartete Entdeckungen – genau wie damals Victor Hess bei seinen Ballonfahrten.
– Dr. Robert Wagner
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 4/2008.
]]>Zur Eröffnung des Deutschen Museums 1925 ist die ebenfalls gerade erst fertiggestellte Boschbrücke feierlich mit Girlanden geschmückt. Bauherr und Baumeister sind stolz auf ihre Leistung und die Errungenschaften der modernen Betontechnologie.
Gleich zwei historische Anlässe gibt es im Jahr 2008, um über die Münchner Isarbrücken zu schreiben und beide sind jeweils mit einem »Brückenjubiläum« verbunden, das gefeiert sein will. Da ist einmal das allseits beworbene Münchner Stadtjubiläum, das die – will man es höflich ausdrücken – »Verlegung« einer Isarbrücke vor 850 Jahren als Ausgangspunkt für die Stadtgründung nimmt. Und außerdem ist da, ganz in der Nähe dieses geschichtsträchtigen Isarübergangs, jedoch vielleicht nicht ganz so bekannt wie die Stadt selbst, ein weiterer Jahrestag zu feiern, nämlich das zehnjährige Bestehen der im Mai 1998 eröffneten Ausstellung »Brückenbau« im Deutschen Museum mit der ihrerseits berühmt gewordenen Brücke aus Stahl und Glas.
Was die Brückenverlegung und Stadtgründung angeht, soll hier noch einmal daran erinnert werden, dass Heinrich der Löwe 1158 die Isarbrücke in Oberföhring zerstörte, deren Wegezoll dem Bischof von Freising zugutekam, um seinerseits in den Genuss der Zölle am neuen, jetzt südlicher gelegenen und weltlich beherrschten Isarübergang zu kommen. Eine politische und wirtschaftliche Maßnahme also, der die Stadt München ihre Entstehung verdankt. Die Isarbrücke sollte über Jahrhunderte hinweg im wirtschaftlichen und verkehrstechnischen, aber auch im symbolischen Mittelpunkt des städtischen Lebens stehen.
Wie diese erste Brücke tatsächlich aussah, lässt eine Beschreibung aus dem Stadtrechtsbuch von 1347 erahnen: eine hölzerne, sogenannte Pfahljochbrücke muss es wohl gewesen sein, eine Brückenbauweise, die uns die Römer überliefert hatten, wie wir aus Caesars De bello gallico wissen. Beim Bau wurden im Abstand von etwa zehn Metern Böcke aus Holz längs ins Flussbett der Isar gerammt und mittels Holzbohlen zu einer Brücke miteinander verbunden. Natürlich konnte diese Konstruktion trotz aller technischer Kniffe, die angewandt wurden, um die Standsicherheit in der starken Strömung zu verbessern, vor allem während der häufigen Hochwasser nicht dauerhaft bestehen und musste daher alle paar Jahre wieder gründlich repariert oder ganz neu gebaut werden. Erst 1750 bis 1752 lösten zunächst steinerne Brückenpfeiler die hölzernen Joche auf der Stadt zugewandten Isarseite ab. 1760 wurden die ersten Brückenbögen auf der Stadt abgewandten Seite mit Stein gebaut und schließlich wurden 1776 die steinernen Pfeiler auf der anderen Seite mit einem steinernen Überbau vervollständigt. Doch auch diese Brücke hatte keinen dauerhaften Bestand und wurde 1822 bis 1828 durch einen Neubau nach einem Entwurf von Leo von Klenze ersetzt, die mit Renovierungen, Umbauten und Verbreiterungen bis zum Bau der heutigen Ludwigsbrücken im Jahre 1935 ihren Dienst taten.
Gerade diese Brücke von 1935 ist nun auch als Modell in der Ausstellung Brückenbau, dem zweiten Jubilar dieses Jahres, zu sehen. Ihr Bau wurde damals vom Turm des Deutschen Museums aus interessiert beobachtet und dokumentiert. In der Ausstellung ist aber auch eine der modernsten Brücken zu sehen und sogar zu benutzen: ein Fußgängersteg aus Glas und Stahl aus dem Büro Schlaich, Bergermann und Partner, über den schon oft und ausführlich berichtet worden ist. Die Ausstellung hat seit ihrer Eröffnung nichts an Beliebtheit eingebüßt, zumal da sie immer wieder neuen Erkenntnissen und Gegebenheiten angepasst wurde – ein jung gebliebener Jubilar.
– Dr. Dirk Bühler, Kurator der Abteilung Bauwesen des Deutschen Museums.
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 3/2008.
]]>Die Holzböcke unter dem ersten, flachen Brückenbogen sind kräftig umspült, wenn der Nishiki-Fluss Hochwasser führt.
Iwakuni, nur 40 Kilometer südwestlich von Hiroshima gelegen, ist heute eine mittelgroße Stadt in der Präfektur Yamaguchi, die seit dem Zusammenschluss mit sieben weiteren Gemeinden im Jahre 2006 etwa 150.000 Einwohner beherbergt. Die Altstadt liegt im Mündungsgebiet des Nishiki-Flusses, der in den Bergen des Hinterlands entspringt, durch das er sich mit einem Einzugsgebiet von 884 Quadratkilometern und 110 Kilometern Länge schlängelt: es ist der größte dieser Präfektur.
Iwakuni erreichte erst kurz nach der für die japanische Geschichte so entscheidenden Schlacht von Sekigahara vom 21. Oktober 1600 Bedeutung, als nämlich Hiroie Kikkawa, ein mit der Mori-Herrscherfamilie verwandter Feudalherr als erster Daimyo von Iwakuni den Auftrag erhielt, die landeinwärts gelegene Stellung zur Festung auszubauen. 1603 wird der Grundstein für die Burg gelegt, die bis 1608 an den Ufern des Nishiki-Flusses entstand. Die Festung liegt strategisch geschickt auf einer Anhöhe des Berges Shiroyama, der eine enge Flussschleife des Nishiki überragt. Der Ausbau zur Festung förderte die Entfaltung des Ortes zu einem aufblühenden Handels- und Kulturzentrum. Auf der rechten, engen Flussseite entstanden in diesen Jahren die Burg und die Häuser der Samurai, am gegenüberliegenden Ufer entwickelte sich eine Siedlung, in der sich die gewöhnlichen Krieger, Händler und Handwerker niederließen. Doch schon acht Jahre nach der Gründung wurde die Festung wieder geschleift, weil sie den Tokugawa-Herrschern ein Dorn im Auge war, deren militärische Strategie nur eine Festung in jeder Präfektur zuließ. Dem Daimyo blieb nur ein Palast an einem allerdings durchaus privilegierten Ort im Tal. Erst 1962 entstand auf dem Shiroyama wieder eine neue, jetzt aus Beton gebaute Burg, die für Touristen mit einer Seilbahn bequem zu erreichen ist. Die Häuser der Samurai sind in einem eigens angelegten Park zu besichtigen, auch ein hochattraktives historisches Museum, das Nishimura-Samurai-Museum fehlt nicht.
Weil auf dem rechten, engen Flussufer schließlich nicht mehr genügend Grundstücke für alle Samurai zur Verfügung standen, mussten sich immer mehr von ihnen auf der anderen Flussseite in der Nachbarschaft einfacher Leute ansiedeln. Vor allem für diese hochrangigen Krieger war eine schnelle und sichere Verbindung über den Fluss von existenzieller Bedeutung, bis im Jahr 1639 ein erster Holzsteg gebaut war. Nachdem dieser durch eine Flut im folgenden Jahr wiederum zerstört wurde, verbanden nur Fähren die Flussufer, eine Schwachstelle der Wehrsystems; da bei Flut auch dieser Fährverkehr eingestellt werden musste, war ein fester, dauerhafter Übergang über den Nishiki für das Bestehen der Siedlung der Samurai an beiden Ufern unverzichtbar. So wurde schließlich 1673 die Kintai-Kyo-Brücke als feste Verbindung zwischen der Stadt der Samurai auf der einen und der Stadt der einfachen Bürger auf der anderen Seite de Nishiki-Flusses gebaut. Doch sie diente nicht nur als praktisch-taktischer Übergang, sondern galt zugleich als symbolischer Ersatz für die 1615 geschleifte Burg. Von Anfang an ist die Brücke damit als metaphorischer Brückenschlag gedacht gewesen, der für Iwakuni die Wiederherstellung der einstigen, wenn auch kurzen Pracht der Festung bedeutet, die nun zwar politisch korrekt und daher friedlicher Natur ist, aber doch die Macht des Daimyo und seiner Samurais deutlich unter Beweis stellt, denn sie durfte bis 1868 natürlich nur von diesen genutzt werden. Diese Symbolik finden wir sowohl in der gewagten konstruktiven Lösung als auch in der zierlichen Anmutung der Brücke noch einmal verwirklicht. So deutet denn auch der Name der Brücke: »Kintai-kyo«, zu Deutsch »Brokatgürtel« oder »Brokatschärpe«, diskret und malerisch zugleich auf ihre unbeschwert gebogene und fein verzierte, dabei doch markante Silhouette hin.
Der Erbauer der Brücke ist der berühmte Hiroyoshi Kikkawa (1621-1679) der dritte Daimyo der Iwakuni-Sippschaft. Hiroyoshi war von seinem Entwurf derart bezaubert, dass er während der gesamten Bauzeit in Sichtweite der Baustelle Quartier bezog und dort verweilte, um den Baufortschritt persönlich beobachten und überwachen zu können. Nach beinahe vier Monaten war die Brücke am 1. Oktober 1673 fertig gestellt und konnte am 3. November desselben Jahres dem Verkehr übergeben werden.
Im Nishimura-Samurai-Museum ist ein eindrucksvolles Modell der Brücke zu sehen. Dort werden vor allem aber die historischen Zeichnungen der alten Baumeister aufbewahrt und die zeigen auf, dass sich an Materialwahl und Bauweise seit 1673 nichts geändert hat. Besonders stolz ist die Museumsleitung dort auf ein Holzkästchen mit einem Brückenplan des 18. Jahrhunderts auf dem ein Zettel mit einer Kalligrafie klebt, die daran erinnert, dass diesen Plan sogar der Tenno, der Kaiser Japans, eingesehen und gelobt hat.
– Dr. Dirk Bühler, Kurator der Abteilung Bauwesen des Deutschen Museums.
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 3/2008.
]]>Zehn Jahre lang trug der Geograf Abraham Ortelius die besten
Karten seiner Zeit zusammen. So schuf er den ersten zusammenhängenden Atlas.
Das Frontispiz mit den Sinnbildern der vier bekannten Kontinente: Europa (sitzend oben), Afrika (rechts), Asien (links) und Amerika (unten liegend).
Es ist für uns selbstverständlich, dass wir uns mithilfe klassischer Atlanten oder des Internets in kürzester Zeit über die geografische Lage eines Ortes informieren können. Dieses Wissen aber wurde erst seit dem letzten Drittel des 16. Jahrhunderts langsam breiteren Kreisen zugänglich. Die Entstehung der ersten gebundenen Kartenwerke, die seit 1595 als Atlanten bezeichnet werden, ging von flämischen und holländischen Kartografen aus. Menschen in der frühen Neuzeit waren von diesen Werken ähnlich fasziniert, wie uns heutige Google Maps begeistern. Doch im Gegensatz zu heute war der Zugang zu den Kartenwerken wenigen Privilegierten – reichen Kaufleuten und Politikern – vorbehalten. Die horrenden Preise schränkten die Verbreitung dieser Drucke noch ein, doch der Weg für eine allgemeine Zugänglichkeit zum geografischen Wissen war damit unumkehrbar eingeschlagen.
Den Anfang dieser Entwicklung bildet das Kartenwerk des Abraham Ortelius (1527- 1598), das Theatrum Orbis Terrarum, das zu den prachtvollsten Bänden in der Bibliothek des Deutschen Museums zählt. Dieses Werk des flämischen Geografen und Kartografen ist, wenn es auch noch nicht diesen Namen trägt, der erste Atlas. Bis dahin existierten Karten für einzelne Gebiete, die – vor allem Seekarten – oft streng geheim gehalten wurden, da deren Besitz für Kaufleute und Militärs von entscheidender Bedeutung sein konnte.
Abraham Ortelius verbrachte sein gesamtes Leben in Antwerpen. Die nach Manier des Humanismus latinisierte Form seines Familiennamens Ortels verwandte er seit den 1540er Jahren. Schon damals war Antwerpen eine der bedeutendsten Handelsstädte Europas, deren Kaufleute vor allem für den Fern- und Überseehandel die neuesten Karten benötigten. Ortelius lernte in seiner Jugend Griechisch sowie Latein und befasste sich auch eingehend mit Mathematik. Bereits im Alter von zwanzig Jahren arbeitete er als Kolorist von Landkarten und wandte sich schließlich dem Karten- und Buchhandel zu. Reisen in zahlreiche Länder Europas nutzte er zum Sammeln von Karten. Die besten von ihnen sollten später Eingang in das Theatrum Orbis Terrarum finden, das Ortelius seit den 1560er Jahren zusammenstellte.
Das erstmals 1570 erschienene Werk stellte die Kenntnisse der besten Geografen der Zeit zu Beginn des letzten Drittels des 16. Jahrhunderts einer breiteren Öffentlichkeit zur Verfügung.
Die ersten fünf Karten des Theatrum Orbis Terrarum zeigen die damals bekannte Welt und die Kontinente Amerika, Asien, Afrika und Europa. Vor allem die Südhalbkugel war noch weitgehend unbekannt, Australien noch nicht entdeckt. Das Schwergewicht legte Ortelius mit 56 Karten naturgemäß auf die europäischen Länder, wobei er Deutschland, Frankreich, Italien und die Niederlande besonders berücksichtigte. Gegen Ende des Werks finden sich zehn Karten zu Asien und Afrika. Dabei handelt es sich vor allem um Karten des Osmanischen Reichs, der heutigen Türkei. Im Geschmack der Zeit ließ Ortelius die Karten mit mythologischen Darstellungen und der Abbildung von nautischen Geräten oder Schiffen verzieren. Den 53 Blättern mit ihren insgesamt 69 Karten stellte Ortelius jeweils eine kurze lateinische Einleitung voran, die das dargestellte Gebiet kurz beschreibt.
Ortelius’ Verdienst ist es, dass er das von 87 Kartografen erarbeitete Material sammelte und zusammenstellte, dieses dann – Voraussetzung für einen gebundenen Atlas – in ein einheitliches Format bringen ließ und schließlich in seinem Theatrum Orbis Terrarum veröffentlichte. Ortelius schmückte sich dabei keineswegs mit fremden Federn, seinem Kartenwerk stellte er eine genaue Liste der verwandten Karten und deren Autoren voran. Heute selbstverständlich, war dies in einer Zeit der Raubdrucke noch völlig unüblich.
Das Werk hatte unmittelbar großen Erfolg, da es die besten Karten seiner Zeit in höchster Qualität enthielt. Die meisten Karten wurden von einem der berühmtesten Kupferstecher der Zeit, Frans Hogenberg (1535-1590), in Kupfer gestochen. Bis 1612 sollten 42 Ausgaben dieses Werks in sieben Sprachen erscheinen, die mit dem Anwachsen der geografischen Kenntnisse immer wieder um neue Karten erweitert wurden. Auch die im Besitz der Bibliothek des Deutschen Museums befindlichen Ausgaben spiegeln dies wider. Während die 1571 erschienene Ausgabe noch keine zusätzlichen Blätter enthält, waren in der 1579 publizierten Ausgabe bereits 38 weitere, insgesamt also 91, enthalten.
– Dr. Helmut Hilz, Leiter der Bibliothek des Deutschen Museums
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 4/2008.
]]>Das Deutsche Museum hat eine neue Wetterstation. Der Blick hinauf zum Museumsturm zeigt: Auf dem Mast sind, wenn auch klein und fast unscheinbar, neue Instrumente installiert. Mit ihnen messen wir künftig das Wetter. Eine dazugehörige Bodenstation im Freigelände vervollständigt die museale Wetterbeobachtung.
Wie wird das Wetter morgen sein? Inwieweit verändert sich langfristig das Klima? Solche Fragen können nur beantwortet werden, wenn präzise Messungen vorliegen. Temperatur, Luftdruck, Feuchtigkeitsgehalt, Niederschlag, Wind und Sonneneinstrahlung sind dabei die wichtigsten Beobachtungsgrößen. Täglich werden weltweit Hunderttausende solcher Messungen auf dem Land, auf See und in der Luft durchgeführt. Zusammen mit Satellitenaufnahmen wird so der Zustand der Atmosphäre erfasst. Dies ermöglicht Wettervorhersagen und eine kontinuierliche Wetterbeobachtung, die zum Beispiel hilft, den langfristigen Klimawandel zu untersuchen. Mit unserer neuen Wetterstation verstehen wir uns als Teil dieser weltweiten Wetterbeobachtung.
Wir betreiben die Wetterstation in Kooperation mit meteomedia, dem von Jörg Kachelmann gegründeten privaten Wetterdienst. Damit wollen wir gewährleisten, dass die Messdaten heute üblichen meteorologischen Standards entsprechen. Denn die Vielzahl der Daten verschiedener Stationen lässt sich nur dann gewinnbringend nutzen, wenn die Messbedingungen vergleichbar sind. Dies zielt zum einen auf die verwendeten Instrumente, die vorgegebene Anforderungen erfüllen müssen. Zum anderen müssen möglichst vergleichbare Standortbedingungen erfüllt werden. Durch die Zusammenarbeit mit meteomedia wollen wir zugleich gewährleisten, dass all diese Messungen tatsächlich für die Wettervorhersage und darüber hinaus für die allgemeine Wetterbeobachtung genutzt werden. Als Museum brauchen wir ferner – in Anbetracht unserer vielfältigen Aufgaben – einen kompetenten Partner, der hilft, unsere Station permanent zu überwachen. Stimmt die Qualität der Daten? Ist ein Sensor möglicherweise defekt bzw. funktioniert er nicht ordnungsgemäß? Um solche, oftmals geringen Störeinflüsse zu erkennen, bedarf es einer sorgfältigen Analyse der Daten. Daher werden alle Messwerte zunächst an meteomedia übertragen, dort begutachtet und ausgewertet, bevor sie wieder zurück ans Museum fließen. Hier zeigen wir unseren Besuchern die Messdaten auf einer großen Anzeigetafel im Museumshof.
Einladung zum Experimentieren. Ein Museum ist natürlich nicht bloß eine Datensammelstelle. Wir wollen mehr vermitteln – und Lernen erfordert auch Eigenaktivität! Wer wissen will, wie Naturwissenschaft und Technik funktionieren, muss auch selbst forschen und experimentieren dürfen. Für die Vermittlung naturwissenschaftlich-technischer Inhalte im Museum sind begleitende Programme und Aktivitäten heutzutage essenziell. Deshalb wird auch das Wetter zukünftig Teil der erfolgreichen Programme für Kinder und Schüler sein. Neben die Themen Wasser, Feuer, Klang und Optik tritt nun das Wetter. In einem Workshop können Kinder altersspezifisch zu Wetterphänomenen experimentieren, wichtige Größen wie Temperatur, Druck, Feuchte oder Wind selbst messen, erfahren wie eine Wettervorhersage entsteht und sich dann auf große Entdeckungstour durch das Museum machen.
– Dr. Christian Sichau
]]>Im Februar des Jahres 1908 starte am Times Square in New York einer der skurrilsten Wettbewerbe der Automobilgeschichte: ein Rennen, das sechs Mannschaften aus vier Nationen um die halbe Welt, von New York nach Paris führen sollte, durch eine Welt ohne Straßen, ohne Tankstellennetz und Vertragswerkstätten.
Der Protos mit verstärktem Fahrwerk und 30-PS-Motor steht heute im Verkehrszentrum des Deutschen Museums.
Unter den Teilnehmern war auch ein deutscher Wagen – ein speziell für dieses Rennen gefertigter schwerer Tourenwagen der Berliner Firma Protos, der mit den beiden Ingenieuren Ernst Maaß und Hans Knape und dem deutschen Oberleutnant Hans Koeppen ins Rennen aufbrach und fünfeinhalb Monate später mit neu zusammengewürfelter Besatzung nach rund 21.000 Reisekilometern, wenn auch nicht als Sieger, so doch als erster Wagen den Zielort Paris erreichte. Heute gehört der Protos zu den Highlights der Automobilsammlung des Deutschen Museums.
Zu den grundlegenden Einsichten der jüngeren Automobilgeschichte gehört die Erkenntnis, dass der langfristige Erfolg des Automobils in den ersten Jahrzehnten ein sehr »holpriger Siegeszug« war (wie der Schweizer Historiker Christoph Maria Merki anmerkt), ein Erfolg, der sich erst nach Jahrzehnten der aktiven Popularisierung, Werbung und Lobbyarbeit einstellte und anfangs gerade in Deutschland mancherlei Widerstände und Proteste in der Bevölkerung provozierte. Spektakuläre Rennveranstaltungen und Automobilwettbewerbe trugen seit Ende des 19. Jahrhunderts auf vielfältige Weise dazu bei, dem Automobil gesellschaftlich den Weg zu ebnen. Sie boten den Automobilisten ein Forum, dem Publikum Spannung, schufen populäre »Sieger« und »Helden«, machten neugierig und führten einer breiten Öffentlichkeit das technische Potenzial der »Selbstfahrer« vor Augen.
Dieses Potenzial sichtbar zu machen, war auch eines der Ziele der Pariser Tageszeitung Le Matin, die im Herbst 1907 zu einer »Tour de Pol«, einer Wettbewerbsfahrt durch die Kältezonen der nördlichen Halbkugel, inklusive Alaska und das nördliche Sibirien, aufrief, die im Winter 1907/08 in New York starten und in Paris enden sollte. Schnell in Euphorie geraten, diskutierte die automobile Welt, ob denn eine solche Fahrt mit dem Automobil auch tatsächlich machbar war, immerhin gab es kaum Erfahrung mit Benzinern in Eis und Schnee. Die Einschätzung seitens der Experten war jedoch optimistisch. Angesichts der raschen technischen Entwicklung des Automobils »sollte eine solche Tour keine unüberwindlichen Schwierigkeiten bieten«, wie Henry Savage Landor, ein damals bekannter Exkursionsreisender, der New York Times als Mitveranstalter auf amerikanischer Seite attestierte (New York Times, 27.11.1907). Das einzige Element der Unsicherheit erschien ihm die Passage der Beringstraße. Für den Rest der Route könnten Automobilisten überall Wege finden. (…)
In dieser Zeit des verschärften Imperialismus und Nationalismus waren internationale Automobilrennen eine Bühne des nationalen Schaulaufens und Wettbewerbs. So war es auch nicht automobiler Enthusiasmus, sondern nationaler Stolz, der den 31-jährigen deutschen Oberleutnant Hans Koeppen bewog, sich dafür zu engagieren, dass ein deutscher Wagen an dem Wettbewerb teilnahm. Bis 1908 war er sportlich nur als Ausdauergeher beim Militär aufgefallen; er konnte zum Zeitpunkt des Rennstarts weder ein Auto fahren, noch hatte er je an einem Rennen teilgenommen. Gleichwohl gelang es ihm, mit Unterstützung der Berliner Firma Protos und der Berliner Zeitung am Mittag bzw. des Ullstein-Verlags, eine Mannschaft auf die Beine zu stellen. Wie viele andere Teilnehmer unterschätzten sie die Strapazen, die sie erwarten würden. Koeppen glaubte sich zunächst auf einer Wettbewerbs-Tourenfahrt, bei der es, wie bei den damals bekannten Zuverlässigkeitsfahrten, weniger um Schnelligkeit, als ums Ankommen ging. Erst allmählich realisierte er, dass die Fahrt die Qualität eines Langstreckenrennens annahm. (…)
Neben der Konkurrenz aus Frankreich – drei Teams auf DeDion, Motobloc und Sizaire-Naudin, unter denen sich Veteranen des Rennens Peking – Paris befanden – waren am Start am Times Square. Eine Crew aus Italien auf einem Züst und ein amerikanischer Thomas Flyer, der mit dem Rennfahrer Montgomery Roberts am Steuer und dem Teamleiter George Schuster, einem bewährten Entwickler und Erprobungsfahrer der Firma Thomas, schnell zu den Favoriten zählte und auf der Strecke durch die USA meist in Führung lag. (…)
Die erste große Etappe führte die Teilnehmer durch die USA, auf einer Strecke etwas nördlich des 40. Breitengrades, im Osten durch Albany, Buffalo, Cleveland, Chicago, im Westen durch Omaha, Columbus, Ogallalla und die Rocky Mountains, dann etwas südlicher nach San Francisco. In Abwandlung der ursprünglichen Pläne – es drohte infolge eines mehrfach verschobenen Starts zu warm zu werden, um über Eis fahren zu können, wurde die Fahrtroute von hier an geändert. Fahrzeuge und Mannschaften wurden statt nach Alaska von Seattle nach Wladiwostok verschifft und setzten ihre Fahrt auf dem eurasischen Kontinent durch das südlichere Sibirien fort, vorbei am Baikalsee, durch die Taiga, schließlich über Moskau, St. Petersburg, Königsberg und Berlin nach Paris. Einzig George Schuster erlaubte sich einen Abstecher mit dem Schiff nach Valdez, nur um zu berichten, dass es unmöglich war, mit dem Auto Alaska zu bereisen. Später wurden ihm dafür 15 Bonustage gutgeschrieben.
Aber auch der Winter in den nördlichen Staaten der USA hatte den Teilnehmern manche Herausforderung zu bieten. Kilometer über Kilometer mussten sie sich den Weg freischaufeln oder von Bauern räumen lassen. Die erste Gruppe auf einem 1-Zylinder Sizaire-Naudin schied so schon am ersten Tag aus. Als es wärmer wurde, erwarteten die Fahrer dagegen überall morastige Straßen und Sümpfe, in denen die Wagen förmlich versanken. Einen Ausweg boten in dieser Welt ohne geeignete Straßeninfrastrukturen einzig die Eisenbahntrassen, wie die Strecken der Union Pacific oder der Transsibirischen Eisenbahn. Das Holpern über Schwellen strapazierte die Wagen arg und zog geplatzte Reifen, zerschundene Getriebeeinheiten oder Materialbrüche nach sich. Schwere Pannen hielten die Betroffenen oft über Tage an einem Ort fest, wo sie auf Ersatzteile warteten oder mit Hilfe der örtlichen Schmiede versuchten, ihre Fahrzeuge wieder in Gang zu setzen. Auch das Fehlen von Brücken warf große Probleme auf. Als weitere Herausforderung gestaltete sich die Versorgung mit Benzin. Zwar hatte die Rennleitung Depots einrichten lassen, die aber oft weit auseinanderlagen oder nicht zugänglich waren. Deshalb mussten sich die Teilnehmer selbst mit Treibstoff bevorraten. Durch die dauernden Belastungen, das gefürchtete Rocky-Mountain-Fieber und Malaria-Mücken erkrankten einige Teilnehmer zudem schwer.
Unter diesen Umständen erreichten letztlich nur drei Mannschaften das Ziel. Nach einem hart umkämpften Rennen, das sich der Thomas Flyer und der Protos auf ihrer Reise durch Sibirien und Europa lieferten, wo sie wechselweise in Führung lagen und wieder zurückfielen, erreichte der Protos am 26. Juli 1908 als Erster das Ziel. In Berlin schon als Sieger gefeiert, mussten sich Koeppen und seine neuen Begleiter jedoch mit dem zweiten Platz begnügen, denn die Protos-Mannschaft war nicht über San Francisco gefahren, sondern wegen eines schweren Wagendefekts mit der Eisenbahn von Ogden nach Seattle gereist, was ihr 15 Straftage eintrug. Zum Sieger des Rennens wurde das Team auf dem Thomas Flyer erklärt, das Paris vier Tage später erreichte. Als Dritter folgte im September der Züst.
– Dr. Bettina Gundler, Kuratorin im Deutschen Museum, zuständig für die Sammlungsabteilungen Straßenfahrzeuge/Straßenverkehr und die Exponate des vorindustriellen Landverkehrs.
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 3/2008.
25 Meter misst der Durchmesser des Antennenspiegels im Inneren des Radoms. Auch heute noch funktioniert die Antenne einwandfrei. Rund um die Antenne präsentiert der Förderverein Original-Objekte und Modelle, die die Geschichte der Kommunikationstechnik lebendig werden lassen.
Wer von München nach Weilheim fährt, hat am Südende des Ammersees einen grandiosen Blick auf die »Raistinger Wanne«. In dieser weiten Talebene steht ein einzigartiges Industriedenkmal, die Erdfunkstelle Raisting. Die Raistinger Wanne war aufgrund ihrer Abschirmwirkung hervorragend geeignet für den Empfang sehr schwacher Hochfrequenzsignale. Und so wurde hier ab 1963, beginnend mit der Antenne 1, eine der größten Erdfunkstellen für den Nachrichtenverkehr über Satelliten aufgebaut.
Das Radom – ein Kunstwort – leitet sich von »Radar« und den damals gebräuchlichen domkuppelförmigen Schutzhüllen ab. Die Radomhülle hat die Aufgabe, die empfindliche Konstruktion vor Witterungseinflüssen und direkter Sonnenbestrahlung sowie die Parabolantenne selbst vor direktem Kontakt mit Regen oder Schnee zu schützen. Das Radom wurde 1963 erbaut. Seine Traglufthalle in Form einer ¾-Kugel hat 48 Meter Durchmesser und ruht auf einem Fußring aus Beton. Der runde Gebäudekomplex wird so mit einer 15 Tonnen schweren und nur 1,8 Millimeter starken Hypalon/Dacronhülle gekrönt. Die Hülle wurde in einer Kiste angeliefert, über den Fußring gezogen und aufgeblasen. Sie steht nun mehr als 44 Jahre. An den Werkstoff der Hülle und deren Verarbeitung wurden eine Reihe von Anforderungen gestellt, wie geringe Abschirmung von Mikrowellen, große Gasdichte, geringes spezifisches Gewicht und große Bandbreiten und Längen der Folie. Alle Tragluft-Radome der Erdfunkstellen aus der damaligen Ära, wie in Millvillage/Kanada, in Andover/USA und Pleumeur-Bodou/Frankreich wurden abgerissen. Einige Jahre später, beim Bau der Antenne 2 konnte auf die Hülle verzichtet werden, da unter anderem die Spiegelkonstruktion beheizt wurde.
Die Antenne ist eine 280 Tonnen schwere MAN-Stahlkonstruktion. Sie hat einen 25-Meter-Spiegeldurchmesser, arbeitet im C-Bandbereich (Sendefrequenz 5.925-6.425 MHz; Empfangsfrequenz 3.700-4.200 MHz) und funktioniert nach dem »Cassegrainprinzip«. Die rote Fachwerkgitterkonstruktion der Parabolantenne ruht auf einem »Knick-A-Bockträger«. Dieser Spiegel verlangt höchste Geometrie und Formstabilität. Die Oberfläche des Spiegels durfte nur weniger als zwei Millimeter von der theoretischen Linie abweichen. Die zulässige Streuung auf den Satelliten war auf nur 0,04° vorgegeben. Der Schwenkbereich und die Drehgeschwindigkeit des Kolosses waren enorm, in der Vertikalen 115° bei 3,5 °/sec in der Horizontalen 360° bei 2°/sec. Die räumliche Bewegung der Antenne und deren Antrieb mussten in allen Verbindungen spielfrei sein, um so die Ansteuerung zum Satelliten zu ermöglichen. Die Anforderung ist verständlich, wenn man berücksichtigt, dass bei der Übertragung, d.h. Senden und Empfangen, die zweite Antenne für die Kommunikation in den USA steht und die Signale über einen – in 36.000 Kilometer über dem Äquator stehenden – Satelliten laufen. Der Satellit hatte die Größe eines Esstisches. Dieser musste die Signale aufnehmen und wieder zur Erde weiterleiten. In Zahlen ausgedrückt bedeutet dies bei einer Sendeleistung von 2.000 Watt zum Satelliten eine empfangene Leistung an der Gegenstelle von etwa 0,000000000001 Watt oder ein pico Watt.
Ein weiterer Höhepunkt technischer Leistung war es, diese vorher nicht verstärkbaren elektromagnetischen Signale wieder in eine verständliche Form aufzubereiten. Die Lösung war der Bau eines sogenannten Masers (Mikrowave Amplification by Stimulated Emission of Radiation). Die physikalischen Grundlagen für die Masertechnologie und der daraus folgenden Lasertechnik wurden erst im Jahre 1955 in USA erkannt, und diese Erkenntnis wurde dann auch 1964 mit dem Nobelpreis geehrt. Das Kernstück des Masers war ein künstlich hergestellter Einkristall, ein Rubin von ca. 80 Millimeter Länge. Die Züchtung großer Einkristalle war ebenfalls technisches Neuland. Die Kristalle für die Chipherstellung werden heute in Massenproduktion gezüchtet. Dieser Rubin, eine extrem reine Materie mit exaktem Atomgitteraufbau, hing in einem Isoliergefäß zwischen den Polen eines starken Dauermagneten an den Hochfrequenz Zu- und Ableitungen. Das Isoliergefäß mit diesem Kristall wurde mit flüssigem Helium gefüllt. Die Siedetemperatur von Helium ist minus 269° Celsius und somit nahe dem absoluten Nullpunkt der Temperaturskala. In diesem Zustand wurde es nun möglich, diese verschwindend geringe empfangene Leistung aufzunehmen und um das 10.000fache zu verstärken.
Im Jahr 1957 wurde der erste Satellit »Sputnik« platziert. Es folgten die ersten Nachrichtensatelliten »Relay« und »Telstar«. Diese kreisten auf einer elliptischen Umlaufbahn, 45° geneigt zum Äquator und in einem Abstand zur Erde zwischen 1.000 und 10.000 Kilometern, die Umlaufzeit war etwa drei Stunden. Die Antenne musste daher sehr genau nachgeführt werden. Die Raketenbauer waren gefordert, ihre Trägersysteme dahingehend zu entwickeln, die Satelliten in noch größere Höhen zu positionieren, da sich mit größerem Abstand eines Satelliten zur Erde auch die Umlaufzeit vergrößert. Die Forderung war, einen Satelliten in einer Höhe von 36.000 Kilometer mit konstantem Abstand auf eine Kreisbahn mit einer Umlaufzeit von 24 Stunden zu platzieren – quasi synchron zur Erddrehung. Dies wurde erstmals 1963 mit dem Satellit »Syncom II« erreicht. Die Nutzung dieser neu gewonnenen Technologien wurde bald beim Bau von allen Trägerraketen, Satelliten, Antennen, sowie von Computern eingesetzt. 1961 kam es zur ersten Vereinbarung zwischen der Deutschen Bundespost und der NASA bezüglich der Teilnahme an Versuchen mit Nachrichtensatelliten. Die Tests wurden im Jahr 1964 aufgenommen. Noch 1964 wurde die Intelsat (Internationale Telecommunikation Satellite Consortium) gegründet – es waren elf Staaten beteiligt. Nach zwanzig Jahren war das Konsortium auf 110 Staaten und zwanzig Satelliten angewachsen.
Bereits 1999 wurde das Radom in die Denkmalschutzliste aufgenommen. 2003 wurde der Förderverein Industriedenkmal Radom Raisting e.V. gegründet. Ein Denkmal wie das Radom in Raisting ist nicht wegen seiner Vergangenheit und Gegenwart interessant, sondern für die Zukunft und deren Bezug auf die Vergangenheit. Ohne diese Entwicklung gäbe es die viel diskutierte Globalisierung heute nicht.
– Max Bräutigam, Ronald Sinda, Robert Uhlitzsch
Auszug aus einem Beitrag in der Zeitschrift Kultur&Technik Ausgabe 3/2008.
]]>Im Juni 2008 besuchte der amerikanische Physik-Nobelpreisträger George Smoot das Deutsche Museum und brachte ein neues Exponat mit.
Bild: Arno Penzias (rechts) und Robert Wilson (links) vor der Hornantenne, mit der die Radioastronomen den kosmischen Mikrowellenhintergrund entdeckten.
Die Messapparatur war in der Kabine links untergebracht und steht heute im Deutschen Museum.
Der Entdecker der Fluktuationen im kosmischen Mikrowellenhintergrund, Georg Smoot, hatte sein Differentielles Mikrowellenradiometer (DMR) mitgebracht, das er dem Deutschen Museum übergab. Bei dem neuen Nobelpreisexponat handelt es sich um das mechanische Testmodell eines von drei Geräten, die an Bord des Forschungssatelliten COBE (Cosmic Background Explorer) im Jahr 1992 Temperaturschwankungen im Mikrowellenhintergrund gemessen haben (siehe Bild 2). Da sich das Original des 31 GHz DMR noch im Orbit befindet und am Ende der Mission planmäßig zusammen mit dem Trägersatelliten COBE in der Erdatmosphäre verglühen wird, kann dem Museumsbesucher »nur« das Testmodell als Zeuge dieser epochalen Entdeckung gezeigt werden. Smoot stellt dem Museum sein DMR, das ihn jahrelang auf Vortragsreisen begleitet hat, als Leihgabe zur Verfügung. Es wird vorläufig im Eingangsbereich der Astronomieausstellung ausgestellt, bevor es als eines der Hauptexponate in der geplanten Kosmologieausstellung zu bewundern sein wird.
Mit Smoots Beobachtung kleiner Temperaturschwankungen im kosmischen Mikrowellenhintergrund begann eine neue Epoche in der Kosmologie – man spricht von der Ära der Präzisionskosmologie. Gemeint ist damit, dass Messungen von Fluktuationen im Mikrowellenhimmel erstmals Daten lieferten, die eine genaue Überprüfung des Urknall-Modells erlaubten. Der englische Physiker Steven Hawkins bezeichnete die Ergebnisse der COBE-Mission deshalb überschwänglich als: »…die größte Entdeckung des Jahrhunderts, wenn nicht sogar aller Zeiten.« (Interview mit der London Times im April 1992)
In der Euphorie der ersten Stunden nach der Veröffentlichung der COBE-Ergebnisse war die Begeisterung von Steven Hawkins sicherlich gerechtfertigt. Sieht man die gesamte Geschichte kosmologischer Forschung, so war die eigentliche Entdeckung der kosmischen Mikrowellenhintergrundstrahlung 28 Jahre früher eine vergleichbar große wissenschaftliche Sensation. Für diese Entdeckung wurde ebenfalls der Nobelpreis für Physik verliehen. Ihn erhielten 1978 die beiden Radioastronomen, Arno Penzias und Robert Wilson. (im Bild)
Auch von ihrer Entdeckung erzählt ein Nobelpreisexponat im Deutschen Museum. Es ist die Messapparatur der Hornantenne von Penzias und Wilson, mit der die beiden die kosmische Mikrowellenhintergrundstrahlung im Jahr 1964 entdeckten. Das Exponat hat einen Ehrenplatz im Vorraum der Astronomieausstellung. Im Schreiber kann man hier noch die erste Messung der Reststrahlung vom Urknall bewundern. Das eigentliche Horn der Hornantenne, ein 15 Meter langer Trichter mit dem Segment eines metallischen Parabolspiegels, steht heute als »National Historic Landmark« in Holmdel, New Jersey.
Kurioserweise war die Entdeckung der kosmischen Hintergrundstrahlung von Penzias und Wilson im Jahr 1964 eine Zufallsentdeckung, obwohl in Fachkreisen eine Mikrowellenhintergrundstrahlung als Reststrahlung des Urknalls schon mehrfach diskutiert worden war. So sagten die amerikanischen Physiker Ralph Alpher und Robert Hermann schon 1948 einen Mikrowellenhintergrund voraus und berechneten seine Temperatur auf 5 Kelvin. Beide Physiker und ihr Kollege George Gamow veröffentlichten in der Folgezeit mehrere Arbeiten über das Thema. Es fand sich aber niemand, der versuchte diese Strahlung zu messen, bis eine Gruppe von Physikern an der Princeton Universität Anfang der 1960er Jahre das Thema wieder aufgriff und begann, im Frühjahr 1964 eine Antenne zur Messung der Mikrowellenhintergrundstrahlung zu bauen. Penzias und Wilson wussten weder davon, noch kannten sie die theoretischen Berechnungen Gamows und seiner Kollegen. Die beiden waren als Radioastronomen bei der Bell Telephone Company angestellt, und starteten 1963 ein Forschungsprogramm mit einer 20-Fuß-Hornantenne. Sie hofften, mit dieser Antenne Radiowellen aus dem Halo der Milchstraße zu empfangen, um damit den Aufbau unserer Heimatgalaxie zu entschlüsseln. Das Radiorauschen der Milchstraße ist aber schwer zu unterscheiden von dem unvermeidlichen elektrischen Rauschen, das von der Antenne, der Verstärkeranlage und der Atmosphäre erzeugt wird. Deshalb mussten Penzias und Wilson zuerst die verschiedenen Rauschquellen identifizieren. Zu ihrer Überraschung empfingen sie im Frühjahr 1964, bei einer Wellenlänge von 7,35 Zentimetern, ein beachtliches Rauschen, das sie keiner bekannten Quelle zuordnen konnten.
Ein Jahr suchten sie vergeblich nach der Rauschquelle, bis Penzias über Umwege Kontakt zu einer Forschergruppe um Robert Dicke aus Princeton aufnahm, die das Rauschen als Reststrahlung des Urknalls deuteten. Dicke soll nach dem Telefonanruf von Penzias aus Crawford Hill ausgerufen haben: »Jungs, man ist uns zuvorgekommen!«
Da es sich bei der kosmischen Hintergrundstrahlung um Temperaturstrahlung handelt, spricht man auch von Temperaturschwankungen im Mikrowellenhintergrundhimmel. Ihren Berechnungen nach entstanden die Temperaturunterschiede durch kleine Materieverdichtungen 300.000 Jahre nach dem Urknall. Ohne diese Materieverdichtungen könnte sich keine Materie in der Folge zusammengeballt haben. Mit anderen Worten: Es wären keine Sterne, keine Galaxien und keine Galaxienhaufen entstanden.
Nach der Entdeckung der Mikrowellenhintergrundstrahlung entwickelte sich ein regelrechter Wettlauf, wer als Erster die Fluktuationen im Mikrowellenhintergrundhimmel messen würde. Um das Problem der schlechten Durchlässigkeit der Erdatmosphäre für Mikrowellen zu umgehen, wurden Mikrowellenradiometer mit Ballonen in große Höhen gebracht. In den 1970er Jahren konnten erstmals Temperaturschwankungen von nur 1/1.000 Kelvin im Mikrowellenhintergrundhimmel gemessen werden. Der Temperaturunterschied trat auf, wenn man gegenüberliegende Himmelsbereiche verglich. Es ist die sogenannte Dipolanisotropie, ein Dopplereffekt, den man beobachtet, weil sich die Milchstraße mit einer Geschwindigkeit von ca. einem Tausendstel der Lichtgeschwindigkeit durch den Kosmos bewegt. Allerdings gab es weiter keine Anzeichen für die von Sachs und Wolfe berechneten Temperaturschwankungen, die ihren Ursprung im frühen Kosmos haben sollten.
Nach einigen fehlgeschlagenen Versuchen, weitere Temperaturschwankungen neben der Dipolanisotropie im Mikrowellenhintergrundhimmel zu messen, kam man letztendlich zu dem Schluss, dass die erforderliche Messgenauigkeit wohl nur bei einer Messung im Weltraum von einem Satelliten aus zu erreichen sei. Smoot und sein Team reichten daraufhin einen Antrag bei der NASA ein, um eine Satellitenmission zur Erforschung des kosmischen Mikrowellenhintergrundes zu starten. Bewilligt wurde ein Satellit mit drei Geräten zur Erforschung des Mikrowellenhintergrundes. Eines davon war das Differentielle Mikrowellenradiometer von Smoot.
Das Unternehmen war anfangs vom Pech verfolgt. Eigentlich war geplant, den Satelliten mit einem Spaceshuttle ins All zu befördern. Nach der Challenger-Katastrophe im Januar 1986 wurde dieser Plan aber fallengelassen und das ganze Projekt drohte zu scheitern. Smoot gab nicht auf, und schließlich stimmte die NASA zu, den Forschungssatelliten mit einer Delta-Rakete auf seine Umlaufbahn zu bringen. Das Gewicht des Satelliten musste noch einmal erheblich reduziert werden, bevor COBE endlich am 18. November 1989 von der Vandenberg Air Force Base in Kalifornien starten konnte (siehe Bild 4).
Die Messdaten, die das DMR ab 1989 vier Jahre lang sammelte und zur Erde funkte, waren sensationell. Die Himmelskarten, die Smoot und sein Team aus den Daten erstellen konnten, zeigten deutliche Unregelmäßigkeiten im Mikrowellenhintergrundhimmel. Dabei stellten sie fest, dass die Temperatur beim Blick in verschiedene Richtungen im Bereich von nur 1/100.000 der mittleren Mikrowellenhintergrundtemperatur schwankt. Gemäß dem Urknall-Modell sind diese Temperaturschwankungen ein direktes Abbild der Materiekonzentrationen 380.000 Jahre nach dem Urknall. Der mit dem DMR aufgenommene Mikrowellenhintergrundhimmel ermöglicht damit einen Blick tief in die Vergangenheit des Kosmos – es ist das erste »Bild« vom jungen Universum .
– Dr. Christian Sicka, Wissenschaftlicher Mitarbeiter des Deutschen Museums
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 4/2008.
]]>
Früher waren Duftstoffe ein Zeichen für Luxus, heute sind sie aus dem Alltag kaum mehr wegzudenken. In den letzten Jahrzehnten haben sowohl die Gesamtmenge der eingesetzten Stoffe, die Anzahl der Stoffe als auch die Vielfalt der Anwendungsbereiche stark zugenommen.
Als Duftstoffe bezeichnet man alle Stoffe, die selbst duften, die einen Duft verstärken oder einen Duft »maskieren«, so die Definition des Internationalen Riechstoffverbands (IFRA). Etwa 2.750 Duftstoffe, die in der Europäischen Union in Kosmetika eingesetzt werden (SCCNFP), sind derzeit erfasst. Diese Liste ist jedoch nicht vollständig, da auch andere Stoffe angenehm riechen können. Schätzungsweise können bis zu 10.500 verschiedene Stoffe als Duftstoffe eingesetzt werden.
Duftstoffe gehören zu ganz unterschiedlichen Stoffklassen, z.B. Alkohole, Aldehyde, Amine, Carboxylsäuren, Ester, Lactone, Ether, Sulfide. Beispiele für häufig verwendete Stoffe sind Citronellol, Geraniol, Hexylcinnamaldehyd, Lilial, Limonen, Linalool, Nerol, alpha-Pinen, Tetrahydrolinalool oder Thymol. Natürliche Duftöle bestehen aus vielen Einzelverbindungen und ihre Zusammensetzung kann variieren.
Namentlich müssen nur 26 Duftstoffe, die allergenes Potenzial aufweisen, auf der Packung aufgeführt werden, wenn sie zu mehr als 0,01 Prozent in einem Produkt enthalten sind. Bei Kosmetika, die auf der Haut bleiben und nicht sofort wieder abgewaschen werden, wie etwa Körperlotion, gilt ein Grenzwert von 0,001 Prozent (EU-Richtlinie 2003/15/EC). Die genauen Mengen und die weiteren Duftbestandteile werden nicht bekannt gegeben. Auf Lebensmittelverpackungen ist ebenfalls aufgedruckt, ob Aromastoffe zugesetzt wurden. Die Duftinhaltsstoffe in anderen Produkten müssen nicht offengelegt werden. Wenn mit der Eigenschaft eines guten Geruchs, z.B. bei Papiertaschentüchern oder Toilettenpapier, geworben wird, haben die Verbraucher wenigstens einen Hinweis darauf, dass Duftstoffe im Produkt enthalten sind. Ansonsten müssen sie auf ihre eigene Nase vertrauen.
Viele der in großen Mengen eingesetzten Duftstoffe werden schon seit Jahrzehnten oder gar Jahrtausenden verwendet. Über diese Stoffe hat man recht gute Kenntnisse. Anders sieht es bei den Tausenden von anderen Duftstoffen aus, die in den letzten Jahren dazugekommen sind. Zudem haben sich die Mengen und die Zusammensetzungen der Duftmischungen sehr verändert, sodass man nicht davon ausgehen kann, dass Duftstoffe, nur weil sie schon lange verwendet werden, auch unschädlich sind.
Für Duftstoffe, die im Kosmetikbereich eingesetzt werden, wird in der Regel getestet, ob sie hautreizend, sensibilisierend oder fototoxisch sind. Duftstoffe sind nach Zink die Hauptursache von Kontaktallergien. Man schätzt, dass in Deutschland mindestens eine halbe Million Menschen von Duftstoffallergien betroffen sind. Eichenmoos und Isoeugenol sind die häufigsten Allergieauslöser. Über die anderen Wirkungen von Duftstoffen auf die menschliche Gesundheit liegen bisher nur wenige Untersuchungen vor. Viele Duftstoffe sind hitze- und lichtempfindlich, sodass sie sich in der Innenraumluft chemisch verändern. Dies ist vor allem bei Duftkerzen, Duftöllämpchen und Räucherstäbchen relevant. Die entstehenden Reaktionsprodukte sind oft giftiger als die Ausgangsstoffe. Mit natürlichen Duftölen, sogenannten ätherischen Ölen, sollte man vorsichtig umgehen, da sie ebenfalls giftige Stoffe enthalten können. Besonders giftig sind Kampher, Eukalyptus- und Pfefferminzöl, etwas weniger giftig sind Terpentinöl, Orangen-/Zitronenschalen-, Teebaum- und Nelkenöl. Ätherische Öle können das zentrale Nervensystem, die Nieren oder die Atemwege beeinträchtigen und beim Verschlucken zu massiven Vergiftungen führen. Vor allem Säuglinge und Kleinkinder reagieren auf kleinste Mengen.
Umweltorganismen sind noch stärker auf die Wahrnehmung von Gerüchen angewiesen als der Mensch. Sie erkennen ihre Nahrung, ihre Artgenossen oder ihre Feinde anhand der Geruchsstoffe in ihrer Umgebung. Zum Beispiel muss der einheimische Fisch Elritze den Hecht, seinen Feind, nicht sehen, um zu wissen, dass er in der Nähe ist. Um zu wissen, wie groß er ist und ob er alleine ist, ob der Hecht hungrig ist und ob er zurzeit Appetit auf Elritzen hat. Die Elritze kann all diese Informationen riechen. Es gibt Hinweise, dass diese hochempfindliche Wahrnehmung der Umgebung durch Umweltchemikalien, z.B. Duftstoffe, gestört wird. Diesen Effekt nennt man »Infochemical Effect«.
Natürliche Duftstoffe sind nicht grundsätzlich besser als synthetische Duftstoffe. Dafür gibt es vor allem zwei Gründe: Erstens gibt es auch gesundheitsschädliche natürliche Stoffe. Es ist ein Irrglaube, dass Naturstoffe grundsätzlich weniger giftig wären als chemisch synthetisierte Stoffe. Viele natürliche Duftstoffe sind sekundäre Pflanzenstoffe, die diese Pflanzen in kleinen Mengen herstellen, um einen bestimmten Zweck zu erfüllen: Sie locken mit diesen Stoffen Insekten als Bestäuber an, sie wehren sich damit gegen Schädlinge oder sie schützen sich dadurch vor Infektionen. Natürliche Duftstoffe weisen daher oft eine hohe biologische Aktivität auf, die in der Anwendung als Duftstoff nicht immer förderlich für die menschliche Gesundheit sein muss.
Es ist nicht einfach, sich im normalen Alltag Duftstoffen zu entziehen. Sie sind fast allgegenwärtig. Das Angebot an duftstofffreien Produkten ist sehr übersichtlich. Der Deutsche Allergie- und Asthmabund verschickt auf Anfrage eine Liste mit Produkten, die das Logo des Deutschen Allergie- und Asthmabunds tragen. Auch das europäische Verbraucherzentrum EVZ in Kiel hat eine Liste von duftstofffreien Produkten veröffentlicht. Beachten Sie, dass »duftneutrale« Produkte nicht »duftstofffrei« sind, denn sie enthalten Duftstoffe, die den Eigengeruch der anderen Inhaltsstoffe überdecken.
Beim Umgang mit Duftstoffen sollten Sie sich bewusst sein, dass ein angenehmer Geruch mit unangenehmen Wirkungen auf Gesundheit und Umwelt verbunden sein kann. Viele Duftstoffe sind (noch) nicht gekennzeichnet oder verboten, da sehr wenige Informationen vorliegen, die Stoffe nur in sehr kleinen Mengen verwendet werden oder es sich um Naturstoffe handelt. In unserer Gesellschaft muss jeder Konsument selbst Verantwortung für seinen Umgang mit Gefahrstoffen im Alltag tragen. Bei Alkohol, Tabakwaren und Arzneimitteln ist das bekannt. Dass Duftstoffe ebenso in diese Liste gehören, ist für viele eine Offenbarung.
– Prof. Dr. Ursula Klaschka
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 4/2008.
Versuche mit Produkten, die in jedem Supermarkt erhältlich sind, lassen Schülerinnen und Schüler selbst entdecken, wie viel Chemie im Alltag steckt. Sie stellen Gummibärchen her, erhalten Ernährungstipps oder lernen, Haarwaschmittel von Flüssigseife zu unterscheiden. Diese Erfahrungen sollen dazu beitragen, ein grundlegendes Interesse an wissenschaftlichen Fragestellungen und Methoden zu wecken und Berührungsängste abzubauen. Das Programm des Schülerlabors zur Alltagschemie richtet sich an weiterführende Schulen bis zur 10. Klasse, aber auch Grundschulklassen ab der 2. Klasse kommen auf ihre Kosten.
Die Zweigstelle in Bonn stellt damit nicht nur wichtige naturwissenschaftlich-technische Entwicklungen neuerer Zeit in lebendiger Form dar und setzt sie in Zusammenhänge. Sie vermittelt darüber hinaus mit Angeboten wie dem 2003 eröffneten Schülerlabor zur Nanotechnologie »Mannometer: Nanometer!«, dem umfangreichen Workshopangebot für Kinder und Jugendliche und nun der »ExperimentierKüche« auch Kernkompetenzen, die für jede Lebens- und Berufsbewältigung wichtig sind: Kreativität, aber auch Effektivität, Fantasie, Innovationskraft und pure Neugier mit der daraus resultierenden Freude am Entdecken.
Für die »ExperimentierKüche« konnte mit der in Bonn ansässigen Deutsche Telekom Stiftung ein idealer Kooperationspartner gefunden werden. Die Stiftung engagiert sich gezielt für die Verbesserung der Bildung in den Bereichen Mathematik, Informatik, Naturwissenschaften und Technik und ist seit Juli 2007 auch Förderer von »Lernort Labor«, der Netzwerkplattform der nationalen Schülerlabore. »Schülerlabore sind aus der deutschen Bildungslandschaft nicht mehr wegzudenken, stehen aber in der bildungspolitischen Diskussion noch zu sehr im Hintergrund«, erklärte Ekkehard Winter, Geschäftsführer der Deutsche Telekom Stiftung, anlässlich der Eröffnung der ExperimentierKüche am 29. März 2007. »Mit unserem Engagement wollen wir dazu beitragen, dass dieses Thema mehr Aufmerksamkeit erhält. Die ExperimentierKüche wird sich dabei hoffentlich zu einem Paradebeispiel für einen gelungenen und modernen außerschulischen Lernort entwickeln.«
Die ExperimentierKüche wird aber noch von weiteren Partnern unterstützt. An erster Stelle sei hier der Lebensmittelchemiker Prof. Dr. Georg Schwedt genannt, der mit Experimentalvorträgen unter anderem zur Chemie von Supermarktprodukten bundesweit bekannt wurde. Auf ihn geht die Idee eines Supermarktlabors zurück. Mit der Bezirksregierung Köln, den Chemieverbänden NRW, dem Institut für Ernährungs- und Lebensmittelwissenschaften der Universität Bonn (IEL) sowie dem Schulamt für die Stadt Bonn können wir auf kompetente Partner zählen. Den Aufbau der ExperimentierKüche hat zudem der Fonds der Chemischen Industrie unterstützt. Alle Partner sind auch im Beirat vertreten, der zweimal im Jahr tagt.
Blick in die Zukunft. Die ExperimentierKüche und ihre Entwicklung wird uns hoffentlich noch länger beschäftigen. Gerade für die Zielgruppe Hauptschulen erarbeiten wir in Zusammenarbeit mit der Deutsche Telekom Stiftung neue, weiterführende Strategien, die besonders die Übergangsphase Schule – Beruf betreffen. Hier gibt es noch viel zu tun! Doch bevor wir unsere diesbezüglichen Ideen umsetzen, steht der nächste Schritt an. Unter dem Motto »ExperimentierKüche entdecken« können nicht nur Schüler, sondern alle Besucher an jedem zweiten und vierten Sonntag im Monat von 14 bis 17 Uhr bei unseren Schnupperkurse mitmachen, beispielsweise bei der Parfümherstellung!
– Dr. phil. Andrea Niehaus, Leiterin der Bonner Zweigstelle des Deutschen Museums.
Einen Ausführlichen Artikel gibt es in der Zeitschrift Kultur&Technik, Ausgabe 4/2008.
]]>
Mit dem Einsatz von Öl, das magnetisch am Kolben haftet, wird es dagegen sehr einfach. Mit einem kugelförmigen Öltropfen der vom Zylinder in die Form gepresst wird, wird der Spalt geschossen und der Kolben wird dabei sogar noch im Zylinder zentriert.
Zur Demonstration wurde der Arbeits-Zylinder mit einem Verdränger-Zylinder zu einem einfachen Stirlingmotor erweitert.
Zum Betrieb wird die linke Seite des Verdrängerdzylinders erwärmt während die rechte Seite kühl bleibt. Bei der Erwärmung dehnt sich die Luft aus und drückt den Kolben des Arbeitszylinders heraus.
Durch die Veränderung der Lage rollen die Tischtennisbälle von der kalten zur warmen Seite und drängen dabei die Luft zur kalten Seite. Die Luft zieht sich zusammen, der Kolben und die Bälle gehen zurück und es beginnt der nächst Zyklus.
Eine hohe Position des Schwerpunkts Verdrängerzylinders bezüglich seiner Aufhängung führt zu einer Hysterese, die auch ohne Schwungrad eine zyklische Bewegung ermöglicht.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>Das JWST Modell vor dem Deutschen Museum
Im Museum kann man einen spannenden Bogen schlagen:
Der 9-Zoll Refraktor aus der Fraunhoferschen Werkstatt von Georg Merz (1793-1867) in den Jahren 1828/29 für die Sternwarte Berlin-Babelsberg gebaut, steht in der Akademiesammlung praktisch direkt hinter dem JWST. J. G. Galle (1812-1910) entdeckte mit diesem Teleskop 1846 den Planeten Neptun an dem von Leverrier vorausberechneten Platz.
Mit diesem Fraunhofer Refraktor wurde der Planet Neptun entdeckt
Mit JWST will man u.a. die ältesten Galaxien finden die dach dem Urknallmodell im frühen Kosmos entstanden sind. Die Existenz des Mikrowellenhintergrundes wurde von Alpher 1948 als direkte Konsequenz des heißen Urknallmodells von Gamow vorhergesagt. Die Strahlung konnte 1964 von Penzias und Wilson mit einer Hornantenne nachgewiesen werden. Diese Messapparatur von Penzias und Wilson, mit der das Urknallmodell bestätigt werden konnte steht im Deutschen Museum in einer der größten Astronomie Ausstellungen der Erde.
Empfänger für die kosmische Hintergrundstrahlung
Bell Laboratories/USA, 1963-1964
Auch die Aparatur für die der Nobelpreis Physik 2006 an John C. Mather und George F. Smoot für deren Arbeiten an und mit dem “COsmic Background Explorer” Satelliten verliehen wurde ist ausgestellt. COBE wurde gebaut, um die kosmische Hintergrundstrahlung zu vermessen. Diese Strahlung ist ein Überrest (Echo) aus der Zeit des Urknalls.
Apparatur zur Messung der kosmischen Hintergrundstrahlung
Heute schaut man mit dem Hubble-Weltraumteleskop ins All. Es ist ein Teleskop für sichtbares Licht, Ultraviolett- und Infrarotstrahlung, das die Erde in 590 Kilometer Höhe innerhalb von 97 Minuten einmal umkreist. Das Teleskop wurde nach dem US-Astronomen Edwin Hubble benannt.
Hubble Weltraumteleskop
Der nächste Schritt wird 2013 dann das JWST sein.
]]>
Mit JWST erhofft man sich durch die Beobachtung dieser jungen Galaxien auch einen Blick zurück in die Vergangenheit unserer eigenen Galaxis, der Milchstraße. Um noch weiter als Hubble in die Tiefen des Weltalls schauen zu können, wird es sowohl mit einem größeren Spiegel, der das Licht besser bündelt (der Primärspiegel des JWST hat 6,5 m Durchmesser, wohingegen der von Hubble nur 2,4 m hatte), als auch mit einer Reihe empfindlicher Geräte ausgestattet, die insbesondere die eingefangene Strahlung in einem weiten Bereich des infraroten Lichts auswerten werden. Genau diese Strahlung ist es, die wesentliche Informationen vom Beginn des Universums und seinen ersten Sternen liefert, denn aufgrund ihrer Fluchtgeschwindigkeit ist ihr Licht, das uns aus dieser frühen Zeit erreicht, inzwischen in den Infrarotbereich verschoben. Man nennt das spektrale Rotverschiebung.
Den Kern der komplexen Instrumentierung bilden drei wissenschaftliche Instrumente:
Die empfindliche Infrarot-Kamera NIRCam detektiert Infrarotstrahlung im Bereich zwischen 0,6 und 5 μm Wellenlänge und wird vor allem zur Erforschung der ersten – nach dem Urknall – entstandenen Sterne eingesetzt werden.
NIRSpec ist ein Spektrograph für den nahen Infrarotbereich mit Wellenlängen von 0,6 bis 5 μm, der nicht nur hoch aufgelöste Spektren, sondern zusätzlich auch Bilder liefert.
MIRI, ein kombiniertes Instrument für den mittleren Infrarotbereich – bestehend aus Kamera und Spektrograph, ist für die Infrarotstrahlung zwischen 5 und 27 μm Wellenlänge empfindlich und deckt diesen Bereich mit Bildern und Spektroskopien ab.
Zusätzlich mit an Bord wird als viertes Instrument der FGS (Fine Guidance Sensor) sein. Er dient der Ausrichtung des Teleskops.
]]>
Mit Hilfe des JWST will man sich auf die Suche nach diesen ersten Galaxien begeben, das Mysterium der Ausbreitung des Universums sowie der Evolution von Galaxien, Sternen und Planenten ergründen und den Ursprung des Lebens erforschen. Es tritt damit die Nachfolge des Hubble Space Telescopes (HST) an, das seit dem Jahr 1990 die Erde umkreist und im Oktober diesen Jahres ein letztes Mal gewartet werden soll. Im Jahr 2013 soll dann das JWST ins All geschossen werden und mit seinen Untersuchungen im infraroten Frequenzbereich beginnen.
Ab dem 13. Oktober 2008 wird im Innenhof des Deutschen Museums ein Modell des JWST in Originalgröße für mindestens zwei Wochen zu bewundern sein. Mit seinen 24 Metern Länge, 11 Metern Breite, 12 Metern Höhe und mehr als 3 Tonnen Gewicht ist das Modell erstmalig in Deutschland im Rahmen eines Public Outreach Projekt zu sehen. Die ca. 5 Mrd. US$ für das Weltraumteleskop werden vorwiegend durch Steuergelder aufgebracht und somit stehen die NASA, ESA und kanadische Weltraumagentur in der Pflicht zu zeigen und zu erklären, was mit den Geldern geschieht.
Am 13. Oktober 2008 um 19 Uhr wird in diesem Zusammenhang John C. Mather, Nobelpreisträger für Physik 2006, einen Vortrag im Ehrensaal des Deutschen Museums halten. Darin wird er die wissenschaftlichen Ziele des JWST-Projekts, ausgehend von dessen Vorgänger HST, erläutern und aufzeigen, was neu ist und wie man methodisch vorzugehen gedenkt.
Für diesen Vortrag gibt es nur eine begrenzte Teilnehmerzahl. Anmelden kann man sich per Fax oder E-Mail bis zum 8. Oktober 2008.
Fax: +49 (0) 89 607 26039 oder E-Mail: annalena.auslaender@astrium.eads.net
Wer sich vorab schon über das JWST informieren und dabei kreativ betätigen möchte, kann mit Hilfe einer Anleitung für den Bau eines Modells im Maßstab 1:80 sein eigenes Teleskop zu Hause aufstellen. Neben einer Bauanleitung werden hier kurz und knapp die Funktionen der einzelnen Module erläutert und veranschaulicht.
]]>
„Guck mal Papi, ein Fotograf”, flüstert ein Mädchen an der Hand ihres Vaters, der auch nicht so genau weiß, was er von der Szene halten soll. Eine Aufsicht schlendert vorbei, nickt mir zu. Wir kennen uns schon, denn es ist nicht meine erste Expedition durch das Museum.
In den letzten zwei Jahren bin ich immer wieder durch die Sammlung gestreift auf der Suche nach dem anderen Blick auf die Technik. Nicht wie ein Besucher wollte ich sehen, der vom Spektakulären beeindruckt ist: von wuchtigen Schwungrädern, blinkenden Lämpchen und Ingenieursrekorden. Auch der Sichtweise der Ausstellungsmacher durfte ich mich nicht anschließen und darüber nachdenken, was ein Exponat bedeutsam macht, Ehrfurcht vor der Einmaligkeit spüren oder die Leistung des Erfinders würdigen.
Ich war auf der Suche nach dem Wesen der Maschine, dem Charakter der Geräte. So spürte ich Kratzer und Schleifspuren auf, die über das Gebrauchsleben der nun konservierten Geräte Auskunft gaben. Ich fand Markierungen, mit denen die Arbeiter Teile kennzeichneten, die sie exakt zu einander passend gemacht hatten, und die nun beim Zusammenbau nicht verwechselt werden durften. Mit den Mitteln der Portraitfotografie suchte ich nach Leben in kalten Metalloberflächen.
Wie Landschaften wollte ich die gefrästen, genieteten oder verschraubten Konstruktionen bereisen. „Techscapes” taufte ich daher das Projekt, eine Wortschöpfung aus „technology” und „landscape”, dessen Ergebnisse noch bis zum 11. Januar 2009 in der gleichnamigen Sonderausstellung in der Abteilung Foto und Film im Deutschen Museum zu sehen sind.
Auch wenn die Bilder fotografischen Ursprungs sind, dürften sie in den Augen mancher Betrachter die Grenze zur Grafik überschreiten, denn die Entdeckerreise setzte sich nach der Aufnahme fort. Ausgehend vom digitalen Farbfoto entstand am Computer zunächst eine Schwarzweißversion der Bilder, die der Interpretation von Licht und Schatten große Spielräume lässt.
Erst im letzten Schritt kam die Farbe wieder dazu, je nach Motiv als reduzierter Anklang an die Originalsicht oder als digitale Emulation klassischer Tonungen, wie sie in der chemischen Dunkelkammer oder dem Mehrfarbdruck üblich sind. Der großformatige Tintenstrahldruck auf Büttenpapier bereichert den Prozess um eine eigene Ästhetik. Fast holographisch wirken die dargestellten Strukturen. Wie Stoff scheint sich das Metall in Bögen zu legen, wie Flüsse mäandern Fugen über die Maschinenhaut.
Bewusst verraten die Techscapes nichts über den Maßstab der Abbildung. Der wuchtige Schraubenkopf kann die Makrosicht eines filigranen Schräubchens sein, die statuenhafte Silhouette zu einem massiven Gusseisenteil gehören. Für Tüftler und Rätselfreunde gibt die Beschilderung in der Ausstellung Hinweise auf die Maschine, deren Portrait hier zu sehen ist. Wer mag, kann so versuchen, die Entdeckungsreise durch die Ausstellungen nachzuvollziehen.
— Jürgen Scriba
Weitere Bilder auf www.jscriba.com
]]>
Der Mittelteil besteht aus einer konischen Spirale, die je nach
Magnetisierung eine, drei oder sogar mehr Spuren von Spitzen aufweist.
Weitere Spuren werden an den Zähnen der Krone und an der Kante des zentralen
Sechsecks gebildet.
Die Krone enthält horizontale Vertiefungen die den kontinuierlichen
Gradienten des Feldes unterbrechen. Auf dem Weg nach oben werden die
Vertiefungen, nach dem Anstauen von Flüssigkeit, in Fontänen übersprungen.
Auf dem Rückweg fällt die Flüssigkeit in großen Tropfen über den Spalt.
Der waagerechte Graben an der Sechseckkante bleibt beim Rückzug mit
Flüssigkeit gefüllt. Bei wieder ansteigender Magnetisierung erhebt sich
diese Flüssigkeit dann sehr steil auf der Kante des Sechsecks, dessen
Magnetisierung geringfügig stärker ist als die auf der anderen Seite des
Grabens.
Dabei sieht das Ganze auch einfach ganz nett aus.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>
Die Ausbreitung erfolgt bis zur Benetzungsgrenze. Eine erhöhte Verdunstung
verstärkt dabei den Fluss nach außen. Am Ende des Wegs, auf einem Kreis um
das Zentrum, wird die Konzentration der Flüssigkeit durch die Verdunstung
erhöht.
Bei der entsprechenden Konzentration bilden sich auf diesem Kreis Rosensweig
Spitzen, Flecken mit weiter erhöhter Konzentration. Diese Flecken werden
dann ausreichend stark angezogen, um gegen den kontinuierlichen, nach außen
gerichteten Fluss, zur Mitte zurückzukehren. Sie hinterlassen dabei eine
Spur von Ferrofluid.
In der Nähe des Zentrums werden die Flecken vom Material im Zentrum
abgestoßen, das die gleiche magnetische Orientierung hat. In der fließenden
Umgebung mit viel Verdünner können die Rosensweig Spitzen zum Zentrum
“tunneln”, wobei ihre Spur abgestoßen und zum Teil weggespült wird.
Mit der Abnahme des Verdünners und zunehmender Konzentration bilden sich im
Zentrum Spitzen. Das Material im Zentrum wird mit neuem, zurückfließendem
Material neu zu Spitzen gruppiert. Zum Schluss bleiben die Spitzen im
Zentrum getrennt und neues Material bildet weitere Spitzen.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>
Mit seinen Versuchen erschloss er wohl den ersten Weg, die Größe von
Molekülen zu messen, indem er sie in monomolekularen Schichten ausbreitete.
Der Film ist eine freie Darstellung der Versuche, mit neuvertonten Szenen
aus dem Public Domain Film: Beat the Devil.
Der klassische Versuch wird in der Physikausbildung mit einfachen Mitteln in
kleinem Maßstab durchgeführt. Hierzu wird ein Nanoliter Pflanzenöl in einer
Verdünnung 1/1000 in einem Tropfen von einem Kubikmillimeter dosiert. Damit
ergibt sich eine Fläche von 10 Quadratzentimetern, wie die im Film die dann
per blue screen in das Bild des Sees kopiert wurde.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>
Experiment 1, Lotus Effekt “sammeln Sie verschiedene Pflanzenblätter … und
lassen Sie Wassertropfen auf die Strukturen tropfen” wurde beim Ausprobieren
abgekürzt indem die Pflanzen bei Google gesammelt und ihre Bilder zusammen
ausgedruckt werden. Der Ausdruck wurde laminiert und mit einer Lotusschicht
versehen, so dass beim folgenden Test tatsächlich ein Lotuseffekt zu sehen
ist. Es ist immerhin erstaunlich, wie verbreitet der Lotuseffekt auch bei
anderen Pflanzen ist.
Experiment 2, Erzeugen einer hydrophoben Oberfläche auf Holz wurde für die
Aufnahme ernsthaft durchgeführt. Das Mittel erzeugt eine hydrophobe
Oberfläche wie es sich im Vergleichstest mit einem unbehandelten Stück
zeigt.
Experiment 3, Erzeugen einer hydrophoben Oberfläche auf Textilien, ist eine
gute Gelegenheit den Kleiderschrank nach einer alten Krawatte zu
durchsuchen. Es fand sich (mehr als) eine die zu kaum einem anderen Anlass
passen würde. Das entsprechende Mittel erzeugt eine gute Schutzschicht.
Durch die Luftschicht zwischen der Krawatte und den Wassertropfen glitzern
diese wie Diamanten.
Experiment 4: Zaubertinte für Glas – Erzeugen einer hydrophilen Oberfläche
(Anti-Fog). Zur Demonstration des Effektes wird eine Glasschale teilweise
beschichtet und angehaucht, es funktioniert.
– Dr.-Ing. Manfred Lobjinski
Manfred Lobjinski führt Demonstrationen zu Nanotechnologie im gläsernen Forscherlabor im Deutschen Museum vor.
]]>
Hinter den gut gesicherten Türen – selbst die meisten Museumsangestellten haben hier keinen Zutritt – wachsen die Zeitflöze, aus denen alle paar Jahrzehnte eine neue Ausstellung geschürft wird.
Die gesamte Lagerfläche ist inzwischen auf rund 30.000 Quadratmeter angewachsen; die etwa 15.000 Schaustücke, um die Tag für Tag Schulklassen toben, ruhen auf einem Fundament von gut 70.000 unsichtbaren Kandidaten.
In einem langsamen Verdauungsprozess reifen Alltagsgegenstände zu Exponaten. Gibt ein Gremium aus Kuratoren und Archivverwaltern sein Plazet, beginnt der wohlgeordnete Prozess der Katalogisierung, an dessen Ende zum Beispiel ein Handy mit einem Inventaranhänger geadelt seinen Platz im Regal findet.
So stieß ich auf ein Nokia 2110 oder seine Zeitgenossen von Siemens oder Motorola. Nun liegen sie wenige Regalböden entfernt von geheimnisvollen Apparaturen, mit denen vor nicht allzu langer Zeit belächelte Tüftler die Radiowellen entdeckten. Das „Alibifon 2000″ dürfte nur noch absoluten Insidern ein Begriff sein: Das klobige Gerät im Holzkasten war als automatischer Anrufbeantworter wohl mal Spitze der Telekommunikationstechnik.
Wie Konzertflügel glänzen die polierten Lackflächen der Fernseher aus den fünfziger Jahren mit ihren goldenen Drehknöpfen und schreien nach wärmenden Häkeldeckchen im kalten Blechregal, während einige Reihen weiter die spritzgegossenen Plastikgehäuse tragbarer Farbfernseher mit eingestanzten Schriftzügen wie „all Transistor” das Ende der Röhrenzeit bejubeln. Sonys Taschenfernseher „Watchman” kam im Originalkarton in die Ablage, und wann das iPod auftaucht, ist auch nur noch eine Frage der Zeit.
Im Verlauf des letzten Jahres habe ich immer wieder mit der Kamera die verschlungenen Gewölbe auf der Museumsinsel und einige der um die Stadt verteilten Außenlager durchstreifen dürfen.
Hier gelten andere Zeitmaßstäbe. Wer nur eine Schublade aufzuziehen braucht, um eine Originalglühlampe von Edison in der Hand zu halten, meint mit „vor kurzem” meist Ereignisse in den letzten zehn Jahren. Aus dieser Sicht droht alle paar Augenblicke ein Hochwasser auf der Isarinsel oder die Kündigung eines Mietvertrags in den Außenlagern.
Trotz der vielen Stunden im Archiv war für die fotografische Arbeit die Zeit natürlich immer zu knapp. Immer wieder musste ich mich zwingen, nicht dem allgegenwärtigen Drang zu Systematik und Vollständigkeit zu verfallen und nicht das Staunen zu verlernen über die Motive zu denen gewöhnliche Gebrauchsgegenstände durch den Aufenthalt in diesem merkwürdigen Schwebezustand des Zeitzeugen auf Abruf werden.
Die Lichtverhältnisse sind problematisch bis hoffnungslos. Ein unvorhersehbares Gemisch aus unterschiedlichen Lichtfarben der spärlichen Leuchtstoffröhren und kein Platz zwischen den engen Regalcanyons, um Fotolicht aufzubauen. Die HDR-Technik bot den Ausweg, auch aus den dunkelsten Winkeln noch etwas Helligkeit herauszukitzeln, doch erst in tagelangen Photoshop-Sitzungen gelang es mir, die HDR-typischen Bonbonfarben zu vertreiben und einen fast grafischen Look für die Bildstrecke zu entwickeln.
Eine spannende Entdeckungsreise in die Zukunft von gestern. Wer weiß, welche technische Kuriosität dereinst im Rückblick als Meilenstein gelten darf und welches aktuelle Wundergerät irgendwann Kopfschütteln hervorruft. Angeblich, so die Anekdote, taten sich die Kuratoren am Beginn des 20. Jahrhunderts schwer, das Geschenk eines Carl Benz anzunehmen. Galt das sogenannte Automobil seinerzeit doch als kurzfristige Modeerscheinung. Aber seien wir beruhigt: Das erste Dampfbügeleisen ruht sicher im Schrank.
— Jürgen Scriba
Weitere Bilder auf www.jscriba.com oder viel schöner gedruckt im aktuellen Zeit Wissen Magazin (3/2008).
]]>• verbraucherfreundlich und komfortabel
• kraftstoffeffizient und CO2-neutral
• geringe Emission: Euro 8 Standard
• leise (im Betrieb)
• hohes Sicherheitsniveau
Das Auto der Zukunft sollte in einer nachhaltigen Gesellschaft bestehen und diesen erweiterten Auftrag erfüllen:
• Skizzieren Sie die zukünftige Gesellschaft und erklären Sie, wie das Auto der Zukunft in diese Gesellschaft passt
• Weisen Sie ausführbare Funktionalität nach und erläutern Sie die soziale Relevanz
• Raumordnung: Indizieren Sie die Position des Autos der Zukunft in der gewünschten Qualität für den städtischen und den ländlichen Raum
Zusammenarbeit zwischen Universitäten und Firmen:
• Hochgradige Innovation durch Zusammenarbeit: Universitäten bitten Unternehmen um Unterstützung
Das Projekt wurde von 12 Studenten mit Unterstützung verschiedener Sponsoren ausgeführt.
Der Kontext
Dauerhaftes Wachstum heißt eine Balance zu finden, zwischen ökologischen, sozialen und wirtschaftlichen Aspekten unserer Existenz. Technologische Entwicklungen sowie neue Formen der Zusammenarbeit ermöglichen es uns eine verbesserte Mobilität zu gewährleisten.
Es ist wichtig, den Mensch in diese Entwicklungen miteinzubeziehen.
Der Autofahrer im Jahr 2020 ist kein passiver Konsument mehr, sondern ein aktiver Erzeuger von Mobilität. Unser Open-Source-Konzept stellt dabei den anfänglichen Impuls dar.
Die Automobilindustrie zielt zum Teil auf größere Autos mit stärkeren Motoren. Meistens jedoch wird der vermehrte Platz oder der schnellere Antrieb nicht genutzt. Wofür braucht man einen 3.0 Liter Motor, wenn man nur Kurzstrecken fährt und keinen hohen Benzinpreis zahlen will? Bei der Entwicklung des Autos der Zukunft schlagen wir einen anderen Weg ein.
Wir orientieren uns an der Position des Autofahrers im Jahre 2020 und seinen Bedürfnissen: Die Stellung des Autos, Familienzusammenstellung, Verkehrsaufkommen, Materialien, Motoren-Technologie, Fahrzeuginteraktionen, Umwelt, Kraftfahrzeugsteuer, Navigation, Kommunikation. Dieser Kontext resultierte in dem Auto der Zukunft-Mobilitätskonzept.
Das Design
Das Auto ermöglicht dem Nutzer mit anderen Verkehrsteilnehmern zu kooperieren. Die Beziehung zwischen Mensch und Automobil sollte daher einer Interaktion zwischen Gast und Gastgeber auf einer Party gleichen: Das Auto sorgt dafür, dass Du Dich wohlfühlst und bringt Dich auf eine entspannte und angenehme Weise in Kontakt mit anderen. Der Charakter der Gastgeberin (des Autos): offen, anziehend, freundlich, eigenwillig. Sie besitzt natürliche Eleganz. Diese Charaktereigenschaften findet man auch im Karosseriedesign wieder. Ansatz des Designs ist ein Thema aus der Natur:
ein Stein in der Mitte eines Flusses. Dies formt die Grundlage für das Design und die Aerodynamik, ein wichtiger Aspekt der Nachhaltigkeit des Autos der Zukunft.
Kooperation
Kooperation unter den Verkehrsteilnehmern spielt beim Auto der Zukunft-Konzept eine wichtige Rolle. Der Heckspoiler ermöglicht Community-Mitgliedern des Autos der Zukunft den Windwiderstand zu verteilen, wenn sie Konvoifahren (fahren in einer Art „road train”, eine Art der Kooperation auf der Straße). Sicht und Kontakt mit der Umgebung sind wesentliche Aspekte des transparenten Fensterdesigns und der Blinker. Die Fahrer nutzen diese Lichter, um ihre Fahrabsichten anzuzeigen, zum Beispiel wann sie genau abbiegen werden und dementsprechend wie lange sie mit anderen Fahrern auf der Straße kooperieren können. Die „Community-Boxes” in den Türen sind kleine Gepäckfächer, die von außen für autorisierte Personen zugänglich sind. Diese Personen könnten andere Community-Mitglieder sein, aber auch ein Anlieferer eines Webshops, der eine Bestellung einwirft, während man nicht beim Auto ist.
Nachhaltigkeit
Das aerodynamische Exterieur war ein sehr wichtiger Parameter für das Design. Das thermoplastische Material (Kunststoff) ist sehr gut recycelbar und relativ leicht. Die Produktionsmethoden ermöglichen viel mehr Freiheit beim Design als beim Exterieur aus Aluminium oder Metall.
DIE TECHNISCHEN KOMPONENTEN
Antriebstechnik
Das Auto der Zukunft ist ein Hybridfahrzeug mit Brennstoffzellen und Superkondensator. Der erste Antrieb funktioniert über die mit Wasserstoff gefüllte Brennstoffzelle, die die Energie für den Elektroantrieb speichert. Die Brennstoffzelle wird mit einem sogenannten Superkondensator kombiniert.
Dieser Kondensator verfügt über einen ausgezeichneten Energiespeicher und bildet somit den zweiten Antrieb für die Radnabenmotoren.
Die Kombination von einer Brennstoffzelle mit einem Superkondensator
resultiert in einem Antrieb, der – vorausgesetzt mit Wasserstoff betrieben, der nachhaltig produziert wurde – nicht zu schädlichen Emissionen führt.
Federungsdesign
Die Federung sorgt für eine angenehme und sichere Fahrt. Passagiere sollen keinen unangenehmen Vibrationen ausgesetzt sein und es soll ein optimaler Kontakt zwischen Reifen und Fahrbahn garantiert sein. Die Installation von weichen Federungen fördert den Komfortlevel des Autos, führt jedoch auch zu überhöhtem Wanken und unerwünschtem Ausbrechen der Reifen in den Kurven. Die Geometrie der Federung kann dieses Problem nur teilweise kompensieren, da die Reifen auch beim Geradeausfahren abgenutzt werden.
Es wurde ein aktives Federungssystem eingeführt, das wenig Energie verbraucht, um das Auto in den Kurven auszugleichen. Dank dieses Systems, sorgen die weichen Federungen für eine angenehme Fahrt und das Fahrzeug zeigt gleichzeitig gute Kurvenverhältnisse. Der Kontakt zwischen Reifen und Fahrbahn ist optimal und die Reifenabnützung ist
reduziert. Durch Drehung des verstellbaren Arms kann die Härte der
Federung geändert werden. Die sich ändernde Kraft, verursacht durch das Kurvenfahren, kann abgefangen werden und ein Wanken wird unterdrückt. Das Drehen des Armes bedarf keiner Kraft oder Energie, weil die Länge der zweiten Federung unverändert bleibt. Das Resultat ist ein aktives Federungssystem, das fähig ist das Wanken effizient zu vermeiden.
Platooning
Auf der Autobahn kann das Auto der Zukunft vollständig die Kontrolle vom Fahrer übernehmen. Über verschiedene, erweiterte Fahrer-Assistenz-Systeme sind die Position auf der Straße und die direkte Umgebung des Fahrzeugs ständig überprüfbar. Jedes Auto der Zukunft ist mit einem Netzwerk sowie über Kommunikation mit Fahrzeugen in der Umgebung
verbunden. So soll ein autonom kooperierender Fahrzeugverband vieler Fahrzeuge in geringem Abstand möglich werden. Das erste Auto erhält die Kontrolle über den gesamten Verbund. Das Exterieur des Autos der Zukunft ist so gestaltet, dass beim Fahren im Platoon so wenig wie möglich Luftwiderstand auftritt.
Vorteile Platooning:
• Reduzierter Luftwiderstand führt zu verringertem Energieverbrauch
• Autos fahren mit minimalem Abstand hintereinander, dadurch erhöht sich die Kapazität auf den Autobahnen
• Das Auto der Zukunft fährt eigenständig, der Fahrer hat somit die Möglichkeit etwas anderes zu tun
Das Auto der Zukunft 2
Das Projekt Auto der Zukunft wurde ein großer Erfolg. Jetzt ist es Zeit für den nächsten Schritt: Das Auto der Zukunft 2. Das Follow-up-Projekt ist in 5 Phasen untergliedert:
1. Die Umsetzung eines Treffpunktes und Entwicklungsortes im Internet
2. Aufzeigen, dass es möglich ist: Realisierung der entwickelten Ideen und Produkte
3. Öffentlichkeitsarbeit: Aufmerksamkeit fördern mit Events zu den verschiedenen Aspekten des Autos der Zukunft
4. Kluge Köpfe in Aktion: Niederländische Universitäten bilden die wissenschaftliche Basis, um weltweit führend in Innovationen von nachhaltigen Entwicklungenzu werden
5. Lobbyarbeit auf hohem Niveau: Möglichkeiten, die ausgedachten Mobilitätslösungen in die Tat umzusetzen Möchten Sie mehr über das Auto der Zukunft erfahren?
Besuchen Sie unsere Webseite: www.autoindetoekomst.nl
„Entwickle und baue ein innovatives Auto innerhalb von 100 Tagen!”- mit diesem Ziel wurde Ende 2006 das Projekt Prautotype 001 gestartet.
Die Hochschule Arnheim/Nimwegen erarbeitete ein Konzept in Zusammenarbeit mit niederländischen Automobilzulieferern, Designern, Ingenieuren und Behörden. Alle Teilnehmer waren sich einig:
Es sollte ein attraktives Auto werden, mit vernünftiger Ausstattung. Das Design sollte überraschen, jedoch nicht in der üblichen Sportwagen-Konzeptfahrzeug Weise. Der
Prautotype 001 sollte ein kluges Auto sein, das sparsam, sauber und sicher ist und uns bewusster machen, dass dies die aktuellen Themen sind.
Aufgrund des guten Namens, den die Niederlande im Jachtbau genießen, hat sich der Designer, Marcel Bastiaans, für ein maritimes Thema entschieden. Katamaranartige Radhäuser, Räder mit Schiffsschrauben, Boden und Bedienungsapparatur aus Teakholz, bringen das Thema zum Ausdruck.
Ein Team von 18 Studenten (15 der Kraftfahrzeugtechnik und 3 des industriellen Produktdesign) bauten Prautotype 001.
Eigenschaften Prautotype 001
• Ein kompaktes Design, mit großem Innenraum und Platz für einen dritten Sitz
• Der Motor, ein extrem hubraumverkleinerter Zweizylinder mit Aufladung, kombiniert dank seiner variablen Verdichtung hohe Leistung mit mustergültigem Verbrauch (-40%)
• Ein DTi hybrid variables Getriebe sorgt für viel Fahrfreude mit hohem Wirkungsgrad
• Der Rohrrahmen aus hochfestem Corus Stahl bietet viel Sicherheit und niedriges Gewicht
• Durch Steer-by-wire können Fahreigenschaften den entsprechenden Umständen angepasst werden und ein automatisch geleitetes Fahren wird möglich
• Eine variable Radgeometrie kombiniert Sportlichkeit mit Fahrkomfort
Die gesamte Entwicklung wurde in neun Folgen im niederländischen Fernsehen präsentiert und mit der Enthüllung des Konzeptfahrzeugs auf der internationalen Automobilausstellung AutoRai 2007 abgeschlossen.
Prautotype 002
In der neuen Abfolge des RTL 7-Programmes „Prautotype” stand erneut der Entwicklungs- und Bauprozess eines Konzeptfahrzeugs aus den Niederlanden im Mittelpunkt.
Der Moderator Erik de Zwart wurde 9 Wochen lang Schritt für Schritt beim Bau dieses Fahrzeuges miteinbezogen: „Mit Prautotype 001 haben wir gezeigt, dass wir in den Niederlanden im Stande sind, in kurzer Zeit ein innovatives Modell und ein rollendes Fahrgestell zu bauen. Mit Prautotype 002 gehen wir noch einen Schritt weiter, um so wieder ein beeindruckendes, neues Konzeptfahrzeug zu präsentieren”.
Eine Autozeitschrift hat niederländische Designer aufgefordert, neue Ideen zum Innenraum und Karosseriedesign von Prautotype 002 zu entwickeln. So haben einige talentierte Designer spektakuläre Entwürfe präsentiert. Letztendlich wurde ein Konzept, inspiriert durch ein Flugzeug, gewählt.
Dieses Konzept sollte in einem kompletten Prautotype 002 umgesetzt werden.
Bauweise
Studenten der Hochschule Arnheim/Nimwegen arbeiteten zusammen mit niederländischen Unternehmen an der Ausführung dieses neuen Modells. Prautotype 002 verfügt nicht nur über eine neue Karosserie, sondern es musste auch ein völlig neues Fahrgestell entworfen und gebaut werden. Auffallend ist der Einsatz von Kompositmaterialien, um an wichtigen Punkten Gewicht zu sparen. So besteht die komplette Dachlinie aus Kompositmaterial. Außerdem ist der Tank in das Fahrgestell integriert. Da Gastanks eine gute Festigkeit aufweisen, wird dadurch auch das
Fahrgestell verstärkt und beim Rest des Fahrgestells kann eine Gewichtsreduzierung erzielt werden. Der Sicherheit wegen sind die Tanks nicht unmittelbar an der Außenseite des Fahrzeugs angebracht, sondern etwas weiter innen. Polyurethanschaum, zwischen Karosserie und Tank, soll die Auswirkungen bei einer Kollision gleichmäßig auf den Tank
verteilen, damit dieser nicht reißt.
Das Design
Für das Design des Prautotype 001 war der Designer Marcel Bastiaans von Anfang an verantwortlich. Für den Prautotype 002 dagegen wurde ein Ideenwettbewerb ausgeschrieben, den der Designer Remco Boogaard gewann. Er entwarf ein Fahrzeug, dessen Funktion durch entsprechende Aufbauten verändert werden kann, jedoch nicht auf Kosten des flotten Designs und somit gemäß dem heutigen Zeitgeist.
Der Motor
Die Firma Gomecsys entwickelte für Prautotype 001 schon einen experimentellen Zweizylindermotor, der Dank einer Kurbelwelleexzentrik durch ein innen verzahntes Ringrad kontinuierlich eine variable Verdichtung ermöglicht. Der Hub, den der Kolben macht, kann abhängig von der Belastung verlängert oder verkürzt werden. Das gleiche Prinzip liegt dem Motor von Prautotype 002 zugrunde, aber in der Zwischenzeit sind größere Veränderungen an dem Konzept durchgeführt.
Die variable Verdichtung erlaubt den Gebrauch vieler umweltfreundlicher Kraftstoffe mit Oktanzahlen zwischen 80 und 130. Die einzigartigen Eigenschaften dieses (Turbo)motors bieten einen Ausweg aus dem traditionellen Konflikt zwischen einer armen Mischung, die auch bei einer hohen Verdichtung kontrolliert verbrennt und einer fetten Mischung, die schnell detoniert bei (zu) hoher Verdichtung. Der Motor von Prautotype 002 entwickelt auf Wunsch eine hohe Leistung (über 100 PS), verbraucht aber 30 bis 50 Prozent weniger Kraftstoff als ein konventioneller Motor mit vergleichbarer Höchstleistung.
Um die Leistung optimal auf die Straße zu erbringen, verfügt der Prautotype 002 auch wieder über ein CVT-Getriebe.