Kaninchen sind keineswegs so ruhig, wie sie zunächst erscheinen. Zwar kommunizieren sie untereinander (und auch mit den Menschen) überwiegend über ihre Körpersprache und bestimmte Verhaltensweisen, aber sie geben in bestimmten Situationen auch Laute von sich.
Das reicht von leisem Brummen, über Knurren, bis zu fauchenden Geräuschen oder lauten Schreien (die sehr wohl für den Menschen hörbar sind).
Das auffälligste Verhalten, das Kaninchen zeigen, ist sicherlich das laute Aufstampfen oder Klopfen, wenn sie besonders aufgeregt und verängstigt sind oder ihre Artgenossen warnen wollen. Sehr viel unauffälliger ist ein sehr leises Fiepen, das Kaninchen von sich geben, wenn sie sich unwohl und bedrängt fühlen. Unüberhörbar ist da schon das Fauchen, das häufig das letzte Warnsignal vor einem Angriff des Kaninchens ist.
Und wenn das Kaninchen in Todesangst ist, dann kann es auch laute, gellende Schreie von sich geben. Die – wie eingangs erwähnt – für den Menschen hörbar sind.
Aber möglicherweise liegt der Frage auch eine Verwechslung zugrunde: denn die meisten Laute, die Kaninchen von sich geben, liegen eben in Frequenzbereichen, die der Mensch hören kann. Allerdings – und hier gibt es einen relevanten Unterschied – können die Kaninchen auch Töne im Ultraschallbereich wahrnehmen. Bei Menschen ist etwa bei 20.000 Hz Schluß, Kaninchen hören aber auch noch deutlich höhere Töne. Frequenzen bis 33.000 Hz werden von ihnen wahrgenommen.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Sieht man von Atomen, Molekülen und Staubkörner ab, so sind die kleinsten astronomischen Objekte die Asteroiden und Kometen. Gemeinsam mit Planeten und Monden umkreisen sie einen Stern und bilden damit ein Planeten- oder Sonnensystem.
Die Sterne selbst existieren auch nicht isoliert, sondern sind in Galaxien organisiert. Eine typische Galaxie wie die Milchstrasse besteht dabei aus einigen Milliarden Sternen. Die Galaxie, in der sich unsere Sonne befindet heisst “Milchstrasse”.
Aber selbst die Galaxien sind nicht willkürlich im Universum verstreut, sondern haben sich in Galaxienhaufen angeordnet. Unsere Milchstrasse ist neben der Andromedagalaxie das größte Mitglied eines Galaxienhaufens mit dem Namen “Lokale Gruppe”.
Auch hier ist die Hierarchie noch nicht zu Ende. So wie Planeten Sterne umkreisen oder Sterne ein Galaxienzentrum und so wie sich die Galaxien eines Galaxienhaufens gegenseitig gravitativ anziehen, so werden die Galaxienhaufen selbst von der Gravitationskraft beeinflusst und bilden noch größere Strukturen: die Superhaufen. Die Lokale Gruppe gehört zum “Virgo-Superhaufen”. Er durchmisst etwa 200 Millionen Lichtjahre und enthält 100 bis 200 Galaxienhaufen.
Aber auch auf der Ebene der Superhaufen findet man noch Strukturen. Die Superhaufen sind nicht wahllos im Universum verteilt, sondern entlang fadenartiger Strukturen aufgereiht. Diese sogenannten Filamente bilden zusammen mit den gewaltigen Lücken, in denen sich keine Superhaufen befinden – den Voids – die größten beobachtbaren Strukturen des Universums.
Bild: Verteilung der Materie im Universum – Ergebnis einer Simulation des Grand Challenge Cosmology Consortium (Greg Bryan et al.)
Zusätzliche Informationen: https://www.scienceblogs.de/astrodicticum-simplex/2009/09/es-gibt-kein-grosses-loch-im-universum.php
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Die kleinen, lästigen Fliegen, die in der Küche das Obst umschwirren sind, das vorweg, strenggenommen gar keine Fruchtfliegen, sondern Taufliegen (Drosophiliden). Sie werden umgangssprachlich häufig auch Obst-, Essig- oder Gärfliegen genannt.
In der Küche sind Taufliegen jedenfalls der Alptraum. Doch was die Hausfrau und den Hausmann fluchen lässt, das sorgt bei Forschern für glänzende Augen: Denn Taufliegen haben eine sehr hohe Reproduktionsrate und lassen sich leicht züchten.
Die schnelle Vermehrung der Fliegen ist jedenfalls der Grund dafür, dass sie urplötzlich (und dann gleich in Schwärmen) auftauchen. Zur Nahrungsaufnahme und zur Eiablage suchen die Taufliegen bevorzugt gärende Stoffe, das können Früchte, Säfte, Wein, Bier oder Küchenabfälle sein. Einer weiblichen Taufliege genügt schon eine kleine Schadstelle an einem Apfel, um dort ihre Eier abzulegen. Und das sind bis zu 400! Bereits einen Tag später schlüpfen die Larven, im günstigsten Fall sind diese (nach dem Durchlaufen der Verpuppungsstadien und der weiteren Entwicklung) schon nach gut einer Woche voll entwickelt.
Wenn eine einzige Taufliege nach einer Woche schon für vierhundert Nachkommen sorgen kann, dann wird klar, weshalb die kleinen Fliegen so massenhaft auftreten. Für die Wissenschaft ist das natürlich sehr spannend. Deshalb wurde Drosophila schon in der ersten Hälfte des 20. Jahrhunderts zum bevorzugten Untersuchungsobjekt der genetiker.
Drosophila melanogaster (die “schwarzbäuchige” Taufliege) ist ein Star unter den Modellorganismen. Die kurze Reproduktionsrate (8-14 Tage), die leichte Züchtbarkeit und die Tatsache, dass sie nur vier Chromosomenpaare besitzt und sich sehr gut für Kreuzungsversuche eignet, sind die Hauptgründe dafür.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Beim Kartagener Syndrom handelt es sich um eine angeborene Erkankung. Sie wird autosomal-rezessiv vererbt; es müssen also beide Elternteile ein verändertes Gen weitergeben. Da bei den Betroffenen die reinigenden Cilien (Flimmerhärchen) der Atemwege nicht voll funktionstüchtig sind, leiden sie an chronischer Nasennebenhöhlen-Entzündung und chronischer Bronchitis. Gleichzeitig sind bei den Patienten die inneren Organe seitenverkehrt angelegt.
Herz und Magen liegen also spiegelbildlich rechts, die Leber links usw. Mediziner bezeichnen diese anatomische Besonderheit (die etwa bei einem von 8.000-25.000 Menschen auftritt) als “Situs inversus”. Diese verkehrte Anordnung der Organe ist an sich nicht krankhaft. Allerdings treten bei den Betroffenen überdurchschnittlich häufig andere Fehlbildungen und Anomalien auf.
Von Kartagener Syndrom spricht man aber nur dann, wenn “Situs inversus” und der Defekt der Cilien gemeinsam auftreten.(Was in etwa 50% der Fälle so ist. Ohne die verkehrt angeordneten Organe sprechen die Mediziner von einer sogenannten Primären Ciliären Dyskinesie).
Namensgeber der Krankheit ist der Schweizer Arzt Manes Kartagener, der sich jahrzehntelang mit der Symptomatik der Bronchiektasen beschäftigt hatte und seine Studien 1935 in seiner Habilitationsschrift zusammenfasste. Dort beschrieb Kartagener die auffällige Häufung von Sinusitis (die erwähnte chron. Nasennebenhöhlenentzündung) in Kombination mit asymmetrischen Bronchien. Heute weiß man, dass zusätzlich zu den beschriebenen Symptomen bei Männern eine Bewegungsstörung der Samenzellen auftritt.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Kometen und Asteroiden sind ein Überbleibsel aus der Zeit der Planetenentstehung. Wenn sich um einen Stern Planeten bilden, dann entstehen die aus einer Scheibe voller Staub und Gas. Diese Teilchen klumpen immer mehr zusammen bis irgendwann aus Staubkörnern Planeten entstanden sind.
Die größeren “Bausteine” für die Planetenentstehung sind die Asteroiden. Aber nicht alle wurden verbraucht! In unserem Sonnensystem konnte sich in der Nähe des großen Jupiter kein weiterer Planet bilden und die Asteroiden sind übrig geblieben. Deswegen gibt es heute auch einen Asteroidengürtel zwischen den Bahnen von Mars und Jupiter.
Auch weiter außen im Sonnensystem, hinter der Bahn des letzten Planeten – Neptun – finden sich viele Asteroiden im sogenannten Kuipergürtel.
Viele dieser äußeren Astreroiden wurden bei der Planetentstehung durch die Gravitationskräfte der großen Planeten weit hinaus geworfen wo sie dann die Oortsche Wolke bildeten.
Es ist also damit zu rechnen, dass sich bei jedem Stern der Planeten hat auch Asteroiden und Kometen finden. Wieviele Sterne Planeten besitzen kann man noch nicht genau sagen. Gewisse Aufschlüsse über Asteroiden bei anderen Sternen liefern Beobachtungsdaten. Bei vielen Sternen sieht man nämlich mehr Infrarotstrahlung als alleine vom Stern zu erwarten wäre. Man führt dies auf Staub zurück, der den Stern umgibt. Dieser Staub wird vom Licht des Sterns erwärmt und gibt dann Infrarotstrahlung ab. Der Staub muss aber irgendwo erzeugt werden – und diese Quelle sind meistens Asteroiden, die, wenn sie untereinander kollidieren, Staub erzeugen.
Dieses Bild zeigt die gemessene Strahlung eines Sterns und wie sie sich auf die verschiedenen Wellenlängenbereiche aufteilt (grüne Linie). Die rote Linie zeigt, was eigentlich zu erwarten wäre – der Überschuß deutet auf eine Ansammlung Staub hin. (Quelle: Hales et al, 2009, https://arxiv.org/abs/0901.0909)
Man darf allerdings nicht den Fehler machen und sich die Sterne umgeben von “Kugeln” oder “Ringen” aus Asteroiden vorstellen. Ein Asteroidengürtel ähnelt beispielsweise den Ringen des Saturns überhaupt nicht. Würde man sich mitten im Asteroidengürtel zwischen Mars und Jupiter befinden, würde man vermutlich gar nichts davon merken! Die Gesamtmasse des Asteroidengürtels beträgt nur 5% der Masse unseres Mondes! Das ist extrem wenig und diese Masse ist auch noch über den ganzen Bereich zwischen den Bahnen von Jupiter und Mars verteilt. Um dort bei einem zufälligen Durchflug auf einen Asteroiden zu treffen braucht man viel Glück.
Die Gesamtmasse der Oortschen Wolke ist nicht genau bekannt – aber sie beträgt wahrscheinlich auch nur etwa das fünfache der Erdmasse. Die vielen Objekte der Wolke sind außerdem über einen extrem großen Bereich verteilt – es ist also definitiv nicht so, dass man irgendwo auf dem Weg nach Alpha Centauri plötzlich auf eine Kugelschale voller Asteroiden treffen würde.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Für das Wachstum eines Schneckengehäuses oder der Schale einer Muschel gibt es keine fixe Begrenzung oder ein Stoppsignal. Das lässt sich verstehen, wenn man sich die Bildung und Funktion eines Schneckengehäuses näher ansieht.
Die Schale der Schnecken ist quasi ein externes Skelett, das den weichen Körper des lebenden Tieres schützt. Diese Schale setzt sich hauptsächlich aus Kalk (Calciumcarbonat, CaCO3) zusammen und wird bereits im embryonalen Entwicklungsstadium der Schnecke gebildet. Wenn die Schnecke schlüpft steht ihr bereits ein winziges Gehäuse (Experten sprechen von “Protoconch”) zur Verfügung.
Das “Baumaterial” der Schale besteht wie bereits gesagt aus Kalk. Den können die Tiere nicht selbst produzieren, sondern müssen ihn über die Nahrung aufnehmen (manche Schnecken können Kalk auch direkt aus dem Boden “lösen”, indem sie diesen mit ihrem Schleim aufbereiten und dann über ihre Fußsohle aufnehmen.)
Der Kalk wird dann in gelöster Form (als Calcium- und Carbonat-Ionen) zu bestimmten Drüsen transportiert, die am Mantelrand der Schnecke sitzen. Dort wird das Material abgesondert und so Stück für Stück die Schalenschicht aus hartem Kalkmineral aufgebaut. (Neben dieser Schalenschicht gibt es noch die Schalenhaut, die die Abnutzung der Schale durch Korrosion verhindert. Aber das spielt für unsere Frage keine wesentliche Rolle.)
Das Wachstum der Schale verläuft aber nicht kontinuierlich. Es gibt einen Wechsel von Wachstumsperioden und Ruheperioden, die mit Temperatur, Entwicklungsphasen (Vermehrung etc.) und vor allem dem Nahrungsangebot zusammenhängen.
Grundsätzlich wächst die Schale in der Größe ebenso, wie in der Dicke. Und diesem Wachstum sind kaum Grenzen gesetzt. Bei Landschnecken spielt eigentlich nur das Gewicht der Schneckenschale eine Rolle. Irgendwann ist das Kosten-Nutzen-Verhältnis einfach nicht mehr positiv und die Größe des Schneckenhauses stagniert. (Die größten Landschnecken haben Schalen, die 20 bis maximal 30 cm groß sind.) Im Meer wird durch den Auftrieb der Schale ihr Gewicht nahezu bedeutungslos. Deshalb finden wir hier sehr viel beeindruckendere Formen und Varianten der Schalen. Und die größte Meeresschnecke (Syrinx aruanus) wird fast einen Meter groß.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Antriebslose Bewegung kann nur heißen, dass eine Kraft auf den Atomkern ausgeübt wurde und er sich jetzt im Vakuum befindet, frei von der Möglichkeit, durch Stöße mit anderen Teilchen in seiner Bewegung gestört zu werden. Unter diesen Umständen bewegt er sich nach den Newtonschen Gesetzen gleichförmig und geradlinig.
Wenn ich Energie dem Menschen nutzbar machen möchte, muss ich sie umwandeln. Der Atomkern hätte z.B. kinetische Energie. Wenn man diese umwandeln möchte, geht das nur indem man die gleichförmige Bewegung des Kerns stört.
So wie beispielsweise bei der herkömmlichen Stromerzeugung, wo zunächst durch Erwärmung Wasser verdampft wird. Die Wärmeenergie geht dann in kinetische Energie von Wassermolekülen über, die diese im Stoß gegen Turbinenschaufeln weiterleiten, und dann daraus über die elektromagnetische Wechselwirkung Strom erzeugen
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Die Erfahrung, dass man sich selbst im Traum überrascht, hat wohl jeder schon einmal gemacht. Man erwacht und stellt fest, dass man eben im Traum irgendeine Information parat hatte, von der man (im wachen Zustand) gar nicht ahnte, jemals davon gehört zu haben.
Die Schlußfolgerung, dass unser Wissen im Traum größer und umfassender wäre, als bei wachem Bewusstsein, ist allerdings sicher nicht korrekt. Dazu müssen wir uns kurz vergegenwärtigen, was wir in diesem Zusammenhang überhaupt unter Wissen verstehen wollen.
Wissen basiert ja im wesentlichen auf der Speicherung und Organisation von Informationen im Gedächtnis. Alles was wir erleben, sehen, hören und lernen ist zunächst einmal pure Information, mit der wir umgehen müssen. Die Frage dabei ist, wie wir die Informationen verarbeiten, abspeichern und dann später möglicherweise abrufen, also erinnern.
Psychologen und Hirnforscher unterscheiden zwischen explizitem und implizitem Gedächtnis. Das explizite Gedächtnis wird auch als “deklaratives Gedächtnis” bezeichnet und in dieser Bezeichnung wird noch klarer, was damit gemeint ist: es sind die Wissensinhalte, über die wir sprechen können, über die wir also bewusst verfügen. (Die Fachleute differenzieren hier natürlich noch weiter; v.a. in das semantische Gedächntis, also grob gesagt das Faktenwissen und das episodische Gedächtnis, was eigentlich alle autobiographischen Erlebnisse umfasst.)
Entscheidend bei der Frage, welche Informationen und Wahrnehmungen später als deklaratives Wissen zu Verfügung stehen, ist der Prozess der Informationsverarbeitung, der über viele (störanfällige) Etappen verläuft. Bereits bei der Informationsaufnahme ist mitentscheidend, ob wir in der Situation die notwendige Aufmerksamkeit haben und (sehr wichtig!), wie stark die Information an Emotionen geknüpft ist. Bei der Abspeicherung der Gedächtnisinhalte spielt es dann eine große Rolle, ob die neue Information sinnvoll in Zusammenhang mit bereits vorhandenem Wissen gebracht werden kann und schließlich sollte im günstigsten Fall eine Konsolidierung (also Wiederholung) der Gedächtnisrepräsentation erfolgen.
Und zusätzlich zu all diesen Faktoren ist für erfolgreiches Erinnern die Verfügbarkeit passender Abrufreize notwendig. Damit sind wir nun wieder bei der Ausgangsfrage angelangt: ja, es kommt vor, dass wir uns in Traumsituationen an Dinge erinnern und auch über bestimmtes Faktenwissen verfügen, was ohne weiteres im wachen Zustand nicht möglich gewesen wäre.
Das liegt – so darf man annehmen – schlicht daran, dass im Traum ein (möglicherweise emotionaler) Abrufreiz aktiviert wurde, der dann dieses “verborgene” Wissen zu Tage förderte. Unter geeigneten Bedingungen wäre es aber garantiert auch möglich gewesen, dass wir uns im wachen Zustand an die jeweilige Information erinnert hätten. Sie war wohl nur nicht “optimal” genug verknüpft und abgelegt.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Auch wenn die Krokodilstränen sprichwörtlich geworden sind – Tiere weinen nicht, wenigstens nicht aus Schmerz oder Trauer. Emotionale Tränen sind eine ausschließlich menschliche Eigenschaft.
Wobei man natürlich unterscheiden muß. Träne ist nicht gleich Träne. Denn rein physiologisch gesehen können natürlich auch andere Säugetiere “weinen”, denn sie besitzen schließlich einen Tränenapparat, der zunächst einmal das Austrocknen des Auges verhindert. Und wenn ein Fremdkörper ins Auge gelangt, dann wird dieser mit Hilfe von Tränenflüssigkeit ausgespült. Diese reflektorischen Tränen – wie die Fachleute sagen – kennen wir ebenso vom Zwiebelschneiden oder bei Allergien.
Und dann gibt es eben noch die sogenannten “emotionalen Tränen”. Doch die findet man nach bisherigem Kenntnisstand in der Tierwelt nicht. Das menschliche Weinen ist eine sehr ursprüngliche Art des Sozialverhaltens. Kleinkinder machen durch das Weinen – wenn ihnen noch keine anderen Kommunikationsformen zur Verfügung stehen – auf sich und ihre Unzufriedenheit aufmerksam. Bei Erwachsenen ist das Weinen dann der Ausdruck verschiedenster Gefühlsregung: Verlust, Trauer, Kränkung, Wut, Rührung oder Freude können Anlaß sein. Und solche Tränen unterscheiden sich auch chemisch von den reflektorischen Tränen. Die emotionalen Tränen enthalten etwa 25% mehr Proteine.
Bei Tieren gibt es diesen Unterschied nicht. Auch die Krokodilstränen gehören zu den reflektorischen Tränen. Wenn die Reptilien beim Fressen ihr Maul aufsperren, kann ein höherer Druck auf die Tränendrüsen entstehen, worauf eben Tränenflüssigkeit austritt. Mit (geheucheltem) Mitleid mit dem Opfertier haben die Krokodilstränen also nichts zu tun. Tiere haben einfach eine andere Art, ihre Emotionen mitzuteilen – Schmerz und Trauer empfinden sie sehr wohl, auch ohne vergossene Tränen.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Die Erde ist von einer Hülle aus verschiedenen Gasen (hauptsächlich Stickstoff und Sauerstoff) umgeben. Der Mond ist ein Himmelskörper ohne solch eine Atmosphäre. Seine Masse ist zu gering, um die Gasatome festzuhalten. Die wenigen Teilchen, die der Mond bedingt festhalten kann, stammen vom Sonnenwind; dabei handelt es sich hauptsächlich um Helium, Wasserstoff, Neon und Argon.
“Gas”, so wie wir es von der Erde typischerweise kennen, gibt es auf dem Mond also nicht. Aber Gas kann auch in anderer Form vorliegen – dazu gehört das Isotop Helium-3.
Und das ist tatsächlich “berühmt” und auf dem Mond vorhanden. Helium-3 ensteht in der Sonne und gelangt mit dem Sonnenwind ins Weltall. Die Atmosphäre der Erde schirmt uns aber vor dem Sonnenwind ab und das Helium-3 erreicht uns nicht.
Da aber der Mond eben keine Atmosphäre hat, trifft das Helium-3 aus dem Sonnenwind direkt auf seine Obrfläche und im Laufe der Zeit hat sich das Helium-3 im Mondgestein angereichert.
“Berühmt” ist es deswegen, weil es vielleicht das Energieproblem der Erde lösen könnte. Es wäre nämlich ein idealer Ausgangsstoff für die Kernfusion. Zur Zeit wird hier Deuterium und Tritium durch Fusion verschmolzen. Dabei entsteht nicht nur Energie, sondern auch Radioaktivität, die den Reaktor verstrahlt und beschädigt. Dieses Problem ist bei Helium-3 wesentlich geringer.
Könnte man also das Helium-3 aus dem Mondgestein auf die Erde bringen, dann hätte man vielleicht den idealen Brennstoff für die Kernfusionskraftwerke der Zukunft gefunden. Allerdings müsste man dafür mehr in die bemannte Raumfahrt investieren, um den Helium-3 Abbau irgendwann kostendeckend durchführen zu können.
Mehr Informationen gibt es hier: https://www.scienceblogs.de/astrodicticum-simplex/2009/08/lost-bemannte-raumfahrt-unser-energieproblem.php
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
In der Tat macht man das fast so: Nicht wenige Meter über der Oberfläche, aber immerhin mehrere Kilometer. LRO hat eine Bahnhöhe von ca. 50km, das ist auf der Erde gerade einmal der halbe Weg in den Weltraum (der per Definition bei 100km beginnt).
Darunter werden Missionen aber zunehmend schwieriger, und hierfür gibt es gleich mehrere Gründe:
– Die Geschwindigkeit ist sehr hoch. In direkter Antwort auf die Frage nach der Kamera-Geschwindigkeit: ca. 1.7km/s beträgt die Fluggeschwindigkeit in einer niedrigen Mondumlaufbahn. Das bedeutet 17m in einer 1/100stel Sekunde! Will man nun ein Objekt in unmittelbarer Nähe photographieren, muss nicht nur der Camera-Chip (oder der Bild-Scanner, auch das gibt es) schnell genug sein, es muss auch der Computer das Bild genau zum rechten Zeitpunkt machen. Den wiederum muss man genau im Voraus bestimmen, und natürlich die Reaktionszeit des Systems kennen. Würde das Bild in diesem Szenario nur eine Sekunde zu spät aufgenommen (z.B. wegen einer geringen Ungenauigkeit in der Bahnbestimmung), läge das Objekt bereits weit hinter einem.
– Viel wichtiger noch als die Systemreaktionszeit aber ist der Orbit selbst: Der Mond ist keine perfekt glatte Kugel, sondern weicht deutlich davon ab. Er hat ausserdem noch Berge und Täler. Eine Umlaufbahn muss sich aber stets genügend hoch über der grössten Erhebung befinden, ansonsten erhöht sich die Anzahl der Krater auf dem Mond mindestens um 1. Da der Mond aber keine ideale, homogene Kugel ist, kann auch das Gravitationsfeld des Mondes kein ideales sein. Dieser Umstand führt zu Bahnstörungen, die wiederum mit wohl geplanten Manövern ausgeglichen werden müssen. Dabei bleibt man aber immer auf einer Umlaufbahn, die von den Gesetzen der Himmelsmechanik bestimmt wird, man kann mit der uns zur Verfügung stehenden Technologie unmöglich zwischen den Mondbergen “hindurch kurven”, oder der Oberfläche in einer bestimmten Flughöhe folgen.
– Schliesslich gibt es noch einen weiteren, nicht zu unterschätzenden Grund: Das Ziel einer Satellitenmission zur Oberflächenbeobachtung ist es meist, grosse Gebiete auf einmal zu sehen, also einen Überblick zu erhalten (jedenfalls im zivilen Bereich). Das geht natürlich am besten aus dem Weltraum. Eine Ausnahme sind Spionagesatelliten, bei denen der Einsatz im Weltraum unter anderem dazu dient, die Kamera dem Zugriff des Gegners zu entziehen.
Auf der Erde nuzten wir heute für unzählige zivile Aufgaben Beobachtungssatelliten: Zur Kartographierung, zum Auffinden von Bodenschätzen und zu wissenschaftlichen Zwecken.. Das gleiche gilt natürlich auch für eine Beobachtung der Mondoberfläche. Meistens also wollen wir ausdrücklich eine Umlaufbahn von wenigstens einigen 10 kilometern Höhe haben.
Wenn man näher hin möchte, kann man auf dem Mond dann anschliessend landen. Wie z.B. Apollo, Surveyor oder Lunokhod.
» Hannes Griebel ist Raumfahr-Ingenieur am Europäischen Weltraum Kontrollzentrum der ESA |
Ohrwürmer sind ziemlich hartnäckige Biester. Wenn sie sich erst einmal festgesetzt haben, dann wird man sie häufig nur schwer wieder los. Die Ohrwurmforschung – es gibt tatsächlich Psychologen und Neurowissenschaftler, die sich mit diesem Phänomen beschäftigen – hat jedenfalls herausgefunden, dass eigentlich alle Menschen für dieses Phänomen anfällig sind. In Befragungen geben mehr als 95% zur Auskunft, dass sich bei Ihnen von Zeit zu Zeit eine Melodie im Kopf festsetzt, die dort in einer Endlosschleife abgespielt wird.
Doch wie kommt der Ohrwurm dahin? Was zeichnet ihn aus? Wer ist besonders anfällig für diesen auditiven Plagegeist? Die Ohrwurmforschung hat noch viele offene Fragen zu beantworten. Klar ist, dass eigentlich jedes Musikstück ein Ohrwurmpotential hat.
Besonders chancenreich sind allerdings Lieder, die eine simple Grundstruktur aufweisen und idealerweise eingängige, sich häufig wiederholende Textpassagen und Rhythmen haben. Und je näher ein Musikstück an den (kulturell geprägten) musikalischen Konventionen dran ist, desto besser. Wenn mit einem Lied noch bestimmte Emotionen verbunden sind, dann ist die Ohrwurmgefahr besonders hoch. (Manchmal genügt nämlich schon die Erinnerung an eine bestimmte Situation und schon ist der Ohrwurm präsent.)
Einer der entscheidenden Faktoren ist allerdings die Wiederholung. Lieder, die man gut kennt (alte Schlager, Pophits etc.), sind geradezu prädestiniert für eine erfolgreiche Ohrwurmkarriere. Das liegt einerseits an unserem meist gut ausgebildeten Musikgedächtnis, andererseits an dem neuronalen Wechselspiel von Hör- und Sprach- bzw. Singzentrum.
Es genügen meist wenige Takte einer bekannten Melodie und schon ist unser Gehirn angefixt und wiederholt beispielsweise den Refrain im endlosen, inneren Echo. Dieser Effekt wird dadurch begünstigt, dass wir beim Musikhören dazu tendieren das Gehörte auch innerlich mitzusingen oder mitzusummen.
Und häufig – so der Verdacht der Forscher – spielt auch die Tendenz unseres Gehirns eine Rolle, unvollständige Muster und Strukturen von selbst zu vervollständigen. Hören wir also nur einen kurzen Ausschnitt einer bekannten Melodie, dann komplettiert unser Gehirn die Lautfolge und nervt uns dann durch abspielen dieser erinnerten Passage.
Besonders gefährdet für einen plötzlichen Ohrwurmbefall sind wir übrigens, wenn wir müde oder gestresst sind oder während Routinetätigkeiten (Hausarbeit, Bügeln etc.). Und Frauen scheinen häufiger vom Ohrwurm befallen zu werden, als Männer.
Um sich von Ohrwürmern zu befreien, gibt es kein Patentrezept. In vielen Fällen ist es angeblich erfolgreich, wenn wir das Musikstück einige Male komplett zu Ende hören. Dann braucht das Gehirn (wie oben angedeutet) wenigstens nicht mehr die begonnene Melodie selbst zu vervollständigen.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Hier die Antwort von Marc Scheloske:
Ein sogenanntes “Oskar-Syndrom” gibt es tatsächlich. Man könnte vielleicht vermuten, dass damit das Verhalten eines saarländischen Politikers beschrieben wird, aber dem ist nicht so. Als Oskar-Syndrom bezeichnen Forstexperten eine frühe Stagnation des Baumwachstums.
Dafür gibt es mehrere Gründe: manchmal ist das Wild dafür verantwortlich, dass Bäume kein altersgemäßes Wachstum zeigen. Dann nämlich, wenn durch Wildbiss die Triebe immer wieder eingekürzt werden. Durch diese Schädigung gibt es Bäume, die zwar zwanzig Jahre alt, aber kaum einen Meter hoch sind.
Üblicherweise wird als Oskar-Syndrom aber folgendes Phänomen bezeichnet: im Unterwuchs des schattigen Waldes findet man teilweise eine ganze Reihe von Bäumchen, die im Jugendstadium ihr Wachstum (fast) einstellen. Durch den Lichtmangel ist der Jahreszuwachs minimal, sie stagnieren meist in einer Höhe von einem bis maximal zwei Metern.
Diese Bäume befinden sich allerdings in einer Art Warteposition. Denn sobald ausreichend Licht auf sie einfällt (wenn ein älterer oder geschwächter Baum etwa infolge eines Sturmschadens “Platz macht”), dann schießen diese Bäume in die Höhe.
Und dieses Phänomen wird in Anlehnung an Oskar Matzerath aus Grass’ Blechtrommel eben Oskar-Syndrom genannt.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Leptonen sind eine Klasse von Elementarteilchen, deren berühmtester Vertreter das Elektron ist. Es gibt sechs Leptonen in drei Generationen. Die erste Generation bildet das bekannte Elektron und das Elektron-Neutrino. Neutrinos sind besonders leichte Teilchen, die fast nie mit Materie reagieren da sie nur über die Schwache Kraft wechselwirken. Die schwereren Generatioen bilden das Myon und das Tau, und ihre jeweiligen Neutrinos. Das Myon und Tau sind nicht stabil und zerfallen in leichtere Teilchen, z.B. das Myon in Elektron und zwei Neutrinos.
Von den Neutrinos hat man lange angenommen, dass sie masselos sind, aber neue Erkenntnisse zeigen dass sie wahrscheinlich eine – sehr kleine – Masse haben. Aktuelle Experimente versuchen, diese zu bestimmen. Außerdem wandeln sich die Neutrinos ineinander um, wie man durch Zählen der Neutrinos, die von der Sonne kommen, ausgerechnet hat.
Warum es drei Generationen an Leptonen gibt, weiß man nicht – aber dass keine vierte Generation existieren kann, konnte man theoretisch ausrechnen und im Experiment bestätigen. Zu diesen sechs Leptonen gibt es jeweils noch den Antimaterie-Partner. Das ist nichts mysteriöses, das sind einfach Teilchen, die in allem übereinstimmen, jedoch eine entgegengesetzte elektrische Ladung haben. Das Anti-Elektron (Positron) ist also positiv geladen. Bei den Neutrinos ist man noch nicht ganz sicher: Sind sie masselos, sind sie ihr eigenes Antiteilchen. Haben sie Masse, dann sind Neutrinos und Anti-Neutrinos unterschiedlich.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Es ist tatsächlich so, dass der erfolgreiche Bergsteiger auf dem Gipfel des Mount Everest auf ein frisch hartgekochtes Ei verzichten muß. Durch den geringen Luftdruck in Höhen über 8000 Meter (etwa 0,3 bar auf dem Everest-Gipfel) liegt nämlich der Siedepunkt des Wassers ebenfalls deutlich niedriger als auf Meereshöhe. Bereits bei rund 70°C beginnt Wasser unter diesen Bedingungen zu kochen.
Für die Eierzubereitung hat das folgende Konsequenzen: das Eiweiß (und das ist die entscheidende Komponente in diesem Fall) besteht zu einem Großteil aus Wasser und zu rund 10% aus Proteinen. Das sind vor allem das Conalbumin und das Ovalbumin. Das Conalbumin beginnt bei etwa 61,5°C zu gerinnen, beim Ovalbumin liegt diese Schwelle allerdings bei 84,5°C. Erst ab dieser Temperatur setzt die Denaturierung der langen Eiweißmoleküle ein.
Für das Eierkochen unter hochalpinen Bedingungen bedeutet das also, dass das Ovalbumin nicht gerinnen, also fest werden, kann. Die 70°C sind einfach zu gering. Für das Eigelb reicht die Temperatur allerdings aus. Es stockt bei 65°C.
Wenn man also auf dem Gipfel ein Ei kochen würde, dann erhielte man am Ende nur ein wenig zufriedenstellendes Ergebnis: festes Eigelb und ein glibberiges Eiweiß. Wer auf dem Dach der Welt ein frisch zubereitetes Ei genießen will, der müsste also zumindest einen Schnellkochtopf mit nach oben schleppen: der verschiebt durch höheren Druck die Siedetemperatur nach oben.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Die Tatsache, dass viele Insekten (v.a. Nachtfalter) geradezu magisch von künstlichen Lichtquellen angezogen werden, hat sich ja längst im Sprachgebrauch niedergeschlagen. Warum die Motten aber das Licht umkreisen, ist nicht zweifelsfrei geklärt.
Die meisten Fachleute sehen die Ursache jedoch in einer simplen, aber tragischen Verwechslung bzw. Irreführung der nachtaktiven Insekten. Denn von Natur orientieren sich die Nachtfalter und andere Insekten am nächtlichen Mondlicht. Der Mond dient ihnen in gewisser Weise als Kompass. Und die Position des Mondes bleibt eben weitgehend stabil, so dass die Falter (um etwa geradeaus zu fliegen) immer einen konstanten Winkel zu dieser Lichtquelle einhalten.
Das funktioniert aber nicht mehr, seit in den letzten Jahrzehnten immer mehr künstliche Lichtquellen aufgestellt wurden. Jede Strassenlaterne ist nämlich deutlich heller, als der Mond und somit orientieren sich die Insekten an dieser künstlichen Lichtquelle.
Denn auch zur Strassenlaterne versuchen die Tiere einen konstanten Winkel einzuhalten. Im Flug verändert sich die Position der Lampe aber natürlich sehr schnell, so dass die Insekten eben nicht geradeaus, sondern eine leichte Kurve fliegen. Und statt eines üblichen 90°-Winkels (zum Geradeausflug im Mondlicht), nähern sich die Insekten in einem 80°-Winkel immer näher der künstlichen Lichtquelle an.
In diesem so genannten Spiralflug umrunden die Falter die Laterne oder die knisternde Kerze in immer engeren Bahnen, bis sie schließlich darin verglühen oder erschöpft gegen das Laternenglas prallen.
Diese Erklärung ist diejenige, die am weitesten verbreitet ist. Es gibt aber auch einzelne Forscher, die glauben, dass die Facettenaugen der nachtaktiven Insekten so empfindlich seien, dass sie durch künstliches Licht geblendet werden. Andere Untersuchungen haben übrigens gezeigt, dass nicht jedes Licht gleich anziehend auf Insekten wirkt: grellweißes Licht von Quecksilberdampflampen zieht mehr als doppelt so viele Insekten an, wie das gelblich-orange Natriumdampflicht.
Und zum Schluß sei hier noch eine letzte Anmerkung gemacht: Dr. Willem Takken, Mückenforscher der Universität Wageningen (Niederlande), hat in mehreren Studien gezeigt, dass Mücken (also Stechmücken) sich von Licht kaum beeindrucken lassen. Es ist der Geruch des Menschen, der die stechenden Plagegeister anlockt. Die Anziehungskraft des Lichts gilt v.a. für die sprichwörtlichen Motten.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Ja, das können sie. Unerreichbar ist lediglich die Vakuumgeschwindigkeit des Lichts. Tritt ein Teilchen in ein Medium ein, mit einer Geschwindigkeit über der Lichtgeschwindigkeit in diesem Medium, so kommt es zu einem Effekt ähnlich dem Überschnallknall bei Kampfflugzeugen.
Es wird eine kegelförmige Lichtwellenfront ausgesandt, dies bezeichnet man als den Cerenkov-Effekt.
Da man das ausgesandte Licht beobachten kann, wird der Cerenkov-Effekt eingesetzt, um z.B. in der Teilchenphysik kosmische Strahlung oder Neutrinos zu detektieren. Er wird aber auch in Kernkraftwerken eingesetzt, wo schnelle Elektronen aus den Brennstäben im Wasser Cerenkov-Licht ausstrahlen.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Entfernte Gegenstände erscheinen uns deswegen kleiner, weil sie unter einem kleineren Gesichtswinkel erscheinen. Der Gesichtswinkel ist der Winkel, der zwischen zwei Lichtstrahlen liegt, die von den gegenüberliegenden Enden eines Gegenstandes zum Auge führen.
Dieser Winkel wird auch der Winkeldurchmesser des Objekts genannt. Der Winkeldurchmesser des Mondes beträgt zum Beispiel ein halbes Grad – d.h. wenn man sich den gesamten Himmel als Kreis mit 360 Grad vorstellt, dann ist der Bereich des Himmels, den der Mond abdeckt, genau ein halbes Grad groß. Die Sonne ist zwar viel größer als der Mond – aber auch weiter weg. Obwohl ihr Durchmesser 400.000 mal größer als der Mond ist, erscheint sie uns viel kleiner. Ihr Winkeldurchmesser beträgt ebenfalls etwa ein halbes Grad. Das ist übrigens auch der Grund, warum der Mond bei einer Sonnenfinsternis die Sonnenscheibe komplett bedecken kann.
Sterne sind noch sehr viel weiter entfernt als die Sonne. Ihr Winkeldurchmesser ist so gering, dass sie unserem Auge nur als Punkte erscheinen. Auch mit Teleskopen ist es kaum möglich, Sterne größer zu sehen. Nur bei sehr nahen Sternen bzw. sehr großen Sternen haben es Teleskope mit sehr großem Auflösungsvermögen (z.B. das Hubble-Teleskop) geschafft, sie nicht als Punkte, sondern als kleine Scheiben zu sehen. Ein Beispiel ist die rechte Aufnahme des Sterns Beteigeuze.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Jüngere Untersuchungen zeigen recht deutlich, dass die Muttersprache bzw. dass das Aufwachsen in bestimmten Kulturkreisen unser Gehör prägt. Das ist eigentlich auch wenig erstaunlich, wenn man sich vergegenwärtigt, welche Bedeutung der Spracherwerb für den Säugling hat und wie zentral für die Entwicklung die sprachliche Kommunikation und das Erlernen der Muttersprache ist.
Und Sprachen unterscheiden sich eben ganz erheblich. Das beginnt bei der Anzahl der verschiedenen Laute, die innerhalb einer Sprache gebraucht werden. (Die Zahl der Phoneme reicht von 13 Phonemen beim Hawaiischen bis zu über 100 Phonemen bei anderen Sprachen.) Noch wichtiger ist aber sicherlich der Unterschied hinsichtlich der Tonalität der Sprachen.
Als tonale Sprachen gelten diejenigen, bei denen eine Änderung der Tonhöhe gleichzeitig einen Bedeutungsunterschied des jeweiligen Wortes markiert. Hier sind als Beispiel vor allem die sino-tibetischen Sprachen (z.B. Mandarin, Kantonesisch) und die Bantu-Sprachen Südafrikas zu nennen.
Und dass diese Unterschiede unser Gehör ganz entscheidend prägen, zeigt etwa die Forschung zum so genannten “absoluten Gehör”. Lange Zeit wurde geglaubt, dass die Fähigkeit eine Tonhöhe präzise (ohne Bezugston) zu bestimmen, eine genetische Grundlage habe.
In Europa und Nord-Amerika haben nur etwa 0,01% der Bevölkerung dieses Talent. In Asien ist das absolute Gehör viel weiter verbreitet – das deutet eben auf einen erblichen Hintergrund hin.
Das ist allerdings falsch! Studien der letzten Jahre (v.a. der Musikpsychologin Diana Deutsch) haben gezeigt, dass nicht die Gene, sondern die Muttersprache der (mit-)entscheidende Faktor ist. Wer mit einer tonalen Sprache aufwächst, der hat eine höhere Chance eine absolutes Gehör auszubilden, als derjenige, der mit Englisch oder Deutsch aufwächst.
Wie genau diese Prozesse (in der Ausbildung der neuronalen Infrastruktur in Hirn und Hörnerv) ablaufen, ist bislang nicht geklärt. Allerdings kann man aber eben recht eindeutig feststellen, dass unsere Muttersprache doch einen gehörigen Einfluss darauf hat, was und wie wir hören.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Eine sehr kurze, aber sicher nicht zufriedenstellende Antwort könnte lauten: Es kommt darauf an.
Zunächst fällt aber auf, dass bereits in der Frage implizit die Bedeutung von Sprache für die Identitäts- und Persönlichkeitsentwicklung vorausgesetzt wird. Diese Sichtweise befindet sich damit in bester (sprach-)philosophischer Tradition. Es ist ganz egal, ob wir hier George Herbert Mead herausgreifen, für den Sprache ein wesentlicher Aspekt der Identitätskonstitution war. Oder uns an Ludwig Wittgenstein erinnern, für den Sprache nicht weniger als der Ausdruck einer Lebensform war und der unmißverständlich zum Ausdruck brachte: „Die Grenzen unserer Sprache sind die Grenzen unserer Welt”
Sprache und Sprechen sind also – das lässt sich feststellen – ein wesentlicher Faktor bei der Herausbildung von Identität. Wie wir uns als eigenständige Persönlichkeit und handelnde Subjekte erleben, hängt von der sprachlichen Auseinandersetzung mit unserer Umwelt ab; entscheidend dabei ist der sprachliche Dialog, durch den wir den ständigen Wechsel zwischen Eigen- und Fremdperspektive einüben und stabilisieren.
Doch nun zurück zur eigentlichen Frage: Führt Mehrsprachigkeit dazu, dass sich die Sprecher möglicherweise über unterschiedliche Aspekte ihrer Persönlichkeit bewusst werden? Dazu muss man feststellen, dass das Verhältnis von Mehrsprachigkeit und Persönlichkeit erst seit den 1960er Jahren erforscht wird und nur sehr wenige Studien sich überhaupt explizit mit dieser Frage beschäftigen.
Zudem muss man eine gewichtige Einschränkung machen: auch bei den allermeisten Sprechern, die mehrsprachig aufwachsen, ist die Sprachkompetenz nicht gleich verteilt. Fast immer wird eine Sprache etwas besser beherrscht oder es besteht eine (emotionale und/oder biographische) Bindung zu einer der Sprachen. Eine echte “symmetrische Zweisprachigkeit” (Fachleute sprechen von Ambilinguismus) ist ausgesprochen selten.
Die Studien zeigen jedenfalls, dass Sprache eben nicht als isoliertes Phänomen begriffen werden darf. Denn Sprache meint (gerade wenn wir über ihre Rolle für das individuelle Selbsterleben sprechen) immer die Beherrschung und Benutzung der jeweiligen Sprache, Sprache ist immer in vielfältige Kontexte eingebunden und markiert natürlich auch die Zugehörigkeit zu einer sozialen Gruppe.
Und all diese Faktoren, die persönliche Bindung an eine Sprache und die (Sprach-)Biographie bestimmen letztlich, ob sich Sprecher in Abhängigkeit von der Sprache, die sie gerade benutzen, unterschiedlich erleben. Eine verallgemeinernde Antwort ist also nicht möglich.
—
Literatur:
Oppenrieder, Wilhelm/Thurmair, Maria: Sprachidentität im Kontext von Mehrsprachigkeit. In: Janich, Nina/Thim-Mabrey, Christiane (Hgg.): Sprachidentität – Identität durch Sprache. Tübingen: Gunter Narr 2003. S. 39-60.
Wandruszka, M., 1979. Die Mehrsprachigkeit des Menschen, München: Piper
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Die Antwort auf diese Frage lautet ganz eindeutig: Nein. Es ist ja gerade eines der spannendsten Merkmale von Schmetterlingen, dass diese Insekten während ihrer Entwicklung die Verpuppung durchlaufen und während dieser Phase eine beeindruckende Gestaltumwandlung durchmachen.
Uns fasziniert doch genau diese Verwandlung von der oft schwerfälligen, gefrässigen Raupe in die filigran-schillernden Schmetterlinge, die mühelos durch die Luft schweben. Und das Verpuppungsstadium ist dabei der wesentliche Faktor.
Insgesamt durchlaufen Schmetterlinge vier Entwicklungsstadien; es beginnt mit dem Ei, dann folgt die Raupe (in ihren verschiedenen Larvenstadien), darauf die Puppe und schließlich der Falter (der sog “Imago”). Diese Abfolge wird von Fachleuten als holometabole Metamorphose bezeichnet.
Die holometabole (also: komplette!) Metamorphose haben die Schmetterlinge mit vielen, vielen anderen Insekten gemein (etwa den Käfern oder den Bienen). Damit unterscheiden sie sich von anderen Insekten (wie etwa den Libellen), die keine Verpuppung durchmachen, sondern sich durch mehrere Häutungsschritte ihrer endgültigen Form schrittweise annähern. Diese Entwicklung wird als hemimetabole Metamorphose bezeichnet.
Aber zurück zu den Schmetterlingen. Die vollständige Metamorphose der Schmetterlinge während der Verpuppung wird wesentlich durch drei Hormone gesteuert. Ein Neurohormon namens prothoracikotropes Hormon (PTTH) gibt quasi den Startschuß für den Umbauprozeß. Daraufhin wird das Häutungshormon Ecdyson freigesetzt und sorgt für den Abwurf der alten Hülle. Und solange der Spiegel eines bestimmten Juvenilhormons hoch ist, werden die Häutungen fortgesetzt bis am Ende der Schmetterling in seiner adulten Gestalt vorliegt.
Während dieser Puppenphase nimmt der werdende Schmetterling keine Nahrung auf und ist bewegungslos. Eines der wesentlichen Merkmale ist die Aufteilung des Körpers in die für Insekten typische Dreigliederung (Kopf-Brust-Hinterleib) und natürlich die Bildung der Flügel. Dieser Umbauprozeß dauert meist zwischen zwei und vier Wochen. Allerdings überwintern manche Arten als Puppe – die Metamorphose zum Schmetterling findet dann aber schon im Herbst statt, geschlüpft wird aber erst im Frühjahr.
Und zum Schluß kommen wir doch noch auf kleine Unterschiede in der Entwicklung der Schmetterlinge zu sprechen. Bei den Tagfaltern gibt es nämlich zwei Puppenvarianten: die Stürzpuppen hängen frei baumelnd an ihrem Hinterende, im Gegensatz dazu haben sich die Gürtelpuppen quasi an einem um die Körpermitte geschlungenen Faden etwa an einem Zweig aufgehängt.
Und schließlich gibt es eben noch andere Schmetterlingsfamilien (insgesamt gibt es fast 200.000 verschiedene Schmetterlinge und über 100 Familien), die sich entweder am Boden verpuppen oder – wie der bekannte Seidenspinner – sich durch Spinndrüsen einen exklusiven Seidenkokon bauen. Ohne Verpuppung – egal ob hängend, am Boden oder im Kokon – geht es bei den Schmetterlingen aber nicht.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Die im Rahmen des IPCC AR4 durchgeführten Klimamodellläufe berechnen eine globale Klimaänderung zwischen ca. +2°C bis + 6°C bis 2100, je abhängig vom ausgewählten ökonomischen Szenario (Bevölkerungsentwicklung, Energiemix, etc.). Selbst wenn man sich auf die “realistischeren” Fälle beschränkt (ist nur meine Beurteilung, nichts offizielles), also vielleicht auf ein Erwärmungsintervall von +2-4°C global, sollte man die aktuelle Erwärmung mit anderen Klimaepochen vergleichen, um einen Eindruck davon zu bekommen, mit welcher erdgeschichtlichen Größenordnung wir es hier eigentlich zu tun haben.
So war die letzte Eiszeit (vor 20.000 Jahren) weltweit etwa 5°C kälter oder das Miozän (vor 20 Millionen Jahren) war nur +2°C wärmer. Trotzdem verbinden auch geologische Laien mit solchen Erdzeitaltern sofort eine im Vergleich zu heute vollkommen verschiedende Fauna und Flora, eben vom Mammut bis zum Riesenfaultier. Es ist somit sofort klar, dass der erdgeschichlich bedeutsame und vor allem geologisch blitzartige Klimawandel des kommenden Jahrhunderts eine oft unangepasste Tier- und Pflanzenwelt vorfinden wird. Die Erwärmung wird extrem schnell vor sich gehen. Wieviele Tier- und Pflanzenarten werden sich nicht anpassen können?
Sehr schwierig wird es sicher für Biome werden, die sich an der unteren Skala der Temperaturtoleranz befinden, etwa das Hochgebirge oder die nördliche Baumgrenze, einfach weil sich nach einer Erwärmung kein Rückzugsraum mehr bietet.
Aber wieviele Taxa könnten denn nun wirklich der Klimaerwärmung zum Opfer fallen? Eine sehr schwierige Abschätzung. Und eine teils sehr theoretische Rechnung, denn schliesslich wird sich in Zukunft nicht nur das Klima ändern. Eine bestimmte Spezies mag aus einer ganzen Reihe von Umwelteinflüssen aussterben. Welcher davon denn nun einer Spezies genau den Coup de Grace gegeben hat, ist nicht immer einwandfrei festzustellen.
Ökologen haben eine Beziehung zwischen Habitatgröße und Biodiversität für verschiedene Biome errechnet, die sogenannten Area-Species-Beziehungen. Benutzt man diese empirischen Beziehungen und wendet sie auf die Zukunft an, so kann man eine Abschätzung anstellen, wieviele Spezies auf Grund der verschwindenden und sich verkleinernden Habitate verschwinden werden. So kam eine Studie in Nature bei einem moderaten Temperaturszenario zu der beängstigenden Zahl von 15-35% Artensterben (Thomas et al. s. unten).
Ist irgendetwas von diesen Trends und Entwicklungen bereits eingetreten? In der Tat beobachtete Camille Parmesan bereits Veränderungen, die mit diesem theoretischen Konzept der Biomeverschiebungen und seinen Konsequenzen für die Biodiversität übereinstimmen (s.unten). Während also sicher viele Faktoren am momentanen Artensterben beteiligt sind, sieht es doch so aus, als könne der Klimawandel als einer der bereits jetzt wirkenden Faktoren identifiziert werden. Das wird sich natürlich in der Zukunft eher noch ausweiten.
Ist das Ganze irgendwie überraschend? Nein, denn auch in der Vergangenheit waren große abrupte Klimaänderungen für große Artensterben verantwortlich. Als ein Beispiel sei an das sogenannte Paläozän/Eozän-Temperaturmaximum erinnert. Vermutlich haben damals erhebliche ozeanische (oder terrestrische) Methanflüsse zu einem starken Anstieg des Treibhausgaseffekts geführt (globale Erwärmung von ~+6°C).
Das insbesondere im Ozean beobachtete Artensterben (insbesondere benthischer Foraminiferen, von denen ca. 40% ausstarben), war wahrscheinlich ein Resultat, sowohl des starken Temperaturanstiegs, wie auch der von den CO2-Flüssen verursachten Ozeanversauerung (alles ursprünglich emittierte CH4 wird ja in CO2 umgesetzt). Diese CO2-Flüsse sind in solchen Rechnungen, wie denen von Thomas, noch gar nicht berücksichtigt. Kurz: die kommenden Entscheidungen in Sachen Klima könnten nicht nur für die Spezies Homo sapiens enorme Konsequenzen haben.
Links:
https://www.law.arizona.edu/AdaptationConference/PDFs/ParmesanAREES_Impacts2006.pdf
https://www.arp.harvard.edu/sci/climate/journalclub/Parmesan2.doc
https://eprints.whiterose.ac.uk/archive/00000117/01/thomascd2.pdf
» Dr. Georg Hoffmann ist Klimaforscher und bloggt bei Primaklima |
Zunächst einmal sollte man vorbemerken, dass in unserer makroskopischen Welt der Zeitpfeil nicht einfach umkehrbar ist. Die Gesetze der Thermodynamik sagen ganz klar und in Stein gemeißelt: Die Menge an Unordnung in einem geschlossenen System wird auf lange Sicht immer zunehmen. Dies passiert zumeist, weil Energie durch Reibung als Wärmeenergie “verloren” geht. So lässt sich auch die Richtung der Zeit definieren, die wir empfinden.
Aber richtig, in einem mikroskopischen System ist die Zeit umkehrbar, wenn wir keine Reibung annehmen. Man stelle sich eine Aufnahme von einem Billiardstoß vor, der mit einer Kamera aufgenommen und rückwärts abgespielt wird: Es ist genauso möglich und wird durch die gleiche Theorie beschrieben.
In der Tat – diese Beobachtung einer Umkehrbarkeit der Zeit ist vielleicht die fundamentalste Erkenntnis, die man in der Physik beobachten kann. Es ist eine Symmetrie – die Symmetrie der Zeitumkehr.
Nach einem wichtigen Theorem, das Emmy Noether 1918 formulierte, entspricht eine Symmetrie einem Erhaltungssatz. Im Falle der Zeitinvarianz gehört dazu die Energieerhaltung, eine Säule der Physik. Bleibt noch zu bemerken, dass man als wirklich fundamental die CPT-Invarianz annimmt. Das bedeutet Invarianz unter gleichzeitiger Vertauschung von Ladung, Raumrichtung und Zeit.
Denn man hat beobachtet, dass wenn man Ladung und Raumrichtung gleichzeitig umdreht, Prozesse der Schwachen Wechselwirkung, einer der 4 Fundamentalkräfte, nicht komplett symmetrisch ablaufen. Es gibt kleine Abweichungen, und daher erwartet man, dass in diesem Fall auch die Zeitinvarianz leicht unsymmetrisch ist, damit im
Endeffekt CPT-Vertauschung wieder symmetrisch wird.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Die Frage nach dem Sinn unserer Körperbehaarung lässt sich nicht so pauschal beantworten. Zunächst ist es ja so, dass Haare ein Teil der Haut sind und insofern auch (fast) überall am Körper wachsen. Ihre Funktion unterscheidet sich aber teilweise erheblich. Generell ist es so, dass Haare schädliche UV-Strahlung absorbieren und so vor schädlicher Sonneneinstrahlung schützen. Da Haare nur eine begrenzte Lebensdauer haben (max. 8 Jahre) ist es eben notwendig, dass neue Haare nachwachsen.
Abgesehen davon dienen Haare auch der Feuchtigkeitsregulierung, denn überschüssige Feuchtigkeit wird von den Haaren aufgenommen. An bestimmten Regionen erfüllen Haare dann aber auch noch andere Zwecke. Die Wimpern etwa dienen dem Schutz des Auges vor umherfliegendem Staub, die Nasenhaare fungieren als Filter und die Augenbrauen verhindern, dass uns Schweiß in die Augen fließt.
Nun aber noch zu einem anderen Teil der Frage: Wie läuft das Haarwachstum denn nun ab? Wie oben erwähnt, gehört das Haar eigentlich zur Haut. Dort sitzt im tiefen Bereich der Lederhaut die Haarwurzel, die Papille. Dort entsteht aus speziellen Stammzellen der Haarbalg. Und aus diesem Balg speist sich – durch fortwährende Zellteilung – das Haarwachstum.
Dabei durchläuft das Haarwachstum verschiedene Phasen; beginnend mit der aktiven Produktion und dem Aufbau des Haars, dann schließt eine Übergangsphase an, in der die Haarwurzel ihre Zellproduktion einstellt und schließlich regeneriert sich die Papille, das alte Haar fällt aus und ein neuer Haarbalg (=Follikel) wird gebildet. Dieser Zyklus kann bis zu 25 Mal durchlaufen werden.Generell beträgt die Lebenszeit eines Haarbalgs etwa 6-8 Jahre.
Unsere Kopfhaare wachsen auf diese Weise etwa einen Zentimeter im Monat. Bei den rund 100.000 Haaren, die wir auf dem Kopf haben (Blonde haben mehr, Rothaarige weniger), bedeutet das übrigens, dass jeden Monat etwa 1000 Meter neues Haar auf unserem Kopf wächst.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Der Axolotl, eine Salamanderart aus Mexiko, ist tatsächlich ein wahrer Regenerationskünstler. Der Axolotl, der genaugenommen zur Gattung der Querzahnmolche gehört, kann nämlich verlorene Körperteile vollständig nachwachsen lassen. Egal ob ein Bein oder der Schwanz abgebissen wurde oder gar Organe beschädigt werden: durch seine bemerkenswerte Selbstheilungsfähigkeit stellt der Axolotl diese Körperteile innerhalb weniger Wochen wieder komplett her – ohne dass von der früheren Wunde noch etwas zu sehen wäre.
Diese Fähigkeit nimmt lediglich im höheren Alter ab. Und wenn dieser Reparaturmechanismus zu häufig in Anspruch genommen wird, dann werden häufig auch nur etwas kleinere Körperteile nachproduziert. Natürlich interessieren sich die Forscher für dieses Regenerationstalent. Was steckt dahinter?
Trotz intensiver Forschungsarbeiten von Biologen ist der zugrundeliegende Mechanismus, nicht vollständig verstanden. Klar ist jedoch, dass verschiedene Faktoren eine Rolle spielen. Das beginnt damit, dass sich beim Axolotl – wenn er etwa den Schwanz verliert – kein Narbengewebe bildet. Das hat er mit anderen Lurchen gemein und macht das Nachwachsen von Körperteilen erst möglich.
Den weiteren Verlauf der Produktion von neuen Gliedmaßen oder Organen haben Wissenschaftler des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik in Dresden untersucht. Die haben jüngst herausgefunden, dass die Axolotl nicht über so genannte pluripotente Zellen (=Alleskönner-Zellen) verfügen, die sich nach Belieben in die jeweils erforderlichen Zelltypen spezialisieren könnten.
Entscheidend ist offenbar, dass das Gewebe ein spezielles Orientierungs- und Erinnungssystem eingebaut hat. Die Zellen an der Wundkante senden nämlich über Botenstoffe die notwendigen Informationen aus. Daraufhin werden “alarmierte” Zellen an den Wundrand verlagert, wo sie sich zum so genannten Blastem zusammenballen.
Dort verwandeln sich die Zellen dann ein Stück weit wieder in ein früheres Stadium zurück, von dem aus ein neuer Entwicklungspfad eingeschlagen wird. Muskelzellen werden dort also beispielsweise wieder ein Stück “reprogrammiert” und wandeln sich in Zellen für Sehnen oder Knorpel um. Einer der entscheidenden Punkte ist aber sicher der Mechanismus, der die entscheidenden Zellen dann an den richtigen Ort dirigiert. Der ist bislang aber kaum verstanden.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Das Phänomen des periodisch steigenden und sinkenden Wasserspiegels der Meere nennt man “Gezeiten” und in der Tat ist der Mond dafür verantwortlich. Der genaue Grund ist allerdings etwas kompliziert.
So wie alle anderen Körper ziehen sich auch Mond und Erde gegenseitig gravitativ an. Das führt dazu, dass der Mond sich um die Erde bewegt – bzw. genauer: Erde und Mond bewegen sich um ihren gemeinsamen Massenschwerpunkt. Das ist ein Punkt, der noch innerhalb der Erde liegt.
Auf der Erde selbst wirkt die Anziehungskraft an unterschiedlichen Punkten der Erdoberfläche unterschiedlich stark. Die Anziehungskraft, die der Mond auf die ihm zugewandte (nähere) Seite der Erde ausübt, ist stärker, als die Anziehungskraft, die er auf die abgewandte (entferntere) Seite ausübt!
Aus dem Zusammenspiel zwischen dieser unterschiedlich starken Anziehungskraft und der Bewegung von Erde und Mond um ihren gemeinsamen Massenschwerpunkt, resultiert nun eine effektive Kraft, die dazu führt, dass sich zu bestimmten Zeiten der Meeresspiegel hebt und dann wieder senkt. Eine etwas längere und detaillierte Erklärung kann man hier finden: https://www.scienceblogs.de/astrodicticum-simplex/2008/05/der-mond-die-gezeiten.php
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Der Stoff, der den Chilischoten ihre Schärfe gibt, heißt Capsaicin. Dieses Capsaicin ist ein so genanntes Alkaloid und vor allem in den weißen Scheidewänden von Chilis konzentriert. (Ganz genau handelt es sich um ein Amid, das Chemiker als N-Vanillyl-8-methyl-6-(E)-noneamid bezeichnen.)
Diese Capsaicinoide reizen bei Menschen und anderen Säugern bestimmte Nozizeptoren der Schleimhäute und führen auf diese Weise zur bekannten Hitze- oder Schmerzempfindung. Die Schärfe wird also nicht über die Geschmacksrezeptoren wahrgenommen – deswegen stimmt es eben auch nicht, dass der normale Geschmack “abstumpft”, wenn man Chilis ißt. Nur an die Schärfe gewöhnt man sich.
Nun stellt sich die Frage nach dem Sinn dieser feurig-scharfen Stoffe. Die Antwort gibt die Verbreitungsstrategie der Chili-Pflanzen (die alle zur Gattung der “Capsicum anuum” gehören.) Denn die Chilis sind natürlich darauf angewiesen, dass ihre Samen verteilt und weiterverbreitet werden.
Nun sorgt das scharfe Capsaicin dafür, dass Säugetiere abgeschreckt werden. Vögel haben allerdings keine Rezeptoren, die auf Capsaicin reagieren. Und Vögel, die die roten Früchte fressen und dann die einzelnen Samen wieder ausscheiden, sind natürlich ein idealer Transporteur und gewährleisten, dass die Chilis in weitem Gebiet verteilt werden und wachsen.
Aber es gibt noch einen anderen Vorteil durch das Capsicin: denn das Alkaloid hat eine
antibakterielle und fungizide Wirkung. Die Früchte schützen sich somit etwa vor Pilz und Schimmelbefall.
Und für uns hat das den positiven Nebeneffekt, dass die Speisen, die wir mit Chilis würzen, ebenfalls nicht so leicht verderben. Denn auch durch Erhitzen wird das Alkaloid nicht zerstört. Und wasserlöslich ist es übrigens auch nicht: das merkt man spätestens, wenn man zuviel Chilis gegessen hat und ein Glas Wasser nicht gegen die Schärfereizung hilft.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Ja, prinzipiell besteht die Möglichkeit, dass am LHC schwarze Löcher entstehen. Allerdings nur unter ganz speziellen Bedingungen. Unser Universum müsste mehr als nur 3 Raumdimensionen haben, damit die schwarzen Löcher entstehen könnten. Diese zusätzlichen Dimensionen werden etwa von der Stringtheorie vorausgesagt. Aber obwohl die Stringtheorie seit knapp 30 Jahren existiert, konnte sie immer noch keine einzige experimentell bestätigte Vorhersage machen. Es ist also mehr als fraglich, dass unser Universum noch zusätzliche kompakte Raumdimensionen hat.
Aber selbst wenn es diese Raumdimensionen geben würde (was extrem unwahrscheinlich ist), dann gehen die allermeisten Versionen der Stringtheorie Dimensionen davon aus, dass diese Dimensionen viel kleiner sind, als sie es sein müssten, damit schwarze Löcher entstehen.
Aber gehen wir mal davon aus, dass diese Hypothesen zutreffen und tatsächlich ein schwarzes Loch entsteht. Was passiert dann?
Wir brauchen uns auch in einem solchen Fall nicht zu sorgen, denn schwarze Löcher sind nicht stabil. Auch sie geben Strahlung ab und lösen sich im Laufe der Zeit auf (sie “verdampfen” quasi). Dieses Phänomen nennt man Hawking-Strahlung. Wie schnell sich ein schwarzes Loch auflöst, hängt von seiner Masse ab.
Und die schwarzen Löcher, die am LHC erzeugt werden könnten, sind winzig. Die Energien, die am LHC erzeugt werden, sind recht klein. Und das schwarze Loch kann nicht mehr Energie bzw. Masse haben, als reingesteckt wird. Das erzeugte schwarze Loch wäre also extrem klein. Und je kleiner es ist, desto schneller wird es durch die Hawking-Strahlung aufgelöst. Die Zeitspanne von der Entstehung bis zum Zerfall des schwarzen Loches ist so unvorstellbar kurz, dass man es anschaulich kaum darstellen kann. Das schwarze Loch kann uns also nichts tun.
Es gibt also wirklich absolut keinen Grund, Angst vor dem LHC zu haben. Sämtliche physikalische Theorien sagen klar und deutlich, dass am LHC keine gefährlichen schwarzen Löcher entstehen können. Und auch im unwahrscheinlichen Fall, dass unsere ganze Physik falsch ist, sehen wir durch die Beobachtung der Natur, in der seit Milliarden Jahren das selbe abläuft, was am LHC ablaufen soll, dass keine Gefahr besteht.
Weitere Informationen und Erklärungen, weshalb wir die Experimente am LHC in aller Ruhe erwarten dürfen, gibt es in diesem ausführlichen Beitrag.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Eine vergleichsweise einfach erscheinende Frage, auf die es jedoch keine einfache Antwort gibt. Klar ist, dass uns allein schon die Verantwortung für zukünftige Generationen angesichts der möglichen Folgen des anthropogenen Klimawandels dazu verpflichtet, die gegenwärtigen CO2-Emissionen zu reduzieren. Klar scheint aber auch zu sein, dass sich der momentane Energiebedarf westlicher Industrienationen wie der unseren nicht kurzfristig nur über alternative Energiequellen decken lassen wird. Sinnvoll wäre daher meines Erachtens nach eine Doppelstrategie, die zum einen den weiteren Ausbau und die Erforschung regenerativer Energietechniken vorsieht, zum anderen aber dem wichtigen Aspekt der Energieeffizienz zu mehr Aufmerksamkeit verhilft.
Regenerative Energiequellen wie Solar- und Windenergie, Wasserkraft oder Erdwärme können uns zeitlich nahezu unbegrenzt ein Vielfaches der Energiemenge liefern, die wir benötigen, um unseren gegenwärtigen Energiebedarf zu decken. Zum Vergleich: Die Energiemenge, die allein Deutschland jedes Jahr durch die Sonneneinstrahlung erreicht, liegt bei 380 Billionen Kilowattstunden, der Primärenergiebedarf unseres Landes beträgt dagegen nur etwa 4 Billionen Kilowattstunden – gerade etwas mehr als ein Hundertstel der verfügbaren Solarenergie. Der weltweite Energiebedarf liegt zur Zeit bei knapp 120 Billionen Kilowattstunden. Dies bedeutet, dass – zumindest in der Theorie – bereits ein Drittel der hierzulande verfügbaren Solarenergie ausreichen würde, um den Energiebedarf der gesamten Menschheit zu decken.
Die regenerative Energietechnik hat seit Beginn der verstärkten staatlichen Förderung (eine Folge der beiden Ölkrisen in den 70er Jahren) enorme Fortschritte gemacht – Solarzellen werden jedes Jahr effizienter und es vergeht praktisch kein Monat mehr, in dem nicht mindestens eine technische Innovation oder der Start eines weiteren Großprojekts im Bereich der regenerativen Technologie bekanntgegeben wird. Sogar die wirtschaftliche Nutzbarmachung der Gezeitenenergie rückt in greifbare Nähe – so ist aktuell in Großbritannien ein Gezeitenkraftwerk in Planung, das in Zukunft bis zu 5% des britischen Energiebedarfs decken soll . Obwohl all diese Fortschritte erfreulich sind, dürfte jedoch allein die Förderung regenerativer Energietechnologien nicht ausreichen, um uns mittelfristig von fossilen Energieträgern unabhängig zu machen.
Die Steigerung der Energieeffizienz – also die Senkung des Energiebedarfs bei gleichbleibender Lebensqualität – stellt daher die zweite wichtige Komponente einer nachhaltigen Energiestrategie dar. Der Grund hierfür liegt auf der Hand: Wenn wir unseren Bedarf immer weiter senken können, verringern wir nicht nur unsere Abhängigkeit von importierten Energieträgern, sondern machen es auch einfacher, den verbleibenden Bedarf über regenerative Energiequellen zu decken. Für mein aktuelles Arbeitsgebiet – die Beleuchtungstechnik – lässt sich beispielsweise feststellen, dass wir auf gut und gerne 20% der nächtlichen Außenbeleuchtung ohne jeden Verlust von Sicherheit und Komfort verzichten könnten . Der Energieverbrauch der verbleibenden 80% ließe sich durch den Einsatz effizienter Technologien mittelfristig um weitere 40% senken, was insgesamt eine Einsparung von 52% bzw. knapp 2 Milliarden Kilowattstunden bedeuten würde.
Möglichkeiten zur Steigerung der Energieeffizienz bieten sich überall – angefangen beim Verzicht auf die Standby-Funktion des Fernsehers über den Kauf einer effizienteren Waschmaschine bis hin zu “Green IT” in Unternehmen. Gelingt es, diesem wichtigen Thema in den kommenden Jahren ebenso viel öffentliche Aufmerksamkeit und Unterstützung zu verschaffen, wie den erneuerbaren Energien, wäre ein weiterer Schritt in Richtung einer regenerativen Vollversorgung getan.
Eine zu 100% regenerative Energieversorgung ist übrigens nicht nur aus Gründen des Umwelt- und Klimaschutzes erstrebenswert. Da alle fossilen Energieträger wie Kohle, Erdöl und Erdgas nur in endlichen Mengen verfügbar sind, führt deren zunehmende Verknappung bereits heute zu geopolitischen und wirtschaftlichen Problemen. Auch die Kernkraft – vielfach als vermeintlich umweltfreundlicher Ausweg aus der Krise beschworen – bietet maximal eine Lösung auf Zeit, da auch die förderbaren Uranvorkommen begrenzt sind. Neben der regenerativen Energietechnik bleiben damit allenfalls noch die (ökologisch fragwürdige) CO2-Speicherung und die (technisch noch nicht umsetzbare) Kernfusion übrig, wobei letztere zudem mit dem noch immer ungelösten Problem der Endlagerung radioaktiver Abfallstoffe verbunden wäre.
Der bestmögliche Weg zu einer bedarfsgerechten, CO2-armen und nachhaltigen Energieversorgung ist daher meiner Ansicht nach der weitere Ausbau und die fortgesetzte Erforschung regenerativer Energiesysteme bei gleichzeitiger Senkung des Bedarfs durch effizientere Technologien. Dabei besteht durchaus Grund zu der Hoffnung, dass eine substanzielle Deckung (50% und mehr) des Energiebedarfs aus regenerativen Energiequellen auf diesem Wege in den nächsten zwei bis drei Jahrzehnten erreicht werden könnte.
» Christian Reinboth bloggt bei Frischer Wind |
Kurze Antwort auf die erste Frage: Nein, Jein, Nein
Jetzt die ausführlichere Antwort:
Fixstern ist eigentlich ein Begriff, der wissenschaftlich veraltet ist. Er stammt noch aus der Antike, als man vom Sternenhimmel nicht viel mehr beobachten konnte als Sonne, Mond und sehr viele leuchtende Punkte am Himmel, die man dann Sterne nannte. Die antiken griechischen Gelehrten wussten aber, dass es unter diesen leuchtenden Lichtpunkten Unterschiede gibt. Die allermeisten schienen fest am Sternenhimmel zu stehen, die wurden dann Fixsterne genannt. (Der Sternenhimmel insgesamt bewegt sich zwar scheinbar für einen irdischen Betrachter, aber die meisten Sterne bewegen sich nicht im Bezug zueinander.) Einige wenige Lichtpunkte vollführten seltsame Schleifen am Himmel, bewegten sich also sehr wohl in Bezug zu den anderen Sternen. Die wurden dann folgerichtig “Wanderer” genannt bzw. Planeten.
Das war die alte antike Beschreibung. Aus dieser Sichtweise war der Mond weder ein Stern noch ein Planet, weil er ganz anders aussah, als alles andere am Himmel. Das gleiche gilt für die Sonne. Sonne und Mond waren eben Sonne und Mond und es gab nach damaligen Wissensstand keinen Grund, sie mit anderen Dingen am Himmel in einen Topf zu werfen.
Das änderte sich erst vor 400 Jahren mit Erfindung des Teleskops, als man allmählich erkannte, dass die Sonne nur ein Stern von vielen ist – uns nur eben unglaublich nah ist. Außerdem erkannte man, dass das, was man vorher nur als wandernde Punkte wahrnahm, sich gar nicht so sehr von der Erde unterschied. Einige Planeten wurden sogar von kleineren Begleitern umkreist. Wie der Mond die Erde umkreist. Also wurde eine neue Kategorie an Körpern am Himmel geschaffen: Die Monde. Planeten waren jetzt ausgedehnte Körper, die meist von eigenen Monden umkreist wurden. Damit fällt der Mond also in eine dritte Kategorie neben Sternen und Planeten.
Nun stand die Entwicklung nicht still. Seit einigen Jahrzehnten erkunden wir unser Sonnensystem mit Sonden. Seit 1995 wissen wir, dass andere Sterne ebenfalls von Planeten umkreist werden. Wir wissen sogar halbwegs wie Sterne und Planeten entstehen.
Die Sterne entstehen aufgrund des Kollaps einer Staub- und vor allem Gaswolke nur aufgrund des eigenen Gewichts (also rein durch Gravitation). Die Sterne fressen aber nicht die gesamte “Urwolke”. Junge Sterne sind immer noch von einem Rest Gas und Staub umgeben. In diesem bilden sich wiederum durch Zusammenklumpen und Zusammenstöße (also elektrostatisch, mechanisch) allmählich immer größere Klumpen, die um den Stern kreisen.
Und die Monde? Insbesondere unser Mond?
Da wird es jetzt ein bisschen kompliziert.
Die großen Monde des Jupiters sind z.B. als kleines System im Sonnensystem aus Reststaub entstanden, welche den Jupiter nach seiner Entstehung umkreiste. Die allermeisten Monde scheinen aber “eingefangen” zu sein aus dem ganzen “Rest”, der während der Planetenentstehung auf der Strecke geblieben ist. Kometen, Asteroiden und die Objekte im Kuipergürtel, welche die Quelle für viele Kometen zu sein scheinen, das alles sind anscheinend Objekte, die sich zwar zusammenklumpten, aber nie das Endstadium “Planeten” erreichten.
Der Pluto gehört vermutlich zu den Kuipergürtel-Objekten, weswegen am 24. August 2006 die IAU (International Astronomical Union) unter Berücksichtigung der neuesten Erkenntnisse der Planetenforschung eine neue Arbeitsdefinition zum Begriff “Planet” innerhalb unseres Sonnensystems verabschiedete.(https://www.iau.org/public_press/news/detail/iau0603/) Und den Pluto degradierte. Insbesondere da vorher Objekte im Kuipergürtel entdeckt worden waren, die sogar größer als der Pluto sind.
Der Mond ist übrigens nach der neuen Definition immer noch kein Planet – sondern eben ein Mond. Wie die Monde, der anderen Planeten. Weil er um die Erde und nicht um die Sonne kreist.
Allerdings wissen wir, dass der Mond einen extremen Sonderfall in unserem Sonnensystem darstellt. Er entstand aus einer Kollision zwischen der noch jungen Erde mit einem etwa marsgroßen Körper, den es dabei förmlich zerriss. Aus den Trümmern und aus herausgeschleudertem Material der Erde bildete sich schließlich unser Mond. So etwas gibt es unseres Wissens nach kein zweites Mal in unserem Sonnensystem. Der Mond ist auch im Verhältnis zu dem Körper, den er umkreist, ziemlich groß. Alle anderen Monde sind Winzlinge im Vergleich zu den Planeten, die sie umkreisen.
Es gibt also gute Gründe, Erde und Mond als Doppelplanetensystem zu bezeichnen. Schließlich war der Ursprungskörper des Mondes eigentlich ein eigener Planet, der auf Abwege geraten ist. Deswegen lautete die kurze Antwort auf die Frage, ob der Mond ein Planet ist: Jein. Es kommt darauf an, ob man unbedingt darauf besteht, dass ein Planet vor allem die Sonne umkreisen muss und nichts anderes. Oder ob man vor allem die Entstehungsgeschichte des Körpers berücksichtigt.
Aber so ist das eben mit Kategorien. Sie sind durchaus sehr nützlich, um Ordnung hineinzubringen. Aber es gibt eben immer Fälle, die nicht in dieses Schema passen. Da kann man nur sein Bestes geben, in dem Wissen, dass man es sowieso nicht allen Recht machen kann. Bzw. solange bis was Besseres daherkommt und den Astronomen/Planetologen eine bessere Definition einfällt, die auf neueren Erkenntnissen beruhen.
» Ludmila Carone ist Planetologin und bloggt Hinterm Mond gleich links |
Zunächst haben Faultiere sehr schlechte Augen, sie sind sehr kurzsichtig. Man könnte auch sagen, dass der Sehsinn nicht zu ihren wichtigeren Sinnen zählt. Und auch den Waldboden besuchen Faultiere nur sehr selten; nur etwa einmal pro Woche verlassen sie die Bäume kurz, um zu defäkieren oder um den Baum zu wechseln.
Davon abgesehen gibt es aber eine sehr einfache und überraschende Lösung für das Problem, wie herum Faultiere die Welt sehen. Das Faultier hat zwei Halswirbel mehr als andere Säugetiere, was es ihm erlaubt seinen Hals um mehr als 180° zu verdrehen. Wenn ein Faultier also kopfunter hängend an einem Ast entlangkrabbelt, dann verdreht es seinen Hals so, dass der Kopf wieder aufrecht ist (also Kinn zum Boden)!
Diese Antwort gilt jedenfalls für die Dreifinger-Faultiere. Die verwandten Zweifinger-Faultiere können ihren Kopf nicht so weit verdrehen, und ihre Augen sind so gebaut, dass sie unter einem Ast hängend mit dem Kinn zum Himmel den Ast am besten sehen können. Es wäre also möglich, dass zumindest bei den Zweifinger-Faultieren alles auf dem Kopf steht, wenn sie am Boden sind. Allerdings wurde das meines Wissens nach nie untersucht.
» Alexander Knoll ist Biologe und bloggt bei Alles was lebt |
Eine grobe Überschlagsrechnung, unter der Annahme, dass auf der Erde 7 Milliarden Menschen leben und jeder 100 kg wiegt, ergibt ein Gesamtgewicht der Menschen auf der Erde von 700 Millionen Tonnen.
Das klingt zwar viel – hat aber auf die Bahn der Erde keine relevante Auswirkung. Die Erde selbst wiegt 6000000000000000 Millionen Tonnen! Also 6000 Millionen Millionen Millionen Tonnen! Das Gewicht der Menschen macht nur 0,0000000000001 Prozent der Gesamtmasse aus.
Prinzipiell wirkt sich natürlich jede Massenänderung auf die Bahn der Erde aus. Umlaufzeit und Abstand der Erde von der Sonne hängen von der Masse der Erde ab – aber natürlich auch von der Masse der Sonne!
Die Sonne verliert pro Sekunde 4 Millionen Tonnen durch die Umwandlung von Masse in Energie. Alle 3 Minuten wird dort als das gesamte Gewicht der Menschheit vernichtet.
Der Einfluß, den die Menschen über ihr Gewicht auf die Bahn der Erde haben, ist also so minimal, dass er völlig zu vernachlässigen ist.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Die Frage bezieht sich offensichtlich auf den neuen Teilchenbeschleuniger LHC. Es sollte aber angemerkt werden, dass das nicht alles ist, was am CERN passiert.
Aber, um die Frage zu beantworten, ja die Reparaturen sind fast abgeschlossen. Im letzten Jahr wurde einer der supraleitenden Magneten gequencht (er ist aus der supraleitenden Phase gesprungen, was zur rapiden Temperaturerhöhung führte). Die elektrische Leitung, über die in solch einem Fall eigentlich der Strom abgeführt werden soll, hatte versagt, was zu einer Explosion (durch erwärmendes Helium) und zum Austritt von Helium in den Tunnel führte.
Als Konsequenz mussten 14 Magneten getauscht werden, es wurden zusätzliche Systeme zur Kontrolle der Magneten und zur kontrollierten Ablassung von Helium im Fall eines Quench installiert. Etwas Verzögerung ergab sich noch einmal, weil bei den Reparaturen ein paar Vakuumslecks auftraten, aber bis November sollte der LHC bereit sein.
Vor allem wurden alle fraglichen elektrischen Leitungen getestet und alle ausgetauscht, die einen Neustart des LHC verhindern. Allerdings wird der LHC zunächst nur mit halber maximaler Energie gefahren. Es gibt weitere elektrische Leitungen, die vor einem Betrieb mit voller Leistung ausgetauscht werden müssten. Aber zunächst ist es wichtig, überhaupt einmal Daten zu sammeln, um Detektoren und Experimente zu kalibrieren.
Was alles repariert wurde, sieht man auf dieser Grafik.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Um es gleich vorweg zu nehmen: In die Zukunft sehen kann ich nicht (sonst würde ich wohl Lotto spielen). Trotzdem wage ich ein Voraussage und die kurze Antwort heisst: “Ziemlich sicher ja”. Die längere Antwort ist jedoch etwas komplizierter.
Der Kern der Frage ist, was man unter einem “Nationalstaat” versteht. Es gibt ganz unterschiedliche Definitionen. Einig scheint man sich zu sein, dass die Idee des Nationalstaates eng mit dem 1648 mit dem Westfälischen Frieden in Europa geschaffenen internationalen Staatensystem verbunden ist. Die Innovation war damals, dass jeder Staat für seine inneren Angelegenheiten (bedeutete vor allem die Wahl der Staats-Konfession) ohne äussere Einmischung selbst verantwortlich sein soll (Souveränität).
Um die Definition zu vervollständigen, muss dieses Staatskonzept nun noch mit der Idee einer ‘Nation’ verbunden werden. Dazu wird häufig eine gewisse Einheitlichkeit der Bevölkerung (z.B. Sprache, Ethnie, Geschichte) als Kriterium benutzt. Doch dies trifft auf die meisten Staaten kaum zu (ein Paradebeispiel wäre die Schweiz). Eine gängige Definition geht darum meist einfach vom “Wunsch, zusammen leben zu wollen” (Ernest Renan) aus.
Der Nationalstaat hat seit seines Entstehens viel von seiner ursprünglichen Macht verloren. Heute scheint alles mit allem eng zusammen zu hängen und Politik kann kaum auf das Gebiet innerhalb ziemlich willkürlicher nationaler Grenzen beschränkt werden.
Wenn Firmen die Produktion problemlos von einem Kontinent zum anderen verlegen können, wenn Entscheidungsgewalt an eine supranationale Ebene abgegeben wird (z.B. Europäische Union, Internationale Gerichtshöfe etc.) oder wenn von Amnesty International bis Al-Kaida transnationale Gruppen weltweite Kampagnen führen, dann scheint der Nationalstaat ein Auslaufmodell zu sein.
Am Besten betrachtet man den Nationalstaat aber nicht als absolutes Konstrukt, sondern als ein Konzept mit vielen Abstufungen. An einem Ende steht der ideale, zentralisierte und absolut souveräne Staat (den es in dieser Form vermutlich nie gab). Am anderen Ende des Spektrums findet man Gebiete, die viel ihrer Souveränität eingebüsst haben (z.B. die deutschen Länder oder die Schweizer Kantone).
Man kann sich auch fragen, ob denn was immer die Nationalstaaten ersetzen würde, wirklich etwas anderes ist. Schliesslich sind viele der heutigen Staaten aus einem Zusammenschluss von kleineren souveränen Einheiten entstanden (Deutschland, Italien, Schweiz…). Es stimmt zwar, dass viele Staaten sich vom Ideal des zentralisierten Nationalstaates wegbewegen. Gleichzeitig werden Souveränitätsrechte von ihnen vehement verteidigt. Die meisten Menschen identifizieren sich nach wie vor vorwiegend mit typischen nationalen Symbolen (Flaggen, Währung, Geschichte, etc.). Das ganze internationale Staatensystem baut auf dem Konzept des Nationalstaates auf. Der Nationalstaat ist die dominante Organisationseinheit im internationalen System.
All das wird sich so schnell kaum ändern. Es wird also ziemlich sicher auch 2020 noch Nationalstaaten geben, nur mit weniger Macht und mehr übergeordneten komplementären Entscheidungsinstanzen.
» Ali Arbia ist Politologe und bloggt bei zoon politikon |
Zunächst muss eine Sache festgestellt werden: das Risiko, Opfer eines Haiangriffs zu werden, ist absolut minimal. Jedes Jahr gehen Milliarden Menschen schwimmen, tauchen oder surfen – und dabei kommt es weltweit durchschnittlich zu etwa 60-80 Haiunfällen. Die Wahrscheinlichkeit vom Blitz getroffen zu werden, ist deutlich höher.
Und noch einige grundsätzliche Vorbemerkungen: Kommt es doch zu einem Unfall mit einem Hai, dann gibt es verschiedene Erklärungen. Oft hört man, dass der Hai einen schwimmenden Menschen mit einem Seehund oder eine Robbe verwechselt. Das ist aber – so sind sich Experten einig – zu einfach gedacht. Haie haben eine Vielzahl hochentwickelter Sinnesorgane und erkennen den Unterschied sehr wohl.
Denn Haie sehen nicht nur sehr gut (etwa so gut wie der Mensch, allerdings zusätzlich
im ultravioletten Farbbereich und ziemlich gut bei wenig Licht), sondern hören und riechen auch ausgezeichnet.
Ganz besondere Kennzeichen sind allerdings das so genannte Seitenlinienorgan, mit dem Haie auf nahe Distanz ein Objekt “taxieren” können (dazu schlägt der Hai Wasser mit der Schwanzflosse gegen das Objekt). Außerdem können Haie auch bioelektrische Felder messen. Mittels der “Lorenzinischen Ampullen”, die im Kopfbereich platziert sind, nehmen Haie die elektrischen Aktivitätsimpulse wahr, die etwa durch Muskelbewegungen zustande kommen.
Wenn man diese tollen Wahrnehmungsorgane des Hais berücksichtigt, dann wird klar, dass Haie den Menschen nicht einfach mit einer Robbe “verwechseln”. Der Mensch ist ein unbekannter Eindringling in ihren Lebensraum und Haie versuchen zu klären, um was für ein Lebewesen es sich handelt.
Doch wie sollte man sich Verhalten, wenn man doch einmal mit einem Hai in Berührung kommt? Die oberste Grundregel lautet: ruhig bleiben! (So schwer das auch sein mag.) Ruckartige, hektische Bewegungen oder gar die “Flucht” sind verkehrt. Und man sollte auch nicht – wenn man Taucher ist – direkt über einen Hai schwimmen oder aufsteigen.
Wenn sich ein Hai nähert, so sollte man also nicht wegschwimmen, sondern sich vertikal im Wasser positionieren und immer versuchen, den Hai anzusehen. Wird man vom Hai umkreist, dann gilt: immer mitdrehen und dann Hai frontal fixieren. Und wenn man in einer Gruppe taucht, dann sollte man sich in geringem Abstand (ca. 2m) zusammenschließen. Ein Hai wird mit großer Wahrscheinlichkeit größeren Abstand halten.
Sobald es möglich ist, dann kann man sich nach Möglichkeit zurückziehen – allerdings langsam und kontrolliert.
Ein wirklicher Tipp für die Reaktion auf eine von Beginn an aggressive Haiattacke war nun in der Antwort freilich nicht dabei – allerdings ist diese von so vielen zusätzlichen Faktoren abhängig (Art und Größe des Angreifers, sowie Hilfsmittel die zur Verteidigung zur Verfügung stehen), so dass die allgemeinen Hinweise zum richtigen Verhalten genügen sollen. Ansonsten gilt – wie eingangs erwähnt – es ist wahrscheinlicher vom Blitz getroffen zu werden, als…
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
1929 hat der amerikanische Astronom Edwin Hubble festgestellt, dass sich eine Galaxie um so schneller von uns entfernt, je weiter sie weg ist. Geschwindigkeit v und Entfernung D hängen dabei über die so genannte Hubble-Konstante H zusammen:
v = H x D
Aktuelle Messungen geben einen Wert von 74,2±3,6 km pro Sekunde pro Megaparsec für H an.
Eigentlich ist H aber keine echte Konstante; das wäre sie nur, wenn sich das Universum seit dem Urknall gleichförmig ausgedehnt hätte. Wir wissen heute aber, dass dies höchstwahrscheinlich nicht der Fall war.
Kurz nach dem Urknall folgte eine Phase, in der sich das Universum extrem schnell ausdehnte (“Inflation”) und aktuelle Messungen zeigen, dass sich das Universum auch heute wieder, aufgrund der noch wenig erforschten dunklen Energie, schneller ausdehnt als erwartet.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Und Marian ergänzt: Da es ja eine Maximalgeschwindigkeit gibt (Lichtgeschwindigkeit), müsste es ja auch eine Maximaltemperatur geben, da Temperatur ja Schwingungen um den Atomkern sind. Wenn also die Schwingungen Lichtgeschwindigkeit haben, müsste das ja dann die Maximaltemperatur sein, oder?
Darauf eine Expertenantwort von ScienceBlogger Dr. Joerg Rings:
Grundsätzlich ist es kein schlechtes Konzept, Temperatur als Bewegung von Teilchen zu verstehen. In einem Festkörper ist auch die Schwingung der Atomkerne um die Ruhelage ein Maß für die Temperatur. Eigentlich bestimmt man die Temperatur aber als mittlere Energiedichte. Man kann es sich schon bei Luftmolekülen vorstellen: Haben diese mehr Bewegungsenergie, flitzen sie schneller herum und treffen häufiger auf Hindernisse (z.B. unsere Haut) – das Ergebnis: eine höhere Temperatur.
Bewegen wir uns jetzt zu höheren Temperaturen, ist es nicht mehr so einfach, von kinetischer Energie zu sprechen. Schauen wir uns den Zustand kurz nach dem Urknall an: Dort ist die Temperatur/Energiedichte so hoch, dass man keine Trennung
Energie/Materie mehr ziehen kann. Erst mit der Zeit und mit der Ausdehnung kommt es überhaupt dazu, dass sich Materie bilden kann, ohne sofort wieder zu zerfallen.
10 Sekunden nach dem Urknall bilden sich Neutronen und Protonen, und somit leichte Atomkerne. Aber es können noch keine stabilen Atome entstehen – die Kernteilchen stecken in einer heißen elektromagnetischen Strahlung fest, die die Temperatur bestimmt. Erst nach 10 000 Jahren ist das Universum so abgekühlt, dass die Energiedichte der Strahlung kleiner wird, als die der Materie – und erst nach 400 000 Jahren können sich Atome bilden, da nicht mehr jedes Photon sofort wieder absorbiert wird.
Die so entkoppelte Strahlung findet man heute noch – durch die Ausdehnung des Universums sind es heute Photonen im Mikrowellenbereich, die von diesem Zeitpunkt übrig geblieben sind – die kosmische Hintergrundstrahlung. Da schließt sich der Kreis, denn die Energiedichte dieser ältesten Photonen kann man bestimmen und der Energieverteilung (dem Spektrum) eine Temperatur bestimmen – unser Universum hat eine Temperatur von 2,7 K.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Die Relativitätstheorie besagt, dass sich nichts schneller als das Licht im Vakuum fortbewegen kann. Diese Geschwindigkeit von 299 792,458 km/s ist die oberste Geschwindigkeitsbegrenzung. Wenn Licht sich allerdings in Materie (also z.B. Luft, Wasser oder eben Glas) ausbreitet, dann wechselwirken die Photonen mit den Molekülen, was sie verlangsamt.
Das Licht bewegt sich in der Luft “nur” noch mit 299 705,518 km/s. Das ist kein Widerspruch zur Relativitätstheorie, denn – wie schon gesagt – diese spricht von der Lichtgeschwindigkeit im Vakuum.
Durch die Verwendung spezieller Materialien ist es Wissenschaftlern mittlerweile gelungen, das Licht bis auf einige Meter pro Sekunde zu bremsen.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Die Chemie hat einen griechisch-arabischen Ursprung. Unser heutiges Wort “Chemie” leitet sich vom griechischen “χημεία” (etwa: Chymeia) ab, das wörtlich die “Kunst des Metallgießens”, im weiteren Sinne die Lehre von der “Schmelzung” und Umwandlung (der Stoffe) meint.
Im alten Ägypten steht die “kīmiyá” zunächst als Ausdruck für “das Schwarze”. Zum Beispiel für das Schwarze im Auge (die Iris) und somit für alles Dunkle und Geheimnisvolle. Gleichzeitig steht das ägyptische Wort “chemia” auch ganz konkret für die “schwarze Erde”, womit die fruchtbare Erde des Nildeltas gemeint ist.
Im arabischen Raum wurde daraus durch Ergänzung des Artikels “Al-” der Begriff “Alchemie”. Die “al-kīmiyá” bezeichnet also die “Kunst der Ägypter”. Die Alchemisten beschäftigten sich mit der Umwandlung von unedlen in “edle Stoffe”. Zielsetzung war dabei die Herstellung von Gold, eines Allheilmittels (Panacea) oder gleich des “Steins der Weisen”. In der Alchemie der Antike und des Mittelalters vermischten sich die Lehre von den Eigenschaften der Stoffe, Naturphilosophie und Astrologie.
Im 17. und 18. Jahrhundert fand dann ein Paradigmenwechsel statt. Die Chemie wandte sich der quantitativen Untersuchung der Stoffe und Stoffumwandlung zu und entwickelte sich – beschleunigt durch die Entwicklung von besseren Waagen – zur modernen Chemie, die wir heute kennen.
» Marc Scheloske ist Wissenschaftssoziologe und Redakteur von ScienceBlogs |
Die Antworten zu dieser Frage sind ganz einfach: Ja! Nein! Vielleicht! Es kommt ganz auf den Blickwinkel an.
1. Aus chemischer Sicht gibt es grundsätzlich keinen Zweifel, denn Leben besteht im Grunde aus nichts anderem als komplexer Chemie. Proteine, DNA, Zellmembranen, Botenstoffe, usw. – alles komplexe chemische Verbindungen. Darum muss es im Umkehrschluss auch möglich sein, Leben aus diesen komplexen chemischen Verbindungen zu schaffen.
2. Methodisch ist fraglich, ob wir tatsächlich in der Lage sind/sein werden, dies auch zu tun. Leben wie wir es kennen, ist höchst organisiert, aber nicht im chemischen Gleichgewicht. Selbst wenn wir optimistisch davon ausgehen, dass es mit modernen Synthesemethoden und viel Aufwand möglich sein sollte den “Inhalt” einfachen Lebens aus den Elementen nachzubauen, wäre es wohl immer noch unmöglich diese Bestandteile zu einem höchst organisierten Ungleichgewicht zusammenzufügen.
3. Unabhängig von unseren Möglichkeiten muss man sich natürlich auch fragen: “Was ist Leben?” Dazu kenne ich allerdings die Antwort nicht, weshalb ich die Frage gleich als Forschungsfrage weitergereicht habe. Vielleicht ist es ja mehr als nur die Summe der einzelnen chemischen Teile…
» Dr. Oliver Schuster ist Chemiker und twittert als Olchemist |
Mit Uhren den Raum zu vermessen, das mag auf den ersten Blick seltsam erscheinen. Das Konzept begegnet uns aber sogar manchmal im Alltag. Gerade während des derzeit unsteten Sommerwetters kann man damit die Entfernung eines Blitzeinschlages abschätzen: Der Blitz ist aufgrund der großen Geschwindigkeit des Lichtes beinahe instantan zu sehen, der Donner braucht aber eine gewisse Zeit für seine Ankunft. Genauer gesagt braucht er für 340 Meter eine Sekunde. Wenn ich also nach einem Blitz leise die Sekunden mitzähle und weiß, dass drei “Schallsekunden” etwa einem Kilometer entsprechen, kann ich nur mit Hilfe einer groben Zeitangabe die Entfernung zwischen mir und dem Blitz ungefähr bestimmen.
Nicht viel anderes steckt hinter dem Konzept des Lichtjahres. Hier wird aber Licht und nicht Schall als Basis für die Entfernungsvermessung verwendet. Ein Lichtjahr ist demnach einfach nur die Strecke, die das Licht innerhalb eines Jahres zurücklegt: Etwa 9,5 Billionen Kilometer.
Es gibt verschiedene sehr gute Gründe ausgerechnet Licht als Maß für kosmische Entfernungen zu verwenden.
Licht bzw. elektromagnetische Wellen sind sowieso meist das einzige, was wir von Sternen, Galaxien oder extrasolaren Planeten bei diesen unvorstellbar großen Entfernungen jemals zu sehen bekommen werden. Sie sind also die primäre Informationsquellen über die Natur ferner Objekte im Weltall.
Außerdem wissen wir dank Einsteins spezieller Relativitätstheorie, dass Licht eine Art kosmisches Metronom ist. Egal wie sich was in Bezug zueinander wie schnell bewegt, Licht bewegt sich im Vakuum immer mit der Lichtgeschwindigkeit c. Die Lichtgeschwindigkeit ist sogar die oberste Geschwindigkeit, mit der Information übermittelt werden kann. Zusammen mit dem Konzept des Vermessens des Raumes mit Uhren führt das zur Einsicht, dass Raum und Zeit untrennbar zusammengehören. Sie bilden eine Raumzeit, in der sich Information mit maximal Lichtgeschwindigkeit verbreitet.
Wenn also ein Stern hundert Millionen Lichtjahre weit weg ist, dann sehen wir den Stern heute hier auf der Erde so wie er war, als das Licht ausgesandt wurde – vor hundert Millionen Jahren. Vor hundert Millionen Jahren war die Erde mitten in der Kreidezeit. Die Dinosaurier dominierten die Erde, selbst die Kontinente waren anders angeordnet und der Mensch mit seinen Fragen sollte erst in vielen, vielen Millionen Jahren auf der Bildfläche erscheinen.
Daher erinnert uns die Einheit Lichtjahre daran, dass unser Blick zu den Sternen immer auch ein Blick in die Vergangenheit ist. Je tiefer wir in den Weltraum blicken, desto tiefer geht der Blick rückwärts in der Zeit. Er reicht inzwischen bis hin zu den Anfängen des Universums.
» Ludmila Carone ist Planetologin und bloggt Hinterm Mond gleich links |
Die harte Schale der Eier von Amphibien, Reptilien und auch von Vögeln ist eine Anpassung der Tiere an das Leben an Land. Als die ersten Tiergruppen das Wasser verließen, wurden sie vor mehrere Probleme gestellt: Der heranwachsende Embryo musste gegen die äußeren Einflüsse geschützt werden, vor allem vor dem Austrocknen, aber auch vor Erschütterungen. Er erhielt darum eine stabile Schale, die aber porös genug ist, um Luft durchzulassen. Im Inneren dieses Eis wird zudem in Form von Dotter genug energiereiches Material eingelagert, um den Embryo während seiner Entwicklung zu ernähren. All dies wird bei einem Vogel wie dem Huhn noch im Innern des Körpers der Eizelle zugegeben.
Schon vor der Befruchtung sitzt die eigentliche Eizelle auf einer großen Kugel von Dotter. Dort beginnen dann auch die allerersten Schritte der Embryonalentwicklung, während sich das Ei samt Dotter den Eileiter entlang bewegt. In der Wand des Eileiters sitzen verschiedene Drüsenzellen, die nun Eizelle und Dotter in mehrere Schichten hüllen: Zunächst versorgen die Eiweißdrüsen das Ei mit dem Eiklar oder Eiweiß, das einen ersten mechanischen Schutz bietet, und zudem Bakterien in ihrem Wachstum behindert.
Bevor nun die Schalendrüsen am Ende des Eileiters die (genau!) Kalkschale aus Calciumcarbonat und Proteinen um das Ei bilden, wird noch eine dünne Schalenhaut zwischen Eiweiß und Schale erzeugt, die am stumpfen Ende des Eis eine Luftkammer bildet; die kennt jeder, der schon mal ein Frühstücksei gegessen hat. Sobald die Kalkschale gebildet ist, kann das Ei gelegt werden. Der gesamte Vorgang ab der Befruchtung dauert ungefähr 24 Stunden, wovon ganze 17 Stunden nur auf die Schalenbildung entfallen!
Das Ei ist zunächst im Huhn übrigens noch kugelrund. Damit die verschiedenen Schichten des Eis gleichmäßig aufgetragen werden können, drehen Muskeln im Eileiter das Ei während seiner Reise spiralförmig, so dass es eine länglichere Form erhält. Auch der Druck, den die Henne beim Legen auf das Ei ausübt, formt das noch relativ weiche Ei in seine ovale Form. Wieso gerade oval? Weil das eine sehr stabile Form ist, bei der Druck von außen gleichmäßig zu den Seiten weg verteilt werden kann. Anders als ein kugelförmiges Ei kann es auch nicht so leicht wegrollen!
» Alexander Knoll ist Biologe und bloggt bei Alles was lebt |
Vermutlich nein. Diese Frage lässt sich nicht wirklich beantworten. Wir können uns nie sicher sein, ob wir tatsächlich schon alles erforscht haben. Im Laufe der Geschichte gab es immer wieder Leute, die meinten, wir stünden kurz davor, alles Wesentliche über die Welt verstanden zu haben und jedesmal hat sich gezeigt, dass das nicht stimmt.
Der Erkenntnisfortschritt in den Naturwissenschaften geht einfach immer weiter. Man sieht das etwa am Beispiel der aktuellen Forschungen am Teilchenbeschleuniger LHC in Genf. Über viele Jahrzehnte hat das Standardmodell der Teilchenphysik bei der Beschreibung der Gesetzmäßigkeiten der Natur hervorragende Dienste geleistet, dennoch hat es noch einige Lücken. Mit den Experimenten in Genf soll u.a. beantwortet werden, wie Teilchen zu ihrer Masse kommen oder ob es das Higgs-Boson tatsächlich gibt.
Aber auch wenn diese Fragen beantwortet sind, dann stellen sich wieder neue offene Fragen. Es ist vielleicht prinzipiell möglich, alles zu erforscht zu haben – aber die Menschen werden diesen Zustand, wenn überhaupt, noch sehr, sehr lange nicht erreichen.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Es gibt ja einige Dinge in der Natur, die man nicht eindeutig beantworten kann, hier kommt es zum Beispiel auf die Form und Größe der Regentropfen an, als auch auf die Fallhöhe. Grundsätzlich sinkt ein Regentropfen erst dann zur Erde, wenn seine Schwerkraft größer ist als der Auftrieb innerhalb der Wolke und die Reibung in der Luft.
Nun muss man wissen, dass während der Beschleunigungsphase Regentropfen ihre Form verändern, sie haben fast nie die uns bekannte “Tropfenform” (siehe hier). Dabei nimmt der Luftwiderstand quadratisch zur Fallgeschwindigkeit zu, bis sich irgendwann ein Kräftegleichgewicht zwischen Erdanziehungskraft und Luftreibung einstellt, und der Tropfen quasi konstant schnell zur Erde fällt. Genähert ergibt dies 6 m/s oder etwa 20 km/h.
Wie lange braucht also ein Regentropfen nun zur Erdoberfläche? Das ist ganz unterschiedlich und kann so nicht beantwortet werden. Ist der Beobachter im Flachland oder steht er auf dem Berg? Was für lokale Winde (insbesondere Auftriebswinde) wehen? Im Gewitter wird ein Regentropfen beispielsweise öfters durch den Auf- und Abwindkanal gewirbelt, bis er zur Erde fällt. Deshalb kann es eben vorkommen, dass der Himmel bereits wieder wolkenlos ist und man dennoch nass wird.
» Frank Abel ist Meteorologe und bloggt im weatherlog |
Leider kann man die Halbwertszeit eines Elementes nicht künstlich verändern, denn das ist eine grundlegende Eigenschaft, die der Atomkern je nachdem so hat, aus welchen Teilchen er zusammengesetzt ist – und das macht nun auch das Element aus. Ein radioaktiver Kern
hat eine bestimmte Wahrscheinlichkeit zu zerfallen, die sich aus Naturgesetzen ableitet. Und in einer großen Anzahl von Kernen leitet sich daraus statistisch die Tatsache ab, dass nach Ablauf der Halbwertszeit die Hälfte der Kerne zerfallen ist.
Nun kann man sich trotzdem fragen, ob man die Endlager-Problematik entschärfen kann (ohne zu diskutieren wie dringlich diese Problematik nüchtern betrachtet wirklich ist).
Häufig wird in diesem Zusammenhang über neuartige Kernreaktoren, wie z.B. den konzeptionell sicheren Kugelhaufenreaktor diskutiert. Weiterhin existiert eine Idee, die nach dem Nobelpreisträger Carlos Rubbia auch als Rubbiatron bezeichnet wird. Dahinter steht das Konzept, die langlebigen Endprodukte mit einem Teilchenbeschleuniger zu beschießen und in kurzlebige Isotopen umzuwandeln, die kürzere Lagerzeiten hätten – aber all das wäre mit einem enormen technischen Aufwand verbunden.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |
Die Anforderung an ein “gutes Modell” ist zunächst, dass es die Realität innerhalb der gewünschten Rahmenbedingungen hinreichend genau beschreiben kann. Das bedeutet, dass bei unterschiedlichen Problemen unterschiedliche Modelle gut sind.
Will ich wissen, wie sich die Bahnen der Planeten in den nächsten Jahrmillionen entwickeln, dann ist die Newtonsche Gravitationstheorie ein gutes Modell und beschreibt mir die Realität hinreichend genau. Will ich eine Raumsonde zum Mars schicken, dann brauche ich allerdings ganz andere Modelle, um die nötige Genauigkeit zu erhalten.
Dieses Modell käme der Realität zwar näher als das von Newton – im ersten Fall würde man es aber trotzdem nicht einsetzen, weil es hierfür viel zu kompliziert wäre. Ein gutes Modell braucht der Realität also immer nur so nahe wie gerade nötig kommen.
» Dr. Florian Freistetter ist Astronom und bloggt bei Astrodicticum Simplex |
Sie wird gegrillt. Erstmal ist es egal, ob wir eine Ente haben oder einen Schwimmer. Wenn der Blitz einschlägt, ist es vorbei. Der Unterschied kann sein, dass der Schwimmer weiter aus dem Wasser herausguckt, und dem Blitz – im Vergleich zum umliegenden flachen See – einen bevorzugten Ort zum Einschlagen gibt. Da hat die Ente sicher eine geringere Wahrscheinlichkeit, getroffen zu werden.
Wenn Schwimmer oder Ente vom Blitz getroffen werden, dann werden sie von starkem Strom durchflossen, der durch ihren Körper in den See weiterfließt. Wasser ist ein guter elektrischer Leiter (im Vergleich z.B. zum Erdboden) und daher leitet und verteilt er den Strom gut – das heißt, wenn der Blitz einige Meter von der Ente entfernt ins Wasser einschlägt, sollte sie mit dem Schrecken davonkommen.
» Dr. Joerg Rings ist Physiker und bloggt bei Diax’s Rake |