Interessant an dieser Stelle ist: Kann das bei Menschen auch passieren? Es ist zumindest sehr wahrscheinlich, wir sind ja auch nur Tiere.
Seit einigen Jahren häufen sich Beobachtungen, dass der Toxoplasmose-Erreger (ein tierischer Einzeller namens Toxoplasma gondii) einen Einfluss auf den Menschen hat.
Dabei ist der Hauptwirt eigentlich die Katze und der Mensch vermutlich ein Fehlwirt, das heisst er wird nur aus Versehen befallen und dient nicht zur Vermehrung.
Trotzdem sind 20% bis 80% der Bevölkerung schon einmal von dem Einzeller befallen worden. Besonders ungünstig ist das, wenn es während der Schwangerschaft passiert, da der Erreger über die Plazenta den Fötus erreichen kann und eine Fehlgeburt auslöst oder zu bleibende Schäden führt.
Nun wurden einige interessante Zusammenhänge zum Vorhandensein von Toxoplasma-Antikörpern (das bedeutet, dieser Mensch hat schon eine Toxoplasmose durchgestanden) gefunden, die man allerdings noch nicht erklären kann.
Zwar ergibt es Sinn, dass von Toxoplasmen befallene Ratten und Mäuse den Geruch von Katzen und Katzenurin nicht mehr unangenehm finden, im Gegenteil – diese Ratten lassen sich besonders gut von Katzen fangen und fressen, sodass sie sich dann im eigentlichen Wirt weiterentwickeln können. Aber welchen Effekt hat der Parasit beim Menschen?
Bei einer latenten Toxoplasmeninfektion haben sich die Parasiten in Zysten eingekapselt und – man weiß es nicht so genau – produzieren dabei im Gehirn eventuell Dopamin. Das führt vermutlich zu Verhaltensänderungen, wie Jaroslav Flegr herausfand. Frauen werden warmherziger und gewissenhafter, Männer hingegen argwöhnischer und neidischer und alle fahren angeblich schlechter Auto, mal grob zusammengefasst.
Eine Kohorten-Studie stellte außerdem fest, dass Frauen mit Toxoplasma-Antikörpern eine deutlich höhere Wahrscheinlichkeit haben, Jungen zu gebären. Diejenigen Frauen mit einem besonders hohen Titer (das sind die, die erst vor kurzem infiziert wurden) kommen auf eine Wahrscheinlichkeit von 72%, statt den normalen 51%. Bei Frauen mit einem niedrigem Titer (Titer bezeichnet übrigens die Konzentration der spezifischen Antikörper im Blut) kommt man immerhin noch auf 60%.
Erklären kann man diesen Effekt zunächst nicht, die Autoren der Studie vermuten immunologische Effekte, sodass männliche Embryos eine bessere Überlebenswahrscheinlichkeit haben.
Aber bei der Gelegenheit klären wir gleich mal die Frage: Was sind denn Kohorten-Studien?! Ich weiß, diese Frage drängte sich praktisch auf und muss dringend geklärt werden – zumal das viel einfacher ist, als die Klärung der biologischen Hintergründe
Eine Kohorte im sozialwissenschaftlichen Sinne ist eine Gruppe Menschen, die zu einem Jahrgang gehören – Geburtsjahrgang, Abschlußjahrgang und so weiter. Normalerweise setzt man ein etwa gleiches kulturelles Umfeld voraus. Im medizinischen Sinne ist es einfach eine definierte Personengruppe (hier: Neugeborene innerhalb eines Zeitraums von 8 Jahren).
Man kann Kohortenstudien zwischen mehreren Kohorten (Inter-Kohortenvergleich) oder innerhalb einer Kohorte (Intra-Kohortenvergleich) durchführen. Bei ersterem kann man so Unterschiede feststellen, die auf das kulturelle Umfeld zurückgehen. Bei zweiterem hat man eine homogene Gruppe, bei der man kulturelle Effekte vernachlässigen kann.
Kohortenstudien sind oft Längsschnittstudien (=Panelstudien), dabei werden im Laufe der Studie mehrmals Daten von den Personen aufgenommen. In unserem Beispiel wurde während der Schwangerschaft der Toxoplasmose-Titer festgestellt und nach der Geburt das Geschlecht, bzw. ob eine Fehlgeburt vorlag.
Bei Kohortenstudien muss man bestimmte Effekte beachten: jahreszeitliche (z.B. alle im Frühling geboren) und jahrgangsabhängige Effekte (die 68er, Generation Geil, Golf, Praktikum und wie sie alle heißen), sowie den Alterseffekt, da die beteiligten Personen im Laufe der Studie alle älter werden. Das kann Einfluss auf die Ergebnisse haben, in unserem Fall würde man sie aber nicht erwarten.
Die hier erwähnte Toxoplasmose-Studie war eine retrospektive Studie, das heißt, die Daten wurden erst im Nachhinein gesammelt. In diesem Fall weiss man also nicht, wann die Infektion stattfand. Grundsätzlich hat man bei retrospektiven Studien das Problem, dass vielleicht gerade die benötigten Daten nicht ausreichend erhoben worden sind und man eben nur das verwenden kann, was man kriegt.
Das Gegenteil von retrospektiv ist prospektiv, dabei nimmt man zu Beginn der Studie Daten auf und verfolgt deren Entwicklung. Hier ist das Problem, dass im Laufe der Studie einige Personen abspringen können und die Beobachtungen über einen langen Zeitraum geplant und durchgeführt werden müssen. Eventuell erlebt man das Ende der Studie gar nicht mehr!
Ein weiteres Problem von Kohortenstudien ist, dass seltene Ereignisse oder Erkrankungen nur bei sehr großer Teilnehmeranzahl in ausreichend großer Menge auftreten.
Auch die oben erwähnte Studie, in der es darum ging, dass man als Infizierter schlechter Auto fährt, war eine (prospektive) Kohortenstudie. Wer befallen ist, zeigt schlechtere Reaktionen – aber nicht, wer Rhesus positiv ist.
Für die Studie wurden 3890 Männer, die ein bis eineinhalb Jahre als Fahrer beim Militär arbeiten sollten, zunächst auf Rhesusfaktor, Gesundheitszustand und Toxoplasmose-Titer untersucht. Nach Ablauf der Dienstzeit wurde verglichen, wieviele der Fahrer einen Unfall hatten. Männer mit einem Titer > 1:64, die Rh-negativ waren, hatten eine deutlich höhere Wahrscheinlichkeit, in einen Unfall verwickelt zu sein (16,7%), als Nichtinfizierte oder Rh-positive Männer (~2,6%).
Oje, ist auch Rh-,
Andrea Thum
Ein Statistiker wird gefragt, wo er begraben werden will.
Seine Antwort: “In Jerusalem, da ist die Auferstehungswahrscheinlichkeit am größten.”
Weitere Witze erwünscht (aber nehmt mir nicht alle weg, ich habe noch ein paar für später aufgehoben)
Da die Regierung relativ kernkraftfreundlich war (und ist) wurde von ihr (und natürlich den Kernkraftwerksbetreibern) die Aussagekraft der Studie bezweifelt. So konnte nur eine Korrelation zwischen Nähe zum Kraftwerk und einer erhöhten Krebswahrscheinlichkeit gefunden werden – aber keine erhöhte Strahlung und keine andere Erklärung für die Krebsfälle.
Doch wie erklärt man sie sich dann?
Zunächst zur Entstehung von Leukämien, denn das ist die größte und auffälligste Gruppe in der Studie, speziell die akute lymphatische Leukämie (ALL). Sie ist die häufigste Leukämieerkrankung und trifft vor allem kleinere Kinder. Eine ALL-Erkrankung führt dazu, dass keine reifen weißen Blutkörperchen produziert werden, sondern funktionsuntüchtige Vorstufen. Diese überschwemmen das Rückenmark und verhindern dort die normale Blutbildung. Folgen sind u.a. Schwäche, Blutmangel, spontane Blutungen und Anfälligkeit gegen Infektionen. Die Krankheit führt unbehandelt innerhalb von Wochen oder Monaten zum Tod. Zum Glück kann man sie inzwischen mit verschiedenen Methoden oft heilen, die Überlebenswahrscheinlichkeit bei Kindern liegt bei etwa 80%.
Die Erkrankungsursache, also warum die lymphatischen Zellen (=weiße Blutkörperchen) mutieren ist noch nicht genau bekannt, vermutet werden in erster Linie ionisierende Strahlung (Radioaktivität), Umweltgifte, aber auch Retroviren, die das Genom der Zellen durcheinander bringen. Letzteres ist bisher nicht bestätigt worden, außer bei einem speziellen Virus, der aber in Deutschland nicht auftritt. Einen angeborenen Fehler im Genom schließt man aus. So war der Zusammenhang zwischen Nähe zum Kraftwerk und der Häufigkeit für eine ALL besonders deutlich, im Vergleich zu anderen Krebserkrankungen.
Für die Studie wurden die verschiedensten Daten über die Kinder und deren Eltern erhoben. Krankheiten, soziale Schicht, bekannte Strahlenexposition, bzw. waren die Eltern im Kernkraftwerk beschäftigt, Stillen, Schimmelpilze etc. – verschiedene in der Literatur besprochene Faktoren wurden ausgewertet. Für keinen dieser Faktoren (“Confounder”) konnte eine Erklärung für die auffällig vielen Krebserkrankungen gefunden werden.
Was könnte es dann sein? Hintergrund der Studie war ja gerade die vermeintlich geringe Strahlung der Kernkraftwerke durch die Entfernung zum Kraftwerk einzurechnen: Je näher, desto stärker die Strahlung.
Tatsächlich gelangt durch das Kühlwasser eine kleine Menge radioaktiver Stoffe in die Umwelt. Da diese Emission sehr gering ist (außer bei Störfällen) vermuten die Autoren der Studie andere unbekannte Faktoren bzw. eine Scheinkorrelation. Atomkraftgegner bestehen allerdings darauf, dass auch geringe Strahlung gefährlich ist, dabei gibt es unterschiedliche Ansichten über erlaubte Grenzwerte.
Nach Ansicht der Atomkraftgegner werden von Kernkraftwerken “künstliche” Stoffe, die die Natur so nicht kennt, an die Umwelt abgegeben. Diese werden zum Beispiel in den Knochen und Muskeln eingebaut. So wird Strontium statt Kalzium verbaut (gerade bei Kindern, die noch im Wachstum sind) und kann dann von innen strahlen und z.B. eine Leukämie auslösen. Tritium würde sogar direkt im Genom als Wasserersatz verbaut.
Ob das vom Kraftwerk abgegebene Strontium & Co. dafür ausreichend ist, ist aber noch nicht geklärt.
In der Studie wurde das Thema mit einem kurzen Satz abgehandelt – die Messung der Kraftwerksemissionen war nicht möglich. Die Physiker unter den Lesern können vielleicht weiterhelfen: Liegen die normalen Emissionen der Kraftwerke unterhalb der Nachweisgrenze?
Interessant finde ich außerdem die Frage, ob die Kinder nicht doch einer höheren Strahlung ausgesetzt waren, z.B. durch einen Störfall, das konnte man in dieser Studie aber nicht untersuchen. Oder ob die Umwelt belastet wurde und das Wasser oder die Pflanzen und Tiere stärker radioaktiv belastet sind, wurde hier nicht überprüft. Nochmal die Frage an die Leser: Vielleicht gibt es Studien, die einen negativen Befund zeigen? Würde man gering erhöhte Radioaktivitätswerte durch einen Störfall mehrere Jahre später nicht mehr nachweisen können, da es von Pflanzen und Tieren aufgenommen wurde?
Das oft diskutierte Kraftwerk Krümmel stellt dabei einen auffällig großen Teil der Krebsfälle in der Studie. Vermutet werden hier auch Umweltgifte, was nicht bestätigt werden konnte, sowie ein Störfall in der Vergangenheit, der aber abgestritten wird.
Wer möchte, kann sich selbst die unterschiedlichen Ansichten der Atomgegner und Befürworter antun. Der NDR hat dazu auch eine Dokumentation gesendet.
Praktisch unstrittig sind allerdings Krebserkrankungen, die bekanntermaßen durch Störfälle ausgelöst worden sind. Tschernobyl ist natürlich das größte und bekannteste. Aber auch viele andere Kernkraftwerke hatten mit austretender Radioaktivität zu kämpfen. Zuletzt gelangte in Frankreich eine große Menge radioaktiver Flüssigkeit in die Flüsse und Seen der Umgebung.
Weiterhin ist die Lagerung von radioaktivem Müll, die ja für einen Zeitraum von zehntausenden von Jahren sichergestellt werden muss, bisher noch völlig unklar. Denn sieht man mal kurz 10.000 Jahre zurück – wieviele Kriege, kulturelle Entwicklung und Verfall, wie viele Völker, die auswanderten oder vernichtet wurden – es ist schwer soetwas gesellschaftlich sicherzustellen.
Dazu natürlich noch das geologische Problem: welche Gesteinsschichten sind dermassen stabil, dass kein Wasser in die Hohlräume kommt und dort niemals Bewegungen des Gesteins auftreten? Zwar gibt es neue Ideen, wie die Lagerung gestaltet werden könnte, aber noch keine Tests, geschweige denn langfristige Versuche.
Zumal wir ja nicht wirklich ein Problem mit zuwenig Strom haben. Es wird ja auch weiterhin erwartet, dass der Anteil der alternativen Energien weiter zunimmt – durch Ausbau und Verbesserung der Technik.
Aber zurück zur Studie: Was sagt uns das nun? Nun ja. Trotz erhöhter Krebsgefahr ist es immernoch ziemlich unwahrscheinlich, Krebs zu kriegen, auch in der Nähe von Kernkraftwerken. Wir sind weit davon entfernt, dass jedes zehnte Kind eine Leukämie bekommt. Und wenn man dieses Risiko vertretbar findet, dann kann man sich ja in der Nähe eines Kernkraftwerks niederlassen (vorzugsweise westlich, also entgegen der meist vorherrschenden Windrichtung ;-)). Ich persönlich halte die anderen Argumente, die gegen Kernernergie sprechen, für wesentlicher.
Nimmt lieber Ökostrom:
Andrea Thum
Diesmal geht es um etwas wichtiges, wenn man viele Tests macht. Oder wenn man ein Paper liest, in dem viele Test gemacht wurden. Denn wenn man nicht aufpaßt, ist die Aussage wertlos.
Im Beitrag über den T-Test wurde erwähnt, dass man seiner Statistik eine Fehlerwahrscheinlichkeit zugestehen muss, bei uns lag sie bei alpha=5%. Das bedeutet, dass mit einer Wahrscheinlichkeit von 5% unser Test positiv ausfällt, obwohl es doch nur Zufall war. Klingt ziemlich unwahrscheinlich. Und oft wird sogar mit 1% gearbeitet. Das heisst aber auch, dass wenn man in seinem Leben 100 Statistiken gemacht hat, bis zu fünf (bzw. einer) falsch-positiv waren. Gerade, wenn man viele Daten verarbeitet, kommt man schnell in einen Bereich, wo das relevant ist.
Haben wir als Aufgabenstellung… mhm, tja, ach, nehmen wir halt wieder Erbsen. Also, wir wollen herausfinden, welche Erbsensorte von zwei zu untersuchenden größere Erbsen hat, süßer ist, vitaminreicher und vielleicht noch robuster. Das ergäbe 4 Tests (T-Tests) mit jeweils einer Wahrscheinlichkeit von 5%, dass einer der Tests falsch-positiv ist, macht zusammen 1 – 0.95^4 = 18.5% Fehlerwahrscheinlichkeit. Damit lockt man niemanden hinter dem Ofen hervor. Man kann das in einer Veröffentlichung dann einfach nicht erwähnen, geht aber das Risiko ein, dass es jemand merkt – oder dass das Ergebnis tatsächlich Zufall war, auch wenn’s gar nicht so aussah.
Was tun?
Das fragte sich schon vor fast 100 Jahren Carlo Emilio Bonferroni aus Italien und empfahl, die sogenannte Alpha-Kummulierung dadurch zu behandeln, indem man ein entsprechend niedrigeres alpha verwendet, als das, was für den Einzeltest gegolten hätte, nämlich alpha/(Anzahl der Tests).
In unserem Fall würden wir also statt auf alpha=5% zu prüfen und bei einer Signifikanz von 4,9 Hurra zu schreien, alle Tests mit alpha=5/4=1.25% durchführen. Das Ganze nennt man die Bonferroni-Korrektur. Damit ist man auf der sicheren Seite, Herr Bonferroni hat nachgewiesen, dass man damit mindestens so sicher sein kann, wie beim Einzeltest.
Leider würden uns so viele Erkenntnisse verwehrt bleiben, da ja die Erbsen vielleicht wirklich süßer waren, aber durch den strengen Test können wir das nicht mit Sicherheit behaupten, wir haben also ein falsch-negatives Ergebnis.
Herr Sture Holm änderte das Verfahren ab und entwickelte die Bonferroni-Holm-Prozedur, sodass mehr Hypothesen eine Chance bekommen abgelehnt zu werden (= dass man mehr Unterschiede zwischen den Sorten findet). Dabei gilt nicht ein alpha für alle Tests, sondern sie werden angepasst. (Für die Details verweise ich auf Wikipedia, sonst wär’s redundant.)
Kommt man allerdings in den Bereich, wo man tausende und zehntausende Tests machen muss, ist auch diese Methode zu streng (=”konservativ”). Ich kenne das von Microarrays, wo man Unterschiede in der Expression von Genen feststellen möchte und Gene gibt es ja ziemlich viele!
Hier ist man dazu übergegangen, nicht die falsch-positiven Ergebnisse zu kontrollieren, sondern ihr Ausmaß zu kennen. Man gibt sich eine FDR(=false discovery rate) vor, so dass man weiß, wieviele der Tests vermutlich falsch-positiv sind – man weiß nur nicht, welche. Alle positiven Ergebnisse, die man so erhält, versucht man dann biologisch zu begründen und was vielversprechend aussieht, muss mit einer neuen Studie untersucht werden.
Stellt viele Fragen und kriegt auch manchmal keine Antwort:
Andrea Thum
In diesem Zusammenhang arbeitet man oft mit dem T-Test. Weil es immer schön einsichtig ist, nehmen wir ein Beispiel, sagen wir die Größe von Erbsen der einen und der anderen Sorte. Zunächst werden alle ausgemessen und in zwei Listen aufgeteilt.
Bevor wir richtig loslegen, müssen wir kurz überlegen oder in den Daten mal genau nachschauen, ob die Größe der Erbsen einer Sorte jeweils normalverteilt sind. Das heisst, es gibt viele die ungefähr Größe M haben und ziemlich wenige, die viel größer oder viel kleiner als M sind. Die Normalverteilung (=Gaußkurve) ist sicher bekannt, man sieht sie auch oben im Blog-Banner links. So eine Verteilung entsteht, wenn man seine Erbsen (für beide Sorten getrennt) sortieren würde, wie ich es hier gemacht habe: die kleinen links, die großen rechts, in gleich großen Intervallen (bei mir im Beispiel allerdings mehr pi-mal-Daum). Meine Erbsen sind also netterweise tatsächlich ungefähr normalverteilt.
Was ist, wenn die Daten nicht normalverteilt sind? Dann sieht es schlecht aus mit dem T-Test, dann hat der so, wie er berechnet wird, keine ordentliche Aussagekraft. Zum Glück gibt es aber andere Tests, bei denen so eine Voraussetzung nicht erfüllt sein muss, z.B. den U-Test.
Nachdem das geklärt ist, guckt man als erstes auf den Mittelwert: Sind beide Sorten im Mittel unterschiedlich? Das ist schonmal sehr wahrscheinlich, es wird kaum passieren, dass beide Werte exakt gleich sind. Aber sind sie unterschiedlich genug?
Jetzt kommt die Varianz mit ins Spiel. Meine Erbsen sind alle ähnlich groß, die Werte liegen zwischen 5mm und 7mm im Durchmesser. Die Varianz ist jetzt die Abweichung vom Mittelwert(6mm) (MW-xi) zum Quadrat(es werden also die, die weiter vom Mittelwert entfernt sind stärker berücksichtigt, als die in der Nähe), aufsummiert über alle Erbsen und dann geteilt durch n-1. Davon die Wurzel ist die Standardabweichung:
Wer jetzt den letzten Satz einfach übersprungen hat, der möge ihn bitte nochmal lesen, man kann Formeln auch verstehen, nicht nur sie verwenden!
Hätte ich also Erbsen mit größerer Varianz (also auch Standardabweichung) in ihrer Verteilung, dann wären auch welche mit 8mm und 4mm dabei und dafür wäre die Spitze bei den mittleren Werten nicht so hoch, weil es sich ja mehr an den Seiten verteilt. Bei weniger Varianz hätte ich vielleicht nur Erbsen bis 6,5mm und 5,5mm und die Mitte der Gaußkurve wäre höher.
(Quelle: Wikipedia; rot und grün mit höherer Varianz, als blau; grün und blau haben den gleichen Mittelwert)
Nun kann man sich vorstellen: Wenn für beide Erbsensorten die Varianz klein und die Gaußkurve entsprechend schmal und hoch ist, dann wäre ein kleiner Unterschied im Mittelwert (also der Spitzen) von vielleicht 1mm schon aussagekräftig. Dann würden die Flächen der beiden Verteilungen sich nur wenig überschneiden. Wären die Varianzen groß, müssen die Mittelwerte schon deutlich auseinanderliegen, damit man einen echten Unterschied hat, also die Schnittfläche der Verteilungen gering genug ist. Im obigen Beispiel ist die Schnittfläche zwischen roter und grüner Verteilung ziemlich groß!
Jetzt muss man noch berücksichtigen, wie exakt unsere Zahlen sind. Hat man wenig Erbsen gezählt, kann es sein, dass wir uns ziemlich verschätzen beim Mittelwert und der Streuung. Je mehr Erbsen, umso sicherer können wir sein (die Mühe habe ich mir jetzt mal nicht gemacht, das war schon fummelig genug!).
Wenn wir zwei Verteilungen betrachten, müssen wir noch die gewichtete Varianz bestimmt. Da fließen die Varianzen der beiden Stichproben ein, gewichtet mit der Stichprobengröße – die größere Stichprobe hat mehr Einfluß.
Jetzt berechnet der T-Test wie weit die Mittelwerte der beiden Gruppen, x und y, voneinander verschieden sind, normiert durch die gewichtete Varianz (bei großer Varianz weniger aussagekräftig, als bei kleiner) und das wird noch multipliziert mit einem Faktor, der die Anzahl der Erbsen und somit die Verlässlichkeit der Stichprobe berücksichtigt:
(Für die, die auf Genauigkeit pochen: Da es hier mit den Formeln nicht so einfach ist, bzw. ich weiss noch nicht, wie ich die gut setzen kann: x mit Querstrich bedeutet Mittelwert der Stichprobe X, in der Formel steht es richtig, im Text krieg ich keinen Strich draufgezaubert, deswegen steht da nur ein x, es soll aber das gleich heissen.)
Wir haben unser t!
Äh, t?
Das t sagt uns, wie signifikant der Unterschied ist. t kann sowohl negativ als auch positiv sein – negativ bedeutet, dass der Mittelwert x kleiner als Mittelwert y unseres Versuchs war; positiv entsprechend anders herum.
Jetzt müssen wir noch festlegen, wieviel Fehlerraum wir unseren Daten zugestehen wollen. Sagen wir, dass mit einer Wahrscheinlichkeit von 5% es Zufall sein könnte, dass die Erbsen alle zufällig in Gruppe x kleiner als in Gruppe y wären. Diese Fehlerprozente (“alpha”) sollten möglichst klein sein, um solche Fehler ziemlich unmöglich zu machen – ausschließen kann man sie aber nie. Die Wahrscheinlichkeit 100-alpha, also hier 95%, ist die Konfidenz, die Sicherheit, dass man richtig liegt.
Mit den Werten t und der Größe der Stichprobe (hier die Anzahl der Erbsen) geht man in einer Tabelle nachgucken, heutzutage fragt man wahrscheinlich das Statistikprogramm, wie groß der Fehler durch Zufall sein dürfte. Ist er kleiner als alpha, sieht es gut aus und man kann das Ergebnis schön publizieren. Ist er es nicht, weiss man nichts. Man könnte neue Tests machen oder sich andere Erbsen züchten. Angeblich sind auch Negativergebnisse nützliche Ergebnisse, erfahrungsgemäß sieht es mit dem publizieren dann aber nicht so doll aus.
So, fragt jetzt noch einer, was man da jetzt im Statistikprogramm oder der Tabelle nachgeguckt hat, dann sollte ich auch diese Frage wohl beantworten.
Das t entstammt einer t-Verteilung mit den Freiheitsgraden n(=Anzahl Erbsen)-1, die sieht ungefähr wie eine Normalverteilung aus, bei größeren n zunehmend schmaler (und höher) mit Mittelwert 0.
Was bedeutet das?
Das bedeutet, dass wenn man sehr viele Tests mit irgendwelchen Daten machte, von denen man wüsste, dass es keine Unterschiede in den Mittelwerten gibt, dann würden die berechneten t-Werte vorrangig in der Nähe von 0 zu finden sein – die Differenz der Mittelwerte ist halt ungefähr null. Selten kann es passieren, dass doch, zufällig, eine größere Differenz ermittelt wird und somit ein größerer t-Wert. Je mehr Daten man hat (größeres n), umso unwahrscheinlicher wird das aber, deswegen sind diese Verteilungen mit hohem Freiheitsgrad schmaler.
Das Statistik-Programm verrät uns also den Flächeninhalt der t-Verteilung ab der Stelle t bis unendlich – das entspricht der Wahrscheinlichkeit, dass wir zwar eine Differenz messen, es aber nur auf Zufall beruht. Sowas nennt man auch ein falsch-positives Ergebnis. Und diese Fehlerwahrscheinlichkeit sollte nach unserer Vorgabe unter dem Wert alpha=5% (5% der Fläche) liegen.
Genug der Erbsenzählerei!
Andrea Thum
“Wir werden auf natürlichem Wege durchschnittlich dümmer.”
“Die Türken erobern Deutschland genauso, wie die Kosovaren das Kosovo erobert haben: durch eine höhere Geburtenrate”
“Es gibt eine unterschiedliche Vermehrung von Bevölkerungsgruppen mit unterschiedlicher Intelligenz.”
“Generell kein Zuzug mehr außer für Hochqualifizierte und perspektivisch keine Transferleistungen mehr für Einwanderer.”
(Thilo Sarrazin)
Haben wir also ein Problem mit nicht integrierten dummen, überhand nehmenden Türken und Arabern?
Aber ja! Studien zeigen, (Ich verlinke hier die Seite von Volkmar Weiss, der die Studie gemacht hat. Sie wurde in den Medien viel zitiert, ich weise aber darauf hin, dass dem Mann von vielen Seiten Rechtsradikalismus vorgeworfen wird und ich entsprechend andere Schlüsse ziehe, als er) dass die Einwanderer der zweiten Generation tatsächlich einen deutlich niedrigeren IQ von 84 hat, statt 100, wie der Rest der Bevölkerung. Sie zeigen auch, dass z.B. Türken schlechter integriert sind als alle anderen Einwanderergruppen. Diese haben besonders oft niedrige oder gar keine Schulabschlüsse. Und: Immigranten kriegen im Schnitt wirklich mehr Kinder, als der Durchschnittsdeutsche.
Alles wahr.
Ja, und warum schreibe ich dann hier? Warum schimpfe ich über Thilo Sarrazin und andere unterstelle ihm rechtsextremes Gedankengut? Hole die Nazikeule raus?
Weil es oberflächlich ist. Weil er an keiner Stelle nach dem “Warum” gefragt hat und somit unterstellt: Sie hätten einen angeboren niedrigeren IQ, wollen nur die Solidargemeinschaft ausnutzen und werden über kurz oder lang einfach durch ihre große Anzahl, ich weiss nicht genau, wahrscheinlich die gesamte Wirtschaft ruinieren oder gar bei den Wahlen eine türkische Partei aufstellen.
Also frage ich nach dem Warum und dem Hintergrund.
Ich glaube nicht, dass sich jemand findet, der hier “ja” sagt (außer NPD-Anhänger und der oben zitierte Herr Weiss). Aber wie erklärt man das schlechte Abschneiden der Immigranten bei PISA und IQ-Tests?
Vorwiegend ab den Sechzigern kamen viele Arbeiter aus den Mittelmeerstaaten: Italien, Türkei, Jugoslawien und anderen Ländern nach Deutschland. Integration war damals überhaupt kein Thema. Also siedelten sich viele Immigranten da an, wo es bereits andere gab. Kann man jemandem vorwerfen, dass er, wenn er in ein fremdes Land kommt, sich an seine Bekannte, Verwandte und Leute der gleichen Religion oder der gleichen Nation hält?
So bildeten sich teilweise Parallelgesellschaften in den muslimischen Gruppen, da diese sich schlecht mit dem westlichen Lebensstil anfreunden konnten und lieber ihre eigene Kultur pflegten.
Es hätte politisch etwas getan werden müssen. Vielleicht verpflichtende Deutschkurse. Arbeitsangebote nachdem die Boomphase vorbei war. Keine Ghettobildung. Kostenlose Kindergartenjahre. Aber geschehen ist nicht viel.
Das ist eine mögliche Ursache, dass diese Einwanderer schlecht deutsch sprechen – und ihre Kinder ebenso. Das führt dazu dass diese Kinder in der Schule ins Hintertreffen geraten und irgendwann resignieren, bis hin zur Verweigerung. Bekanntestes Beispiel ist die Rütli-Schule. Entsprechend schlecht schneiden sie bei IQ- und PISA-Tests ab. Nicht, weil sie etwa wirklich dümmer sind, sondern weil sie die Sprache nicht beherrschen und ihnen das notwendige Schulwissen fehlt. (Und am Rande: Es gibt ja auch viele Türken mit Hochschulabschluss, was gegen einen angeboren niedrigen IQ spricht.)
Dazu zwei Aspekte.
Einerseits braucht man keine Angst vor einem wachsenden türkischen Bevölkerungsanteil zu haben, welcher den Bevölkerungsschwund in Deutschland ausgleicht. Schließlich gab es schon öfter Einwanderungswellen in den letzten Jahrhunderten und die Kulturen vermischten sich.
Andererseits kann man davon ausgehen, dass mit zunehmender Verwestlichung, und damit meine ich vor allem das Selbstbestimmungsrecht der Frau (dazu habe ich im anderen Beitrag schon was geschrieben) die Anzahl der Kinder zurückgehen wird. In die Richtung geht auch die im vorherigen Beitrag erwähnte Dissertation. Ob und in wieweit muslimische Frauen sich dem westlichen Lebensstil anpassen werden, hängt natürlich auch von der zukünftigen Integrationspolitik ab.
Ein weiterer, häufig geäußerter Gedanke ist, dass die Zuwanderung von Menschen mit niedrigem IQ (wie es bei Einwanderern auf Grund schlechter Bildung verbreitet ist) besonders, sagen wir mal, “ungünstig” sei.
Der Nutzen eines Individuums ist schwer in Zahlen zu fassen. Ein volkswirtschaftlicher Zugang ist vielleicht dieser. Demnach sind Banker ziemlich unnütz und weisen sogar ein negatives ROI(return-on-investment) auf. ErzieherInnen hingegen sind sehr wertvoll, da sie den Eltern erlauben zu arbeiten. Auch der Wert von Putzfrauen wird allgemeinhin unterschätzt. Dadurch, dass der Wissenschaftler nicht selbst putzen muss, hat er nämlich Zeit zum Forschen gewonnen – das Prinzip der Arbeitsteilung.
Und schließlich: Irgendjemand muss das Getreide anbauen, das Brot backen, die Autos zusammenschrauben oder Kranke pflegen.
Gewiss ist die Arbeitslosigkeit unter Nichtakademikern höher. Aber auch hier muss beachtet werden, dass das deutsche Schulsystem viele Kinder vom Abitur abhält (PISA-Ergebnis!), sowie finanzielle Gründe viele Abiturienten nicht studieren lassen. Das ist auch der Politik bekannt. Doch anstatt das BAföG zu erhöhen werden Förderprogramme aufgelegt die vorzugsweise denen unter die Arme greifen, die es nicht nötig haben.
Es gibt also noch genügend Jugendliche, die eine bessere Ausbildung bekommen könnten, das Potential ist vorhanden. Der naheliegende Schluß lautet scheinbar, dass es politisch nicht gewollt ist diesen Anteil zu erhöhen.
Abgesehen davon gibt es tatsächlich allerhand Arbeit, auch für Nichtstudierte – es will (Wirtschaft) und kann (Staat) nur keiner bezahlen, und dann nennt man es Ehrenamt.
Aber im Ernst: Allein im sozialen Bereich gäbe es wirklich allerhand zu tun, in der Pflege oder Kinderbetreuung fehlen viele Arbeitskräfte.
Es ist nicht schwer, Rechtsradikalismus zu erkennen, wenn er sehr offensichtlich ist und wenn pauschal gegen Ausländer gelästert wird. Leider gibt es mittlerweile auch konsensfähigen Rechtsradikalismus, der scheinbar harmlos daher kommt.
Die Angst vor Überfremdung, die Mißbilligung hoher Geburtenraten bei “unerwünschten” Bevölkerungsanteilen, die Unterteilung in “minderwertige” und “höherwertige” Menschen oder die Behauptung, bestimmte Gruppen wären durch Gene zu “niedrigerer Leistung” vorherbestimmt. Das alles waren zentrale Punkte der im Dritten Reich verbreiteten Ideologie.
Sarrazin & Co. stacheln bewusst auf. Sie verstärken mit ihren Äußerungen gezielt Vorbehalte und Vorurteile gegenüber Ausländern oder auch Arbeitslosen. Sie erwähnen absichtlich nicht die (sozialen) Hintergründe, die zu der derzeitigen Situation geführt haben. (Wer jetzt meint, das wäre alles keine Absicht gewesen, der möge erklären, warum dann Leute, die nicht in der Lage sind, ein bisschen nachzudenken, solche Posten kriegen und sich als Elite ansehen dürfen).
Für die, die sich detailliert mit dem Thema auseinandersetzen wollen, empfehle ich eine Studie vom Berlin-Institut für Bevölkerung und Entwicklung.
Glaubt, dass jeder Mensch wertvoll ist,
Andrea Thum
So behauptete Herr Sarrazin u.a.:
“Die Türken erobern Deutschland genauso, wie die Kosovaren das Kosovo erobert haben: durch eine höhere Geburtenrate” … “Man muss davon ausgehen, dass menschliche Begabung zu einem Teil sozial bedingt ist, zu einem anderen Teil jedoch erblich. Der Weg, den wir gehen, führt dazu, dass der Anteil der intelligenten Leistungsträger aus demographischen Gründen kontinuierlich fällt.”
Das ist reinstes Nazisprech von 1933 – ich habe ein “Lebenskunde”-Lehrbuch von damals, da steht das genauso drin:
Diese Geschichte ist also hinreichend bekannt.
Weitere bekannte Namen, die sich hinter diese These stellen, sind Gunnar Heinsohn, Peter Sloterdijk (“Wissenschaftler”), sowie Broder (Spiegel) und Henkel (in jeder zweiten Talkshow zu finden).
Zum Glück gibt es ein bisschen was Handfestes (und nicht nur wilde Behauptungen) durch eine Studie, von der im Spiegel Online berichtet wird. Demnach gleicht sich die Geburtenrate der Migranten in zweiter Generation an die deutsche an, womit der erste Teil der Behauptung widerlegt wird.
Was den zweiten Teil angeht (und das Bild aus dem Buch):
Tja, wenn es so wäre, dann hätten wir ja schon längst den Zustand erreicht, dass wir aus fast nur “minderwertiger” Bevölkerung bestehen. Das ist nicht passiert. Warum? Weil das mit den Genen und der Vererbung von Intelligenz wohl nicht so einfach ist, wie es sich die Herren vorstellen.
Und für alle, die sich die Frage stellen, warum Frauen im Westen (und welche, die in den Westen gezogen sind) weniger Kinder kriegen, als in Entwicklungsländern: Weil sie nicht so viele Kinder haben wollen, die Pille nehmen und über ihr Leben eher selbst bestimmen können. Der Autor des Artikels hatte nämlich nur Männer gefragt – die fanden viele Kinder toll (sofern sie sie durchfüttern konnten). Die Frauen, die die ganze Arbeit mit Haushalt und Rasselbande haben und dafür kaum Selbstbestimmungsrecht, hat er leider nicht gefragt.
SEHR schöne Darstellung zur Entwicklung der Geburtenrate hier.
Ist erschrocken über die Wiederkehr des braunen Drecks:
Andrea Thum
Unzählige! Hochschulranking, PISA, Exportweltmeister, Konsumklimaindex, Standortranking, Stiftung-Warentest-Sieger, Pflegeheim-Ranking, um mal ein paar Beispiele zu nennen.
Ist ja auch nett übersichtlich: Wenn man gewinnt, ist man gut, wenn man verliert, dann hat man seine Hausaufgaben nicht ordentlich gemacht und Mittelfeld ist halt “naja”.
Bei jedem Ranking werden viele Werte zu einem zusammengefasst. Dabei kann viel Information verlorengehen und das Ergebnis manipuliert werden.
Aber wie werden solche Rankings gemacht? Wie entstehen die Werte, die dann so schön sortiert werden können?
Ein Beispiel
Angenommen, ich mache – was ganz banales – ein kleines Ranking über gesunde Nahrungsmittel. Bei Schokolade vs. Paprika ist doch der Gewinner eindeutig.
Also wähle ich ein paar meiner Meinung nach geeigneter Kennzahlen aus, die den Gesundheitswert des Nahrungsmittels gut repräsentieren. Viele Vitamine ist gut, viel Zucker und Fett schlecht. Salz und Cholesterin sind auch schlecht.
Jetzt muss ich die einzelnen Werte wichten, das heisst, ich kann ihnen unterschiedliche Stellenwerte geben, ihre Wichtigkeit bestimmen. So enthält Schokolade zwar auch viele Vitamine und Mineralstoffe, aber besonders viel Fett und Zucker. Ich muss also an den Stellschrauben drehen, bis der richtige Wert herauskommt. Das macht man, indem jede Kennzahl einen Faktor dazumultipliziert bekommt. Großer Faktor: großer Einfluss, kleiner Faktor: kleiner Einfluss und Fett und Zucker würde man ausserdem negativ einfließen lassen.
Und wer jetzt aufmerksam mitgedacht hat, merkt: Vorsicht! Genau hier liegt die Gefahr zur Manipulation. Das heißt eigentlich schon vorher, wo ich mir die geeigneten Kennzahlen ausgesucht habe. Hier kann ich vieles ignorieren, was mir nicht in den Kram passt, oder mit einbeziehen, was andere vielleicht für überflüssig halten würden. Und beim Drehen an den Gewichten, den Stellschrauben, kann ich jetzt wirklich beliebige Ergebniswerte zaubern.
Wichtig für einen anständigen Wissenschaftler ist, dass man diese Einstellungen im Vorfeld macht und sie begründen kann. Aber nachweisen lässt es sich schlecht, wenn jemand sich nicht an dieses Gebot gehalten hat.
Bekannte Rankings
Gucken wir uns also mal ein paar der oben aufgezählten Beispiele an.
Bei jedem Ranking muss man genau gucken, wer es durchgeführt hat. So steht hinter dem CHE, das u.a. das Hochschulranking macht, die inzwischen von vielen Seiten kritisierten Bertelsmann Stiftung, die sich für eine neoliberale Politik (z.B. Privatisierungen, Eliteförderung) einsetzt.
Ich denke sowieso, dass es bei vielen Rankings darum geht, etwas als Wettbewerb zu verkaufen, was eigentlich völlig unterfinanziert ist. Die Wahrheit ist, dass auch wenn sich alle bis zur Selbstaufgabe anstrengen, trotzdem jemand hinten runter fallen wird.
Und natürlich, aber das ist jetzt fast zu offensichtlich, um es nochmal zu betonen: Man versucht das, was man für richtig hält, so zu verkaufen, dass die anderen es glauben.
Findet Schokolade auch sehr gesund:
Andrea Thum
Auf dieselbe Art “wirken” Wundermittel, heiliges Wasser oder Vitamine von Dr. Rath (ich weiss jetzt gar nicht, ob ich das verlinken sollte! – Dr Rath Research): Es werden all die Menschen, die nicht gesund geworden sind, nicht erwähnt, sondern ausschließlich die wenigen, die gesund geworden sind.
Es gibt wohl, wenn auch extrem selten, Spontanheilungen bei Krebs – einer von diesen Glücklichen hat vorher bei Herrn Rath vorbeigeschaut, der dann die Heilung allein seinen Vitaminen oder Medikamenten zuschreiben kann.
Mit diesen Fällen wird dann Werbung gemacht; all die Menschen, die gestorben sind, werden nicht weiter erwähnt, im Gegensatz zu einer ordentlichen Studie.
Doch auch ach so kluge Menschen, wie wir Wissenschaftler, sind nicht vor selektiver Wahrnehmung gefeit. Insbesondere was sogenannte Verschwörungstheorien angeht – und das gilt für beide Seiten. So interpretieren Verschwörungstheoretiker alles in ihrem Sinne und blenden Beobachtungen, die ihre Meinung widerlegen würden, aus. Und die ordentlichen Wissenschaftler halten das alles für Unfug und machen sich keine Gedanken, ob was daran stimmen könnte, weil es eben nicht in ihr Weltbild passen würde.
Die AIDS-Geschichte ist so eine. Ich habe keine Ahnung, wer Recht hat! Es verblüfft mich jedoch, wieviele Wissenschaftler die allgemein bekannten AIDS-HIV-Theorien ablehnen. Ich würde mir da nicht so einen Zweifronten-Krieg, sondern eine ordentliche Diskussion wünschen. Die gibt es auch deswegen nicht, weil die, sagen wir mal “anerkannten Wissenschaftler” es nicht für nötig halten, die Argumente der Gegenseite zu entkräften.
Und ein bisschen selektive Wahrnehmung findet man auch bei der Angst einer Bekannten, die, nachdem ein Freund tatsächlich mit einem Flugzeug abgestürzt ist, kein Flugzeug mehr betreten mag, auch wenn Autofahren (und das tut sie ganz viel) bekanntlich viel gefährlicher ist. Aber Ängste sind sowieso irrational, da sollte man nicht drüber lächeln, ich habe Angst vor der Dunkelheit, obwohl mir noch nie was im Dunkeln passiert ist, keine Monster und Werwölfe, nichts! Ich schiebe es auf die Gene: Forscher entdecken Angst-Gen.
Klopft nie auf Holz, wünscht sich aber immer was beim Wimpern-Wegpusten:
Andrea Thum
Nachtrag: Nach all der auf diesen Beitrag folgenden Diskussion nehme ich das pauschale: “Die gibt es auch deswegen nicht, weil die, sagen wir mal “anerkannten Wissenschaftler” es nicht für nötig halten, die Argumente der Gegenseite zu entkräften.” zurück. Es gibt durchaus Wissenschaftler, die sich bemühen und etliche in den Kommentaren aufgezählte Seiten. Meine selektive Wahrnehmung hat mir nur die in Erinnerung belassen, die das nicht tun.
]]>Also ich bin nicht reicher geworden. Und die errechneten 150.000 Euro habe ich schon mal gar nicht. Natürlich bin ich als Einzelfall nicht aussagekräftig, also schauen wir uns alle Deutschen an.
Der Mittelwert ist bekanntlich die Summe über alle Werte, geteilt durch die Anzahl der Werte. Es werden also in diesem Fall alle Vermögen addiert und durch die Anzahl der erwachsenen Personen geteilt. Heraus kommen aktuell 150.000 Euro pro Nase für alle ab 17 Jahren (Quelle: DIW)
Das wäre von der Aussage her in Ordnung, wenn die Verteilung über die Vermögen gleichmässig wäre, also gleich viele Leute reich wie arm wären. So aber verfälscht die geringe Zahl an sehr reichen Leuten den Eindruck.
Was würde uns statt dessen der Median sagen? Er bestimmt, wenn man alle Erwachsenen in einer Reihe aufstellen würde und zwar sortiert nach Vermögen, und dann den, der genau in der Mitte steht, fragt, wieviel Geld er hat. Da kommt ein viel kleinerer Wert heraus. Und Ganz sicher ist dieser Wert in den letzten Jahren nicht so stark gestiegen.
Ich habe nur die Statistik bis 2007 beim DIW gefunden (Seite 57). Da liegt der Mittelwert 2007 bei 88.000 Euro, der Median dagegen bei 15.000 Euro. Und während das durchschnittliche Vermögen im Vergleich zu 2002 um 10% stieg, stieg der Median um 2%. Im Osten Deutschlands sank das Vermögen sogar.
Die Deutschen sind also im Median kaum reicher geworden. Die Inflation rausgerechnet (im Schnitt 1,5% pro Jahr im angegebenen Zeitraum) sogar ärmer! Und was sagt uns das? Tja, das, was wir so schon immer wieder hören: Die Schere zwischen Arm und Reich geht immer mehr auseinander. Und interessanter Weise wird in den Zeitungen und überall sonst immer nur der Mittelwert genannt, der uns wohl sagen soll, dass es uns doch eigentlich immer besser geht und wir mal nicht so rumjammern sollen.
Ist statt reich lieber geist-reich:
Andrea Thum
Bei mir geht es um Statistik in der Praxis. Man wird ja täglich mit Statistiken zugeschüttet: Konjunkturbarometer, Sonntagsfrage, neue Heilmittel gegen Krebs, Alzheimer oder Parkinson und so weiter.
Überall wird mit Statistiken gearbeitet, dazu ein paar Bildchen, um dem Leser die Informationen so darzulegen, wie es der Schreiber gern hätte. Aber oft trügt der schöne Schein und ich möchte ein bisschen helfen, die Informationen zu sortieren und zu deuten.
Freut sich auf neugierige Leser:
Andrea Thum