Die Antwort ist für die meisten – alle? – Wissenschaftler eigentlich klar: Übersinnliche Kräfte Fähigkeiten (Extra-Sensory Powers Perception, kurz ESP) sind mit Wissenschaft unvereinbar. Und doch wird oder soll noch in diesem Jahr ein Paper in einem angesehenen wissenschaftlichen Journal – dem Journal of Personality and Social Psychology – und von einem angesehenen Wissenschaftler, namentlich Daryl J. Bem, emeritierter Professor der Cornell University (der es auf immerhin 1930 Einträge in Google Scholar bringt), veröffentlicht werden, das angeblich gleich neun Labortests schildern wird, mit denen just solche außersinnlichen Phänomene beobachtet wurden. Eine Story über diesen Aufreger in Wissenschaftskreisen kann man hier in der New York Times nachlesen.

Welcher Teufel den redaktionell verantwortlichen Charles Judd geritten hat, das Paper anzunehmen (das manche offenbar sowieso eher für ein Schelmenstück Bems halten), ist nicht erkennbar – schon gar nicht, so lange man über den Inhalt des Artikels nur spekulieren kann. Angeblich geht es darin unter anderem um eine “Zeitumkehr” beim verstärkten Lernen von Begriffen; die Times beschreibt den Test in Bems Worten so:

In his version, Dr. Bem gave 100 college students a memory test before they did the categorizing — and found they were significantly more likely to remember words that they practiced later. “The results show that practicing a set of words after the recall test does, in fact, reach back in time to facilitate the recall of those words,” the paper concludes.

Lernen nach dem Test soll also irgendwie rückwirkend die Resultate des Tests verbessert haben? Sehr kryptisch. Ein weiterer Test betraf die “hellseherische” Vorauswahl erotischer Fotos – klingt ebenfalls so, als ob man da sehr genau die Versuchanordnung, die Daten und die Auswertung studieren müsste. Der Haken ist, dass offenbar keiner der vier reviewenden Peers – alles Spzialpsychologen, also Kollegen des Autors (dessen Stil sie wahrscheinlich erkannten, was sowieso schon gegen die Regeln der Anonymität in der Peer-Review verstoßen würde) – in Statistik besonders bewandert war.

Ich bin kein publizierender Wissenschaftler, sondern bestenfalls ein Wissenschaftspublizist – aber ich weiß, dass ich keine Story verkaufen könnte, ohne wenigstens einen Andeutung zu machen, wie man das Phänomen erklären könnte, das ich beschreibe (in der Wissenschaft nennt man das wohl eine Hypothese). Doch auf die wird man in dem Paper offenbar vergeblich hoffen, wie Judd schon gegenüber der New York Times einräumen musste: Es gebe “keinen Mechanismus, der uns die Resultate verständlich macht”. Da hat jemand vielleicht “übersinnlich” mit “ohne Sinn” verwechselt …

flattr this!

Kommentare (35)

  1. #1 Georg Hoffmann
    6. Januar 2011

    @Juergen
    “”hellseherische” Vorauswahl erotischer Fotos”

    Mach ich aber manchmal.

  2. #2 Bullet
    6. Januar 2011

    DIE Fotos will ich sehen. (Rein aus wissenschaftlichen Zwecken, selbst*hüstel*verständlich.)

  3. #3 JB
    6. Januar 2011

    Und ich hab gedacht, PSI-Forschung wäre schon längst tot … Vielleicht können wir doch noch alle zu Superhelden werden 😉
    P.S. ESP heißt “Extrasensory perception”, zu deutsch “Außersinnliche Wahrnehmung” (ASW).

  4. #4 derari
    6. Januar 2011

    Ein ganz ähnliches Experiment wurde hier durchgeführt, wenn auch aus ganz anderer Motivation:
    https://www.newyorker.com/reporting/2010/12/13/101213fa_fact_lehrer

    he flashed a set of images to a subject and asked him or her to identify each one. Most of the time, the response was negative—the images were displayed too quickly to register. Then Schooler randomly selected half of the images to be shown again. What he wanted to know was whether the images that got a second showing were more likely to have been identified the first time around.

    Schooler says. “I couldn’t believe the amount of precognition we were finding”

    Es würde mich nicht überraschen wenn bei beiden Experimenten dasselbe Phänomen zu den Ergebnissen geführt hat.

  5. #5 enbeh
    6. Januar 2011

    Man kann das Paper auf der Website des Autors runterladen (das Bildmaterial ist leider nicht im Artikel enthalten, aber in Zeiten des High-Speed Internets gibt es dafür ja auch bessere Quellen):
    https://dbem.ws/

    Ich hab’s gerade durchgelesen. Zumindest hatte ich nicht den Eindruck, dass es sich hierbei um einen Scherz handelt, jedenfalls keinen so offensichtlichen wie bei den Arbeiten der großartigen Arina K. Bones:
    https://www.projectimplicit.net/arina/

    Ich muss sagen, ich kann die Kritik des NY Times Artikels nicht ganz nachvollziehen. Dort wird zurecht das bekannte Sagan-Zitat bemüht “extraordinary claims require extraordinary evidence”. Allerdings tut der Artikels m.E. genau das. Bem berichtet eine Serie von 9 unabhängigen Experimenten, was selbst für ein Paper in einem APA Journal eine recht hohe Zahl ist. Zudem wird jedes Experiment mit mehreren alternativen statistischen Tests ausgewertet, um eben den Vorwurf zu vermeiden, Bem hätte sich einfach denjenigen Test rausgesucht, der das gewünschte Ergebnis bringt.

    Außerdem diskutiert er statistische Probleme recht offen. Ich bin vielleicht kein ausgewählter Experte in Inferenz-Statistik, aber auf den ersten und zweiten Blick halte ich seine Statistik für sauber und sogar aufwändiger als in vielen anderen Arbeiten der konventionellen experimentellen Psychologie. Nun ja, ein zweiseitiger t-Test wäre schön gewesen und die Effekte sind numerisch recht klein. Außerdem würde ich keinen manuellen Reaktionszeiten trauen, die mit einer Computer-Tastatur gemessen wurden. Ich sehe allerdings die Bemerkung der NY Times nicht ein, die Gutachter hätten den Artikel wohl nur angenommen, weil sie keine Ahnung von Statistik hätten.

    Die Kritiken von Rouder und Wagenmakers halte ich auch nur für mäßig überzeugend. Die Argumente, die hier gegen Bem vorgebracht werden, sind nun auch nicht gerade Mainstream der Statistik, und die Mehrzahl der Ergebnisse in der experimentellen Psychologie und Cognitive Neuroscience wären demnach auch Unfug. Zumindest müsste man fairerweise anerkennen, das weniger spektakuläre Befunde in unserer Branche wesentlich geringere statistische Hürden zu nehmen haben.

    Eine Hürde, die für Bems Befunde noch aussteht, ist die Replikation durch andere Gruppen. Auch hier ist Bem ja ziemlich offen. Sein Anliegen ist es ja gerade, mit diesen experimentellen Paradigmen, die letztlich Varianten von Standard-Paradigmen der experimentellen Psychologie sind, die PSI Forschung für die Mainstream Forschung schmackhaft zu machen.

    Bems Spekulation darüber, wie dieser PSI Effekt funktionieren könnte, ist in der Tat etwas vage (was wiederum auch nicht soooo ungewöhnlich in unserer Branche ist). Natürlich geht es um Quantenphysik, Entanglement, den Einfluß des Beobachters auf die Messung von Quantenzuständen, etc. Ob das wirklich Sinn macht, kann ich nicht sagen (Physiker vor!), es erscheint mir allerdings ziemlich auf Gemeinplätzen zu beruhen.

    Noch ein Disclaimer: bis heute früh habe ich PSI Forschung für methodisch zweifelhaften Humbug gehalten und ich bin auch jetzt noch nicht absolut überzeugt. Aber das ist immerhin der sauberste Beleg für PSI, den ich bisher gesehen habe.

  6. #6 A.S.
    6. Januar 2011

    Den Aufsatz kann man schon jetzt lesen, man muss nicht auf die Veröffentlichung warten:

    https://dbem.ws/FeelingFuture.pdf

    Selbst bei einer oberflächlichen Lektüre finden sich ein Reihe methodischer Fehler in Aufbau und Auswertung der Experimente:

    1. Die Experimente lassen teilweise mehrere Ergebnisse zu, die auf die Existenz von Präkognitition hindeuten würden. Bem diskutiert hier immer nur diejenigen dieser Ergebnisse, die tatsächlich eingetreten sind, aber nicht die, die nicht eingetreten sind. Aber natürlich müsste er alle Ergebnisse jedes einzelnen Experiments berücksichtigen, und er müsste auch die Signifikanzniveaus anpassen, da er faktisch Mehrfachtests durchführt.

    2. Die Irrtumswahrscheinlichkeiten liegen zwar unter den allgemein akzeptierten Signifikanzniveaus und können damit statistisch als signifikant gelten, sie sind aber selbst ohne eine Korrektur für Mehrfachtests doch deutlich zu hoch, um bei derartig außergewöhnlichen Behauptungen wie der Existenz von Präkognitition die Nullhypothese abzulehnen.

    3. Die statistischen Tests, die Bem verwendet, sind nicht unbedingt geeignet. Er verwendet einseitige t-Tests und Binomialtests, die — vor allem bei seinen extrem großen Zahlen an Versuchspersonen — zu empfindlich sein dürften und die auch nicht mehr dem Stand der Technik entsprechen.

    Außerdem kann man natürlich vermuten, dass insgesamt ein Reporting Bias vorliegt, dass Bem also deutlich mehr als die neun veröffentlichten Studien durchgeführt hat und nur die berichtet, bei denen er ein signifikantes Ergebnis bekommen hat.

    Die hohen Versuchspersonenzahlen sprechen außerdem dafür, dass er möglicherweise solange zusätzliche Personen getestet hat, bis zufällig gerade ein signifikantes Ergebnis in die gewünschte Richtung vorlag.

    Schließlich bearbeitet er seine Daten nach der Erhebung, aber vor der Auswertung, indem er einzelne Datensätze nach besitmmten Kriterien ausschließt. Dies ist zwar allgemein üblich, ist aber generell dazu geeignet sind, signifikante Effekte zu finden, wo keine existieren. Gerade bei einer derartig außergewöhnlichen Behauptung wie der Existenz von Präkognitition sollte man von solchen Post-Hoc-Datenbereinigungen absehen.

    Schließlich wäre es nett, wenn er den Code der verwendeten Computerprogramme offenlegen würde. Die experimentellen Prozeduren selbst klingen zwar so, als ob sie sehr sorgfältig und sauber entworfen worden sind und viele der sonst typischen Fehlerquellen vermeiden, aber wirklich wissen kann man das natürlich erst, wenn man die Materialien auf Herz und Nieren (bzw. auf Byte und Pointer) überprüft hat.

    Warum die Arbeit zur Veröffentlichung angenommen worden ist, ist für mich überhaupt nicht nachvollziehbar. Ich hätte die Arbeit mit einem „revise and resubmit“ zurückgehen lassen und erst dann akzeptiert, wenn alle methodischen Fehler beseitigt worden wären. Da die Experimente sehr einfach und transparent gestaltet sind und da geeignete statistische Verfahren zur Auswertung existieren und weithin bekannt sind, wäre es kein großer Aufwand gewesen, die Fehler auszumerzen. Allerdings kann man vermuten, dass mit den Fehlern auch die beobachteten Effekte verschwunden wären…

  7. #7 A.S.
    6. Januar 2011

    @enbeh:

    Ich habe Ihren Kommentar erst nach meinem gelesen, da ich gerade dabei war, meinen zu schreiben, als Sie Ihren veröffentlicht haben.

    Deshalb noch ein paar Anmerkungen:

    1. Außergewöhnliche Behauptungen erfordern außergewöhnliche Beweise. Genau, und die bekommt man nicht, indem man ein fehlerhaft interpretiertes und ausgewertetes Experiment auf das nächste häuft, sondern indem man (mindestens) ein sauber interpretiertes und ausgewertetes Experiment vorlegt.

    2. Statistik. Bems Statistik ist „sauber“ gerechnet, aber die Verfahren sind ungeeignet. Sie sind auch keineswegs aufwändiger als in einer durchschnittlichen psychologischen Forschungsarbeit. Es stimmt, dass diese Verfahren auch bei weniger spektakulären Funden eigentlich kritischer gesehen werden müssten, aber wie gesagt — außergewöhnliche Behauptungen erfordern eben außergewöhnliche Beweise.

    3. Den NYT-Artikel habe ich nicht gelesen (ich bekomme ihn nicht angezeigt, sondern nur die Aufforderung, mich zu registrieren). Ich habe aber auf Ihren Kommentar hin Rouder und Wagenmakers gegoogelt, und siehe da:

    https://www.ruudwetzels.com/articles/Wagenmakersetal_subm.pdf

    Wagenmakers und seine Kollegen kritisieren vieles, was ich in meinem Kommentar kritisiert habe, und noch mehr (und besser als ich es könnte). Nach der Lektüre von Wagenmakers et al. bleiben von Bems Studie nur noch einige traurige Fetzen übrig.

    4. Die Experimente an sich finde ich nach wie vor transparent und gut entworfen. Wenn man die in meinem vorigen Kommentar genannten Probleme mit den mehreren möglichen positiven Ergebnissen ausräumen und klarere Vorhersagen formulieren und testen würde, wären diese Experimente absolut geeignet, um die Existenz von Präkognition zu belegen. Auch ich warte deshalb gespannt auf methodisch sauberere Replikationen, aber ich mache mir keine Illusionen darüber, was diese Zeigen werden: Präkognition gibt es nicht, wohl aber die Fähigkeit pensionierter Cornell-Professoren, in ihren Daten das zu sehen, was sie sehen wollen (so eine Art „Wunschkognition“).

  8. #8 pippen
    6. Januar 2011

    Hab mich mal an das Paper gewagt und musste irgendwann aufgeben. Aber weiter unten in dem Artikel bin ich dann darauf gestoßen, dass die Autoren einen Physiker zitieren. Dessen Aussage nach einem interdisziplinären Treffen (psi “Forscher” plus Physiker) war, dass es unhaltbar sei zu behaupten, dass es in der Zeit rückwärtsgerichtete Ereignisse nicht geben könne.

    They formally and equally admit time-forward and time-reversed solutions.…Thus, though we began simply desiring to predict the future from the present, we find that the best models do not require—in fact, do not respect—this asymmetry.… [Accordingly,] it seems untenable to assert that time-reverse causation
    (retrocausation) cannot occur, even though it temporarily runs counter to the
    macroscopic arrow of time (Sheehan, (Ed.) (2006). Frontiers of time: Retrocausation—experiment and theory).

    Ja, diese Aussage könnte man bestimmt auch Richard Feynman entlocken, denn der hat ja sogar in seinen Feynman Diagrammen diese Option eingebaut. Ein Positron kann sich dort Rückwärts in der Zeit bewegen.
    Aber ist diese Argumentationskette nicht damit vergleichbar, dass ich behaupe, ich könnte ohne Hilfsmittel fliegen. Dann zitiere ich einen Physiker, der aussagt, dass die Sonne eine enorme Anziehungskraft hat. Und siehe da, es gibt eine Kraft, die mich empor ziehen könnte. Also: Ich kann fliegen.

    Darauf folgt dieser Abschnitt:

    But perhaps the most fundamental reason that precognition and retroactive influence might seem to us to be more anomalous than telepathy or clairvoyance is that we can relate the latter to familiar phenomena. That is, we have many everyday phenomena in which information travels invisibly through space. Thus, even those who are not convinced that telepathy actually exists can still readily imagine possible mechanisms for it, such as electromagnetic signal ransmissions from one brain to another (which, incidentally, is not supported by the results of experiments in telepathy).

    Es heißt hier: Wir kennen viele alltägliche Phänomäne bei denen Informationen unsichbar durch Raum und Zeit sausen. Mir fällt da spontan mein Handy ein. Also könnte es auch denkbar sein, dass Informationen genau so von Gehirn zu Gehirn sausen könnten. Schöne Theorie!

    Und dann folgt dieses:

    Another example is provided by the apparent clairvoyant ability of migratory birds to find their way along unfamiliar terrain even at night. This ceased to be a psi-like anomaly once it was discovered that they are sensitive to the earth’s magnetic field. Recently it has even been shown that the relevant sensory mechanism is located in the birds’ visual systems; in a fairly literal sense, they can “see” the magnetic field (Deutschlander, Phillips, & Borland, 1999).

    Hier geht es um das unsichtbare Erdmagnetfeld. Und die Biologen aus dem zitierten Paper behaupten die Vögel könnten das Magnetfeld “sehen”. Also auch so ein deutlich gezeigter psi Effekt. Aber leider handelt es sich bei diesem “vor kurzem” (1999) erschienenen Paper um eine Beschreibung eines Effektes, der mittlerweile recht genau untersucht worden ist. Die in einigen Ganglienzellen der Retina gefundenen Cryptochrome lassen sich durch das Erdmagnetfeld beinflussen. Und es wurde auch schon eine Hirnregion gefunden, die diese Signale verarbeitet. Henrik Mouritsen von der Uni Oldenburg hat hierzu schon einiges publiziert.

    Ich habe so eine Vorahnung, dass dies nicht der letzte Kommentar über dieses Paper war…

  9. #9 enbeh
    6. Januar 2011

    @ A.S.: Mein Kommentar sollte vor allem dazu dienen, Bems Arbeit etwas in den Kontext einzuordnen, d.h. relativ zu den Standards für vergleichbare, konventionelle Arbeiten in Psychologie-Jounrals. Und in diesem Arbeiten sind m.E. für den Vergleich von zwei Stichproben t-Tests nach wie vor der Standard. Zudem hat Bem zumindest für einige Experimente auch alternative Analysen berechnet, die keine apriori Null-Hypothese erfordern, etwa in Experiment 1. Hier sollten die Beobachter “raten”, ob sich ein Bild hinter dem rechten oder linken “Vorhang” verbirgt. Der Befund war, dass für erotische Bilder die Beobachter etwas besser als mit 50-prozentiger Wahrscheinlichkeit die richtige Seite auswählten. Der t-Test testet jetzt in der Tat, ob eine Wahrscheinlichkeit von 53,1% wirklich besser ist als 50%, d.h. er geht davon aus, dass zufälliges Raten eine Trefferwahrscheinlichkeit von genau 50% erzeugt. Das muss natürlich nicht (exakt) der Fall sein. Eine von Bems Kontrollanalysen bestand darin, den Computer “raten” zu lassen, wo das Bild war. Dieses simulierte Experiment wurde genau so oft wiederholt, wie es echte Beobachter im tatsächlichen Experiment gab. Ergebnis: der Computer rät tatsächlich ziemlich genau 50% richtig. Wenn ich Bems Darstellung richtig verstehe, hat er diese Analyse nur einmal durchgeführt. Es wäre noch besser gewesen, das ganze ein paar tausend Mal durchzurechnen, um so ein Konfidenzinterval zu bestimmen, gegen das man die tatsächlichen empirischen Werte testen kann. Aber immerhin.

    Was ich in Ihrem Kommentar nicht verstanden habe ist, wo genau das Problem multiplen Testens in Bems Arbeit auftritt.

    Die Anzahl der Beobachter in Bems Experimenten ist in der Tat ungewöhnlich hoch (100 und mehr). Ich finde es etwas unfair, ihm zu unterstellen, dass er das bestimmt nur gemacht hat, weil er bei 95 Probanden noch keinen Effekt hatte. Allerdings ist sicherlich richtig, dass v.a. der t-Test dazu neigt, “alles signifikant zu machen”, wenn die Fallzahl entsprechend hoch ist.

    Zur “Bereinigung” der Daten: es stimmt natürlich, dass es prinzipiell möglich ist, an seinen Daten so lange rumzureinigen, bis man den gewünschten Effekt signifikant hat. Worauf es m.E. ankommt ist, dass die Kriterien der Bereinigung nachvollziehbar sind. Bem hat in einigen Experimenten Probanden von der Analyse ausgeschlossen, deren Leistung wesentlich unter dem Durchschnitt war. Weiterhin hat er im Reaktionszeit-Experiment Versuchsdurchgänge ausgeschlossen, die wesentlich schneller oder langsamer waren als der Rest. Dieses Vorgehen macht m.E. absolut Sinn. Wenn ich untersuchen will, wie der kognitive Prozess X funktioniert, dann sollte ich nur Probanden untersuchen, die auch X gemacht haben, bzw. Versuchsdurchgänge, in denen X stattgefunden hat. Bei Extremwerten ist dieses eher fraglich. Daher sind solche Bereinigungen auch Standard.

    @pippen: stimme absolut zu – Bems “Erklärungen” am Ende, die auf diese quantenmechanische “schwarze Magie” Bezug nehmen, sind ziemlich unbefriedigend.

  10. #10 A.S.
    6. Januar 2011

    Zur Bereinigung: Ich hatte ja geschrieben, dass dies üblich ist, und ich habe es auch bei eigenen Studien schon gemacht (bei denen es aber um wenig kontroverse Behauptungen und vor allem um eine eher normale Versuchsgruppengröße von 20 Vpn ging); ich wollte deshalb nicht sagen, dass dies grundsätzlich falsch ist, sondern nur, dass es angesichts von Bems außerordentlichen Behauptungen überzeugender gewesen wäre, es zu lassen.

    Was ich mit den Mehrfachtests meine, kann ich gut am ersten Experiment zeigen: die Versuchspersonen sahen hier allein in der ersten Hälfte des Experiments drei Arten von Bildern: negative, neutrale und positive (erotsiche). Bei jeder dieser Arten von Bildern hätte sich ein Effekt ergeben können. Selbst wenn man die neutrale Bedingung ausschließt, bleiben zwei Bedingungen, bei denen ein Effekt unabhängig von der Anderen Bedingung als Evidenz für Präkognition gewertet werden könnte. Damit müsste man die normalen Signifikanzniveaus halbieren (Bonferroni-Korrektur), also 0.025 für „signifikant“, 0.005 für „sehr signifikant“ und 0.0005 für „höchst signifikant“. Der p-Wert, den Bem für die erotischen Bilder berichtet, ist 0.011, das Ergebnis ist damit nicht einmal in der Nähe von „sehr signifikant“, wenn man die korrigierten p-Werte zugrunde legt. Für eine derartig außergewöhnliche Behauptung wie die Existenz von Präkognition sollte man die Nullhypothese aber sicher erst bei einem „höchst signifikanten“ Niveau ablehnen.

    Außerdem ist die Tatsache, dass es bei den negativen Bildern keinen Effekt gab, ein klarer Beweis GEGEN die Existenz von Präkognition (die ja, wie in späteren Experimenten argumentiert wird, zu einer Vermeidungsstrategie führen müsste). Bem ignoriert diese Tatsache aber und konzentriert sich ausschließlich auf den Effekt bei den erotischen Bildern. Wie Wagenmakers et al. ja auch überzeugend argumentieren, präsentiert Bem hier also eine explorative Studie („mal sehen, ob und wo wir einen Effekt kriegen“) als konfirmatorische Studie. Das ist immer unangemessen, aber vor allem dann, wenn man damit die absurde Behauptung belegen möchte, dass wir unbewusst in die Zukunft sehen können.

    Wagenmakers und Kollegen weisen ja auch sehr schön darauf hin, dass, wenn es Präkognition tatsächlich gäbe, alle Spielcasinos der Welt längst pleite wären.

  11. #11 Jürgen Schönstein
    6. Januar 2011

    @JB

    P.S. ESP heißt “Extrasensory perception”, zu deutsch “Außersinnliche Wahrnehmung” (ASW).

    Stimmt! (Und ist inzwischen im Text korrigiert.) Der Fehler wäre noch nicht mal halb so peinlich, wenn ich ihn nicht selbst bei anderen schon so oft korrigiert hätte 🙁

  12. #12 MisterX
    6. Januar 2011

    Der letzte Satz in A.S. letztem kommentar sagt doch eigentlich schon alles. Klar gibt es immer statistische Beweise und fehler die nur leute kennen die davon Ahnung haben, das sind schon beweise gegen präkoknition genug. Aber noch mehr sind die ganz einfachen Vernünftigen, wie zB A.S. mit dem Casino geschrieben hat. Man muss sich einfach nur fragen: Wie würde die Welt aussehen wenn es sowas wie ESP und ähnliches Wirklich gäbe ?

    Das ist beweis dagegen genug.

  13. #13 noch'n Flo
    6. Januar 2011

    Also das Ganze hört sich für mich doch frappierend nach Rosenthal-Effekt an.

  14. #14 Svewn Türpe
    7. Januar 2011

    Selbstverständlich kann ESP wissenschaftlich sein. Sonst könnte ja kein Wissenschaftler Studien darüber verfertigen und veröffentlichen. Man muss sich nur, wie es Paul Feyerabend vorschlug, von der Vorstellung verabschieden, die Wissenschaft könne — zumal im einzelnen Werk — einen größeren Wahrheitsanspruch geltend machen als etwa die Kunst.

    Was wäre das überhaupt für eine Wissenschaft, die ganzen Themenkomplexen per se die Wissenschaftlichkeit abspäche? Sollte es nicht im Gegenteil gerade ein Kennzeichen der Wissenschaft sein, dass das System offen für die Änderung jeder Ansicht ist, wenn die vorliegenden Erkenntnisse die Änderung nahelegen? Nicht ESP ist unwissenschaftlich, sondern die Frage, ob ESP wissenschaftlich sein könne.

  15. #15 Hel
    7. Januar 2011

    Moin Svewn… Meinst du, wenn hier andere deinen Vornamen manchmal falsch schreiben, stünde das auch dir selbst zu? Nun, da liegst du wohl richtig – anything goes ;-p

    Sorry, der war unvermeidlich *g* Gute Nacht wünscht Huäl

  16. #16 knackbock
    7. Januar 2011

    Ich habe die Studie nur überflogen, und auch nur bis zu diesem Satz:

    Because there are distribution assumptions underlying t tests, the significance levels of most of the positive psi results reported in this article were also calculated with nonparametric tests. In this experiment, the hit rates on erotic trials were also analyzed with a binomial test […]

    Wtf?? Bedeutet: Wir haben erstmal einen t-test gemacht, da wir aber nicht wissen ob das zulässig ist, machen wir einfach einige andere auch noch. Dann ist der angemessene auf jeden Fall dabei!

    Ein t-Test erfordert meines Wissens eine Normalverteilung von Daten auf Intervallniveau, einem Binomialtest liegt eine Binomialverteilung auf Nominalskala zu Grunde. Wen man nichtmal entscheiden kann, ob die eigenen Daten etwas stärkeres als einen Binomialtest zulassen, bzw ob sie normalverteilt sind oder nicht, dann sollte man sich Hilfe holen oder es lernen. Dass das so durch den Review gegangen ist finde ich schon reichlich schwach!

  17. #17 adenosine
    7. Januar 2011

    Warum sollte es nicht noch unbekannte Sinnesrezeptoren (magnetische oder elektrische Felder, Chemiesensoren usw.) geben ? Und warum sollte deren Erforschung unwissenschaftlich sein?

  18. #18 BreitSide
    7. Januar 2011

    xxx

  19. #19 skeptikus
    7. Januar 2011

    Christoph Droesser hat die Studie kommentiert:
    DIE ZEIT:
    https://www.zeit.de/2011/01/Psi-Beweis

    Zur Psi-Forschung:
    Die GWUP : https://www.gwup.org/infos/themen/334-parapsychologie
    empfiehlt folgendes Buch: Hergovich, A. (2001): Der Glaube an Psi. Die Psychologie paranormaler Phänomene. Huber, Bern

  20. #20 BreitSide
    8. Januar 2011

    skeptikus: schöner Link auf Drösser.

    Noch schöner einige Kommentare: “…mir ist schon öfter passiert, dass…” Das tut manchmal richtig weh, sowas zu lesen.

  21. #21 anonym
    8. Januar 2011

    Schönstein schrieb:

    Übersinnliche Kräfte Fähigkeiten (Extra-Sensory Powers Perception, kurz ESP) sind mit Wissenschaft unvereinbar.

    Dann wäre das ja geklärt.
    Zu dem Satz passt übrigens der Verweis auf die GWUP zwei Kommentare höher auch schön.

  22. #22 S.S.T.
    8. Januar 2011

    Mal angenommen, es gäbe in der Tat Menschen, die zu ESP fähig sind. Dann sollten sich doch solche Menschen bei diesen Tests herausfiltern lassen. Diese Gruppe müsste dann bei weiteren Tests insgesamt noch viel besser abschneiden.

    Hat man eigentlich nicht so einen Quatsch schon x-Mal mit negativem Ergebnis durchgeführt? Ich denk da an Randi et. al.

  23. #23 Sven Türpe
    8. Januar 2011

    Noch schöner einige Kommentare: “…mir ist schon öfter passiert, dass…” Das tut manchmal richtig weh, sowas zu lesen.

    Warum?

  24. #24 BreitSide
    8. Januar 2011

    TölpelTürpelTroll, anstatt dümmliche Kinderfragen zu stellen, wie wär´s, wenn Du ein einziges Mal eine Antwort liefertest?

    Nochmal für Dich, falls Du es schon wieder verdaddelt hast:

    was ist schief an der Metapher des Stromsees?

    Erbärmlicher könnte Dein Offenbarungseid kaum sein.

  25. #25 Sven Türpe
    8. Januar 2011

    Ach nein. Es gibt doch schon genügend Leute, die auf alles eine Antwort wissen. Als Wissenschaftler finde ich gute Fragen interessanter und wichtiger.

  26. #26 michael
    9. Januar 2011

    @ST
    > Als Wissenschaftler finde ich gute Fragen interessanter und wichtiger

    Und ‘warum?’ ist eine sehr gute Frage. nicht wahr? Mal sehen:

    Warum bist Du nicht in der Lage, BreitSides Frage zu beantworten?

  27. #27 Sven Türpe
    9. Januar 2011

    Ich habe keine Lust.

  28. #28 michael
    9. Januar 2011

    @Sven

    Das ist doch mal eine akzeptable Antwort.

  29. #29 BreitSide
    9. Januar 2011

    Als Wissenschaftler finde ich gute Fragen interessanter und wichtiger.

    Buhuuu, der war gut!

    Welche Disziplin denn? Liebesleben der Pflastersteine? Du bist doch echt so was von lächerlich.

    Wo ist denn Deine Homöopage? Detlev-sieht.at oder so war das doch? Schämst Du Dich jetzt auch dafür?

    Mannomann, selten so eine Nulpe gesehen.

  30. #30 Hel
    9. Januar 2011

    @Breiti

    Svennis Blog ist doch noch da – klickssu seinen Nick an, bissu auf https://erichsieht.wordpress.com/

    Ich finde sein Blog in weiten Teilen ja übrigens gar nicht mal so übel. Vielleicht bevorzugt er es, dafür den Mr. Hyde-Anteil seiner Online-Persönlichkeit auf SB auszuleben?

    OT-Frage @Sven

    Hand aufs Herz mal bitte: Sächselst du eigentlich…? Nicht, dass ich damit ein Problem hätte – als Neo-Berliner, zumal in meinem Stadtteil, bin ich natürlich auf du und du mit der Sochsn-Community. Bin halt nur neugierig.

  31. #31 michael
    9. Januar 2011

    @Hel
    > Hand aufs Herz mal bitte: Sächselst du eigentlich…?

    Warum willst Du das wissen, deswegen?

    Gott schuf die Menschen und ließ die Menschen wachsen,

    und dann kam der Teufel und der erschuf die Sachsen

    Doch des Teufels dümmste Diener sind wohl die Berliner

  32. #32 BreitSide
    10. Januar 2011

    @Hel: ja, die ersten Eindrücke waren gar nicht so schlecht.

    Umso erstaunlicher, was für einen Bockmist er hier absondert.

    Tja, und die Soxn, die sinn helle,
    des wees die ganze Weld.
    Und sinn se mal nich helle,
    dann hammse sich verschdelld.

  33. #33 BreitSide
    10. Januar 2011

    michael, frei nach Jürgen Hart (https://www.die-sachsen-kommen.de/shtm/sing.htm):

    Schreib, mei Sachse, schreib!

  34. #34 michael
    10. Januar 2011

    > Ja, die ersten Eindrücke waren gar nicht so schlecht.

    Das liegt wohl daran, dass er sich dort kurz fasst, keinen hat, den er mit seinen Fragen erfreuen kann und ausserdem dort nicht seine Wirtschafts- und Gesellschaftsordnung verkaufen will.

    > Welche Disziplin denn?

    Guckst Du mal hier https://www.xing.com/profile/Sven_Tuerpe , dann findest Du das selber raus.

  35. #35 rolak
    31. März 2012

    Daryl Bem erhält verdientermaßen und nicht unerwartet den Pigasus Award 2012 😉