Panorama

i-9b5b9f8aace87753f93a7534a691f018-fragebogen.jpg

Die Umfrageforschung befindet sich häufig in einem Dilemma. Insbesondere in Märkten möchte Sie im Dienste ihrer Auftraggeber vom Verbraucher häufig mehr wissen, als diesem lieb ist. Der gutiert das nicht selten durch Zurückweisung bzw. Ablehnung. Das ruft dann andernorts den Datenschützer auf den Plan. Marktforscher greifen häufig dann zur Datenfusion, wenn die Belastung den Befragten überfordert. Dabei werden (teilweise) unabhängige Untersuchungen mathematisch miteinander verknüpft, um den empirischen Verlust wieder auszugleichen.

Alles was nicht gemessen, erfragt oder beobachtet werden kann, über das aber trotzdem eine Aussage getroffen werden soll, muß mathematisch “modelliert” werden. D.h., unter der Voraussetzung bestimmter Annahmen (Merkmale sind stochastisch unabhängig voneinander oder aber, so eine andere Ausgangslage, bedingen sich einander) werden, zumeist unter wahrscheinlichkeitstheoretischen Annahmen Zusammenhänge künstlich erzeugt. Ein solches Verfahren hierfür stellt die Datenfusion dar, bei der – vereinfacht – 2 Datenquellen mathematisch ineinander überführt und so zu einer Datengrundlage gemacht werden.

War das “Fusionieren” vor einigen Jahren unter Methodikern im Bereich der empirischen Sozialforschung noch weitgehend verpönt, hat es sich heute zum Standard bei umfangreichen Datenbeständen in der kommerziellen Markt- und Meinungsforschung entwickelt (z. B. bei Marktuntersuchungen, die Verbraucherverhalten zu den verschiedensten Anschaffungen untersucht).

Miteinander fusioniert werden aber auch etwa genutzte Medienkanäle der Print- oder Radiomedien im Rahmen der Mediaanalyse der ag.ma. Man kann aber sicherlich nicht alles fusionieren; nicht jeder Fragentyp oder jedes Befragungsthema ist dafür gleichermaßen geeignet. Das Verfahren bietet sich an bei Fragestellungen, deren Antworten von längerer Gültigkeit sind, also z. B. nach Einstellungen, Freizeitverhalten bzw. Hobbies oder dem Besitz des PkW im Haushalt. Für die politische Sonntagsfrage, die auch kurzfristige Stimmungen aufnimmt, ist es daher nicht geeignet. Hier sind bevölkerungsrepräsentative Befragungen, bei möglichst geringer Zahl von befragungsunwilligen Verweigerern (der Fachmann spricht dabei von hoher Ausschöpfung) nach wie vor unerlässlich.

Bricht sich allerdings in weiten Teilen der Bevölkerung eine grundsätzliche Ablehung gegen das “Preisgeben” persönlicher Informationen Bahn (ganz gleich, ob Anonymität oder die Trennung von personenbezogenen Daten und Befragungsdaten sichergestellt ist, was der Gesetzgeber vorschreibt), so wird die wissenschaftliche Grundlage, auf der die kommerzielle Markt- und Sozialforschung fusst, möglicherweise bald auf wackeligen Beinen stehen. Den Industrien, die auf Verbraucherinformationen aus Befraguingen angewiesen sind, bleibt dann nur noch der Weg über das Befragtenpanel. Hierbei registrieren sich Befragungswillige freiwillig für eine beliebige Anzahl an Untersuchungen und werden dafür entschädigt.Leider mit dem Nebeneffekt einer Selbstselektion. Zumindest vor dem Hintergrund des Ideals einer bevölkerungsrepräsentativen Zufallsauswahl ist das daher eben nicht mehr “streng wissenschaftlich” (auch wenn manch eine Bevölkerungsgruppe anders gar nicht mehr befragt werden kann).

Weder das Panel noch die Datenfusion, deren Probleme vorwiegend in der “Verflachung” von Merkmalsvarianzen liegen, können den “Königsweg” der empirischen Sozialforschung, den bevölkerungsrepräsentativen Random-Untersuchungsansatz, in ihrer methodischen Güte das Wasser reichen. Aber wenn es anders nicht mehr forschungsökonomisch vertretbar, also wirtschaftlich möglich ist, wird darin wohl die Zukunft der Markt- und Meinungsforschung liegen. Wohl dem, der es es aber weiter ermöglichen kann, die Fahnen professioneller Forschungskunst bzw. ausgewiesener Methodengüte weiter hoch zu halten. 

Kommentare

  1. #1 Bernd Weiss
    Februar 2, 2011

    Beim Lesen des Beitrags stellten sich mir u.a. die folgenden Fragen:

    (1) Wird hier “[B]evölkerungsrepräsentativen Zufallsauswahl” mit “streng wissenschaftlich” gleichgesetzt?

    (2) Woher stammt der Begriff “bevölkerungsrepräsentative[r] Random-Untersuchungsansatz”?

    (3) Was ist mit “‘Verflachung’ von Merkmalsvarianzen” gemeint? Kann eine Varianz “verflachen”?

    Wer Interesse an deutschsprachigen Texten zu Techniken der Datenfusion hat, der sei auf einen Tagungsband des IZ mit dem Titel “Datenfusion und Datenintegration” verwiesen. Alle dort versammelten Beiträge lassen sich inzwischen als PDF herunterladen.

  2. #2 YeRainbow
    Februar 2, 2011

    das Problem der Stichproben-Auswahl besteht doch schon immer.

    Ich muß mich doch ziemlich wundern. “Modellieren” von Daten? heißt bei mir nachwievor Datenfälschung.

    Das problem der komerziellen Markt- und sozial”forschung” ist das unserer Kultur.
    Wer glaubt, die Daten “umsonst” kriegen zu können, um dann selbst daran zu verdienen, wird immer an gewisse Grenzen stoßen.

    Wo alles käuflich ist, kommen die Leute da schon auf gewisse Ideen. Sich zu verkaufen. Nicht zu verschenken.
    Zutiefst logisch.

  3. #3 YeRainbow
    Februar 2, 2011

    Witzigerweise haben wir grad heute einen solchen Fragebogen bekommen, den irgendein “Verein der Verbraucher” oder so ähnlich zu uns schickte.

    Ich werde den Deibel tun, mir das auch nur anzugucken. Da müßten mir ja mehrere Hufe fehlen…
    “Verein”…. kicher.
    Ich arbeite nur für richtiges Geld. Nicht für n Blick mit Dank in’n Schrank.
    Nix da!