Die Umfrageforschung befindet sich häufig in einem Dilemma. Insbesondere in Märkten möchte Sie im Dienste ihrer Auftraggeber vom Verbraucher häufig mehr wissen, als diesem lieb ist. Der gutiert das nicht selten durch Zurückweisung bzw. Ablehnung. Das ruft dann andernorts den Datenschützer auf den Plan. Marktforscher greifen häufig dann zur Datenfusion, wenn die Belastung den Befragten überfordert. Dabei werden (teilweise) unabhängige Untersuchungen mathematisch miteinander verknüpft, um den empirischen Verlust wieder auszugleichen.
Alles was nicht gemessen, erfragt oder beobachtet werden kann, über das aber trotzdem eine Aussage getroffen werden soll, muß mathematisch “modelliert” werden. D.h., unter der Voraussetzung bestimmter Annahmen (Merkmale sind stochastisch unabhängig voneinander oder aber, so eine andere Ausgangslage, bedingen sich einander) werden, zumeist unter wahrscheinlichkeitstheoretischen Annahmen Zusammenhänge künstlich erzeugt. Ein solches Verfahren hierfür stellt die Datenfusion dar, bei der – vereinfacht – 2 Datenquellen mathematisch ineinander überführt und so zu einer Datengrundlage gemacht werden.
War das “Fusionieren” vor einigen Jahren unter Methodikern im Bereich der empirischen Sozialforschung noch weitgehend verpönt, hat es sich heute zum Standard bei umfangreichen Datenbeständen in der kommerziellen Markt- und Meinungsforschung entwickelt (z. B. bei Marktuntersuchungen, die Verbraucherverhalten zu den verschiedensten Anschaffungen untersucht).
Miteinander fusioniert werden aber auch etwa genutzte Medienkanäle der Print- oder Radiomedien im Rahmen der Mediaanalyse der ag.ma. Man kann aber sicherlich nicht alles fusionieren; nicht jeder Fragentyp oder jedes Befragungsthema ist dafür gleichermaßen geeignet. Das Verfahren bietet sich an bei Fragestellungen, deren Antworten von längerer Gültigkeit sind, also z. B. nach Einstellungen, Freizeitverhalten bzw. Hobbies oder dem Besitz des PkW im Haushalt. Für die politische Sonntagsfrage, die auch kurzfristige Stimmungen aufnimmt, ist es daher nicht geeignet. Hier sind bevölkerungsrepräsentative Befragungen, bei möglichst geringer Zahl von befragungsunwilligen Verweigerern (der Fachmann spricht dabei von hoher Ausschöpfung) nach wie vor unerlässlich.
Bricht sich allerdings in weiten Teilen der Bevölkerung eine grundsätzliche Ablehung gegen das “Preisgeben” persönlicher Informationen Bahn (ganz gleich, ob Anonymität oder die Trennung von personenbezogenen Daten und Befragungsdaten sichergestellt ist, was der Gesetzgeber vorschreibt), so wird die wissenschaftliche Grundlage, auf der die kommerzielle Markt- und Sozialforschung fusst, möglicherweise bald auf wackeligen Beinen stehen. Den Industrien, die auf Verbraucherinformationen aus Befraguingen angewiesen sind, bleibt dann nur noch der Weg über das Befragtenpanel. Hierbei registrieren sich Befragungswillige freiwillig für eine beliebige Anzahl an Untersuchungen und werden dafür entschädigt.Leider mit dem Nebeneffekt einer Selbstselektion. Zumindest vor dem Hintergrund des Ideals einer bevölkerungsrepräsentativen Zufallsauswahl ist das daher eben nicht mehr “streng wissenschaftlich” (auch wenn manch eine Bevölkerungsgruppe anders gar nicht mehr befragt werden kann).
Weder das Panel noch die Datenfusion, deren Probleme vorwiegend in der “Verflachung” von Merkmalsvarianzen liegen, können den “Königsweg” der empirischen Sozialforschung, den bevölkerungsrepräsentativen Random-Untersuchungsansatz, in ihrer methodischen Güte das Wasser reichen. Aber wenn es anders nicht mehr forschungsökonomisch vertretbar, also wirtschaftlich möglich ist, wird darin wohl die Zukunft der Markt- und Meinungsforschung liegen. Wohl dem, der es es aber weiter ermöglichen kann, die Fahnen professioneller Forschungskunst bzw. ausgewiesener Methodengüte weiter hoch zu halten.
Kommentare (3)