Nach einer viel zu langen Pause, bedingt durch viel Lehre, Seminare und schlicht Sommer, nun endlich wieder eine Fortsetzung. Offen ist noch die Frage wie die Dateninterpretation eigentlich vor sich geht und was daran wissenschaftlich ist. Was also validiert interpretative Sozialforschung?
Wie auch bei allen anderen Wissenschaften laufen die ersten Schritte ähnlich ab. Die Forschungsanträge geben gewisse Fragestellungen und Strukturierungen vor. Wichtig ist festzulegen was geforscht wird (Erkenntnisinteresse und Ziele), die aktuellen Stand der Forschung darzustellen (theoretischer Hintergrund und Verortung), das wie abzuklären (Methodologie und Methodik darzustellen, Forschungsablauf strukturieren), Kooperationen abzuklären und die sonst noch notwendigen organisatorischen Dinge darzulegen (Kalkulation der Kosten, Personal, CVs, usw. usf.). Soweit so bekannt und wie bei allen anderen auch gilt: Umso klarer, nachvollziehbarer, aktueller, greifbarer, umso besser.
Validierung über Feldzugang und Sampling der Daten: Die Frage ist wie genau der Bereich aussieht in dem man forschen möchte, welche Arten von Feldzugängen sind möglich und auf welche Art und Weise sollen die Daten gesammelt werden. Feld ist ein Begriff der gern und intensiv genutzt wird und geht auf Bourdieu zurück. Das Forschungsfeld abzustecken geschieht auf unterschiedliche Weisen: Recherchen in Büchern oder im Netz, Interviews mit AkteurInnen im Feld oder auch Beobachtung – je nach Anforderung sind die Schritte passend auszuwählen. Für unser letztes FWF-Projekt[1], von dem ich hier schon erzählt habe, war es eine Kombination aus mehreren Schritten. Einerseits ist mein Kollege ein Teilnehmer des Feldes, sprich im Bereich der Architektur tätig. Das bringt Vorteile mit sich, wie Wissen über die Abläufe, Kontakte zu handelnden Personen, fachliches Know How, Literaturkenntnis, etc., aber auch Nachteile, wie eine klare persönliche Perspektive, auch bedingt durch die Ausbildung und berufliche Tätigkeit, eine Nähe zu gewissen Teilen des Feldes und dadurch bedingt zu anderen eine größere Ferne, u.ä.. Da ich vor mehreren Jahren feldfremd war, d.h. keine Ahnung von Architektur, Wohnbau oder Stadtplanung hatte, musste er viel von seinem Wissen explizieren und erklären. Dem Wachsen meines Ordnungswissens konnte ich damals quasi zusehen und dieses Felderklären war ein wichtiger Bestandteil einer ersten Strukturierung. Andererseits arbeiteten wird natürlich mit Recherchen in allen Formen und Ausprägungen. Zusätzlich entschieden wir uns, um vom Insiderblick zu abstrahieren zu einer Reihe von teilstrukturierten Interviews mit starken narrativen Elementen, um von möglichst vielen Seiten die unterschiedlichen Prioritäten und Erzählungen einzufangen. Bei diesen Interviews setzten wir, zusätzlich zu unseren Recherchen, auch auf die Strategie InterviewpartnerInnen um Empfehlungen zu bieten. Die Frage war immer am Ende eines Gespräches: „Mit wem sollten wir noch sprechen? Wer hat ähnliche oder gänzlich andere Positionen, wer ist da für unsere Thematik interessant?“ So konnten wir das Feld auch von innen her aufrollen, zusätzliche Gesprächsmöglichkeiten eröffnen – wir wurden oft weiterverwiesen – und auch unsere Recherchen validieren. Irgendwann ist ein Punkt erreicht, wo man bei dieser Frage ähnliche Antworten erhält. Das ist der Punkt an dem es gut ist zu stoppen – Sättigung nennt man das bei den empirischen Daten – und noch stärker in die Auswertung zu gehen.
Während dieses Prozesses – Stichwort theoretical sampling – läuft die Konzeption immer mit. Die ersten Interpretationen zeigen die vorhandenen Strömungen und Ausrichtungen. Der Anspruch ist alle in einem Forschungsfeld vorhandenen Konzepte, d.h. Ausrichtungen, Strömungen und ähnliches, in die Auswahl zu integrieren. Wir haben meist mit grafischen Hilfsmitteln gearbeitet, die verschiedenen Perspektiven visualisiert, unsere bisherigen GesprächspartnerInnen auf diesen verortet und natürlich auch das Metawissen unserer InterviewpartnerInnen herangezogen. (Dieses Thema methodologisch bearbeitet hat Adele Clarke: Sie hat das Generieren von Maps systematisiert und zu einer eigenen Methode gemacht.) Es geht um die oben genannte Sättigung der einzelnen Perspektiven ebenso, wie um ein Ausloten anderer Positionen. Wenn neue Daten, also Interviews, Recherchen und Beobachtungen, keine neuen Erkenntnisse mehr bringen, ist dieser erste Schritt abgeschlossen. Das Ganze ist ein Prozess, nichts Lineares, führt oft zu einigen Schritten zurück und dann wieder vor und nennt sich zirkuläres Forschen. Etwas das recht ungewöhnlich ist, zumindest für die Art und Weise wie in vielen sozialwissenschaftlichen Disziplinen Forschung unterrichtet wird. Meine Studierenden können davon ein Lied singen und sind am Anfang des Wintersemesters regelmäßig davon gestresst, weil sie ihr Denken umstellen müssen bzw. eingelernte Strukturen über Bord werfen müssen. Und doch ist am Ende, jetzt wo die Arbeiten eintrudeln, zu sehen, dass diese Art zu Forschen großen Spaß machen kann. Ziel ist, wie beim sozialwissenschaftlichen Gschichtln drucken beschrieben, eine Repräsentativität in Bezug auf eine Grundgesamtheit herzustellen, sondern eine Repräsentativität der Konzepte eines Feldes zu gewährleisten.
Im Fall unseres Wohnbauforschungsprojektes ging es um ein Ausloten des Feldes mit dem Ziel festzulegen welche Case Studies, d.h. welche Wohnbauten in Wien, wir auswählen. Die jeweiligen Fälle stehen stellvertretend für gewisse Perspektiven und Konstellationen. Wie die Auswahl getroffen wurde, wird dokumentiert und ist ein wichtiger Teil der Forschungsergebnisse.
Validierung durch Transkripte: Immer wieder ist es spannend zu sehen welche verschobene Erinnerung man selbst an Gespräche oder Situationen hat. Statements über den Umgang mit Augenzeugenberichten sind dafür eine gute Illustration. Von ein und demselben Vorgang haben unterschiedliche Menschen meist komplett unterschiedliche Wahrnehmungen. Wir merken uns die Dinge, die uns wichtig sind, was uns eingängig erscheint, was in unser Wissen passt – daher auch die Abhandlungen mit den Schiffen zu Beginn des Blogs: Teil 1 und Teil 2. Ähnlich ist es mit Daten aus Interviews und ähnlichem. Halte ich ein Transkript eines Interviews in der Hand das einige Wochen zurückliegt, wundere ich mich regelmäßig woran ich mich erinnere und woran nicht. Besonders greifbar wird das im Gespräch mit meinem Kollegen. Bedingt durch unsere stark unterschiedliche berufliche Sozialisierung, schauen wir auf komplett unterschiedliche Dinge, unsere Erinnerungen divergieren dementsprechend stark. Transkription ist deshalb das Um und Auf einer jeden derartigen Forschung mit wissenschaftlichem Anspruch. Diese sind die objektivierbare Verschriftlichung der jeweiligen Gespräche und als Auswertungsbasis unumgänglich. (Und natürlich ist schon diese Form der Verschriftlichung auch eine Determinierung des Gegenstandes, dazu gibt es unzählige Abhandlungen und Auseinandersetzungen siehe z.B. ‘Ethnografisches Schreiben‘ von Stefan Hirschauer)
Validierung während der Auswertung: Derzeit arbeite ich hauptsächlich mit Grounded Theory, habe aber auch stark von der dokumentarischen Methode profitiert. Gemeinsam ist allen interpretativen Verfahren das – nona 😉 – Interpretieren. Der tatsächliche Vorgang wie dies geschieht, wird meist in Workshops und Seminaren vermittelt. Eine Form von ‚learning‘ die am besten im ‚doing‘ und durch mitmachen und abschauen passiert. Ich werde versuchen hier das, was ich in den vergangenen Monaten unzählige Male in kleinen Workshops gemacht habe, zu verschriftlichen. In den meisten Büchern findet sich dieses Wissen eher implizit, was das Erlernen aus der Literatur eher erschwert.
Eine meiner StudentInnen hat das vor einigen Wochen nach so einem kurzen Workshop gut auf den Punkt gebracht und sinngemäß gesagt: Es geht also darum das zu erfassen was zwischen den Zeilen steht. Das herauszuarbeiten was den Leuten während des Redens gar nicht bewusst ist.
Genau darum geht es. Es ist ein sich in die Position der jeweiligen GesprächspartnerInnen hineinzuversetzen, deren Sinnzusammenhänge zu verstehen und die Welt ein stückweit durch deren Augen zu betrachten und zu rekonstruieren. Und dieses Rekonstruieren geschieht aus vielen unterschiedlichen Perspektiven, um das Gesamte zu erfassen – deshalb am Anfang des Textes der starke Fokus auf Feldzugang und Sampling.
Ausgegangen wird von einem ausgewählten Text. Insbesondere anfangs wird sehr genau und akribisch analysiert. Einige Leitfragen sind dabei hilfreich und leiten durch die Analyse. Einerseits natürlich die Forschungsfragen des eigentlichen Forschungsinteresses, andererseits geht es darum herauszufinden was in dem Satz/Abschnitt drin steckt. Worum geht es darin? Was hängt damit zusammen (Bedingungen)? Wie gehen AkteurInnen damit um? Was genau für Konzeptualisierungen stecken in diesem Abschnitt? Das Interpretieren wirft Thesen und generative Fragen auf. Das alles wird verschriftlicht und in Memos festgehalten. So entstehen aus einem relativen kurzen Abschnitt viele verschiedene Memos mit beinhalteten Fragestellungen und Thesen, die es an weiterem Material zu validieren gilt. Früher wurde das mit Papier und Stift gemacht, herumgeschnipselt und sortiert, heute ist das zum Glück in der Form nicht mehr nötig. Das Programm Atlas.ti hilft dabei die Datensätze zu verwalten und bietet vielfältige Möglichkeiten an zu strukturieren. Was aber wichtig ist, und leider oft missverstanden wird: Das Programm gibt keine Art zu arbeiten vor. Es ist vielmehr eine Datenbank in der selbstgewählt Relationen gesetzt werden können, kurze Texte abgespeichert werden können (=Memos), Sortierungen vorgenommen werden können und vor allem aber auch Textstellen wiedergefunden werden können, da Codes für gewisse Textstellen oder auch Memos vergeben werden. Und es kann noch wesentlich mehr, nämlich auch mit Hypothesen umgehen, d.h. Thesen die während des Interpretierens aufkommen anhand des Materials zu überprüfen.
Das Wichtigste aber ist sich nicht den vielfältigen Möglichkeiten des Strukturierens und Codierens hinzugeben, sondern am Interpretieren zu bleiben. Das war einer meiner wichtigsten Lernschritte. Ursprünglich komme ich nämlich ganz und gar nicht aus einem interpretativen Paradigma, sondern habe viele Jahre quantitative Auswertungen und reduktive Inhaltsanalysen gemacht. Also das üblicherweise gelehrte Paradigma meiner Herkunftsdisziplin ausgeübt, auch wenn mich das andere immer schon gereizt hat.
Validierung in Gruppen: Interpretationen in Gruppen bringen eine zusätzliche Validität in das Auswerten von Daten. Durch die unterschiedlichen Perspektiven der handelnden Personen wird die Interpretation zusätzlich validiert, deshalb setzen interpretative Forschungsprojekte meistens auf Gruppen die gemeinsam Textstellen auseinandernehmen und analysieren. Von Oevermann (objektive Hermeutik) gibts die Anekdote, dass er regelmäßig Leute von der Straße ins Institut für Sozialwissenschaften holte und zu Interpretationsgruppen einlud.
Ein kleines Beispiel wie eine Interpretation aussehen kann, findet sich im Artikel ‘Interpretation revisited – ein Beispiel eines Interpretationsvorgangs‘.
[1] FWF Projekt ‘Modes of Design‘.
Kommentare (8)