Kitabı oku: «Handbuch der Soziologie», sayfa 8
[61]Alexandra Krause/Henning Laux
Die Gabelung zwischen qualitativer und quantitativer Sozialforschung: Wie forschen Soziologinnen und Soziologen?
1. | Einleitung: Die Spaltung der Sozialforschung |
Die Methoden der empirischen Sozialforschung dienen der systematischen Erhebung, Auswertung und Interpretation von Informationen über die Zusammensetzung sozialer Welten. Spurenelemente dieser Praxis lassen sich bis zu den Agrarstatistiken vorchristlicher Hochkulturen wie China und Ägypten zurückverfolgen. Die Gründungsdokumente der methodisch kontrollierten Sozialforschung, wie wir sie heute kennen, stammen jedoch aus dem frühen 20. Jahrhundert und stehen am Ende einer langen Entwicklungsgeschichte. Die erste paradigmatische Untersuchung, »The Polish Peasant in Europe and America« (1918–1920) von William Thomas und Florian Znaniecki, dechiffriert die Biografien polnischer Migranten, die sich in der rasant anwachsenden Industriestadt Chicago in fremder Umgebung ein neues Leben aufbauen. Einige Jahre später analysieren Marie Jahoda, Paul F. Lazarsfeld und Hans Zeisel in ihrer wegweisenden Studie über »Die Arbeitslosen von Marienthal« (1933) die Effekte von Arbeitslosigkeit in einer österreichischen Industriesiedlung, in der durch die Schließung der ortsansässigen Fabrik nahezu alle Einwohner arbeitslos geworden sind.
Instruktiv sind diese beiden Pionierwerke aus heutiger Sicht nicht zuletzt deshalb, weil sie auf ein breites Sortiment an Materialsorten, Erhebungstechniken und Auswertungsverfahren zurückgreifen. Als empirische Informationsquellen fungieren amtliche Register, öffentliche Statistiken, Beobachtungsprotokolle, Briefwechsel, Interviews, Schulhefte, Zeitungsberichte, Tagebücher und Zeitverwendungstabellen. Zu Beginn des 20. Jahrhunderts ist somit noch vereint, was in den Folgejahrzehnten aufgrund unterschiedlicher Bezugsprobleme auseinanderdriftet, nämlich »quantitative« und »qualitative« Forschungsverfahren. Während sich Lazarsfeld dem stichprobenbasierten »Survey-Research« zuwendet und damit die methodisch angeleitete Quantifizierung des Sozialen vorantreibt, avanciert die »Chicago School« um William Thomas, Robert E. Park und Ernest Burgess in den Augen berühmter Schüler wie Harold Garfinkel, Barney Glaser, Anselm Strauss oder Erving Goffman zum Vorbild für den qualifizierenden Zweig der Sozialforschung. In Deutschland wird die Kluft schließlich im Anschluss an den berühmten »Positivismusstreit« (1961) zwischen Theodor W. Adorno und Karl Popper (später: Jürgen Habermas gegen Hans Albert) ideologisch zementiert und verstetigt. Erst im Rahmen dieser stilbildenden Kontroverse werden erkenntnistheoretische, gesellschaftsanalytische und wissenschaftspolitische Differenzen mit methodischen Fragen nach geeigneten Verfahren der Fallauswahl und -analyse amalgamiert.
Fortan entwickelt sich ein qualitativer Methodenzweig, der sozialanthropologische, ethnologische, psychoanalytische, pragmatistische und texthermeneutische Verfahren aufsaugt. Und in mindestens ebenso rasanter Geschwindigkeit bildet sich ein quantitativer Methodenzweig heraus, der an den Erhebungs- und Auswertungsstandards der Naturwissenschaften und Ökonometrie [62]orientiert ist. Am vorläufigen Ende dieser Entwicklungsgeschichte stehen sich heute zwei ausdifferenzierte Forschungsrichtungen gegenüber, die eigene Lehrbücher, Zeitschriften, Nachwuchsgruppen, Diskussionsforen und Lehrstühle hervorbringen – und sich weitgehend ignorieren.
Diese Spaltung erscheint mit Blick auf den Gegenstandsbereich der empirischen Sozialforschung nur schwer nachvollziehbar. So sind in der Analyse sozialer Problemfelder wie Erwerbslosigkeit, Armut, Kriminalität oder Segregation quantifizierende Daten von großer Bedeutung, lässt sich mit ihrer Hilfe doch erfahren, wie häufig diese Phänomene in welchen Bevölkerungsteilen auftreten. Zugleich kann erst die qualifizierende Forschung konstituierende Interaktionen und alltäglichen Deutungsmuster rekonstruieren, über die Betroffene diese Phänomene erleben. Zudem legen jüngere Entwicklungen den Verdacht nahe, dass die Projektion unabhängiger oder konkurrierender Paradigmen die tatsächliche Forschungspraxis gar nicht mehr widerspiegelt. Bereits seit den 1980er-Jahren hat sich im angelsächsischen Raum ein Feld der Sozialforschung entwickelt, auf dem die Möglichkeiten und Grenzen der Kombination quantitativer und qualitativer Methoden wieder explizit untersucht werden. In den letzten Jahren ist das Interesse daran auch in der deutschsprachigen Sozialforschung gewachsen.
Angesichts solcher Ungereimtheiten wollen wir diesen Text zum Anlass nehmen, um noch einmal danach zu fragen, durch welche Spezifika sich die beiden Methodenstränge auszeichnen. Daran anknüpfend diskutieren wir zeitgenössische Vermittlungsversuche, die eine problemlösungsorientierte Zusammenarbeit befördern und damit den ›kalten Krieg der Paradigmen‹ überwinden helfen.
2. | Der klassische Methodendualismus |
2.1 | Methodik der quantitativen Sozialforschung |
2.1.1 | Methodologische Grundlagen und Qualitätsstandards |
Im Zuge der Bemühungen um eine deskriptive Vermessung der hereinbrechenden Massenkollektive wird im 19. Jahrhundert die Institutionalisierung der heutigen Sozialstatistik in den englischen »Statistical Societies« und im deutschen »Verein für Sozialpolitik« maßgeblich vorangetrieben. Klassische französische Studien wie »Cours de philosophie positive« (1842) von Auguste Comte oder »Les règles de la méthode sociologique« (1894) von Émile Durkheim buchstabieren die Grundlagen ihrer Methodik aus. Die sozialwissenschaftlich interessierte Statistik orientiert sich am Vorbild der Naturwissenschaften und sucht analog dazu nach möglichst universellen Gesetzmäßigkeiten sozialer Beziehungen. Quantifizierende Untersuchungen folgen nomologisch-deduktiven Erklärungsmodellen, d. h. sie basieren auf einem System theoretischer Gesetze, aus denen sich ihre wissenschaftlichen Annahmen logisch und werturteilsfrei ableiten lassen. Deren Übereinstimmung mit beobachtbaren Merkmalen der sozialen Wirklichkeit wird dann statistisch geprüft. Schließlich begreifen sie ihren Forschungsgegenstand in aller Regel als soziale Tatsache, welche unabhängig vom Forscher und seinem Wissen existiert (Neuman 1997).
Wissenschaftlicher Kern der quantitativen Methodik ist der empirische Test theoretisch hergeleiteter Forschungshypothesen. Dementsprechend fokussieren ihre Gütekriterien auch auf die Qualität, mit der diese Hypothesen in messbare statistische Größen übersetzt werden. Das Kriterium der Reliabilität gilt als erfüllt, wenn man das theoriegeleitet anvisierte Merkmal der sozialen Wirklichkeit stabil, präzise und in sich konsistent messen kann. Das Kriterium der [63]Validität gilt als erfüllt, wenn eine Messgröße tatsächlich auch das zugrunde liegende Konstrukt abbildet. Das Kriterium der Objektivität bzw. intersubjektiven Replizierbarkeit trägt schließlich dem Anspruch Rechnung, dass ein empirischer Befund allgemein und unabhängig vom Betrachter bzw. Forscher gelten soll und daher auch von anderen Forschern mit alternativen Messmethoden und unter anderen Rahmenbedingungen hervorgebracht werden kann (Schnell et al. 2011: 149–166).
Eine grundlegende Herausforderung quantitativer Forschungsdesigns besteht schließlich darin, das Kausalitätsproblem angemessen zu bearbeiten. Es umfasst sowohl die wissenschaftstheoretische und gesellschaftsanalytische Frage, inwieweit die untersuchten sozialen Beziehungen analog zu Naturzusammenhängen über Kausalgesetzmäßigkeiten erfassbar sind, als auch die statistische Modellierung der untersuchten Kausalbeziehungen anhand eines geeigneten Datensatzes. Letzteres ist unter anderem mit der Anforderung verbunden, Veränderungen des als Ursache geltenden sozialen Merkmals auch tatsächlich vor den als Wirkung geltenden Veränderungen des zu erklärenden sozialen Merkmals zu messen (vgl. dazu ausführlich: Kelle 2008: 151–225).
2.1.2 | Grundzüge des quantitativen Forschungsprozesses |
Aus unserer Sicht sind fünf methodische Schritte dazu geeignet, die Logik des quantifizierenden Forschungsprozesses zu charakterisieren (vgl. z. B. Neuman 1997; Thome 2007; Bryman 2008; Schnell et al. 2011; Fowler 2013): a) Forschungsfrage und forschungsleitende Hypothesen formulieren, b) empirisches Design entwickeln, c) Daten erheben, d) Daten analysieren, e) theoretische Schlussfolgerungen ziehen.
a) Problemstellung und Hypothesenentwicklung
Die quantitative Sozialforschung begreift sich als theoriegeleitete Suche nach wissenschaftlicher Erkenntnis. Idealerweise entwickelt sie im ersten Schritt des Forschungsprozesses über das so genannte nomologisch-deduktive Formalmodell der Kausalbeziehungen ihre forschungsleitenden Hypothesen (Hempel/Oppenheim 1948). Sie bedient sich der Stochastik, um aus der bedingten Wahrscheinlichkeit, mit der empirische Messgrößen auftreten, Rückschlüsse auf die Gültigkeit dieser Hypothesen zu ziehen. Im Unterschied zur qualitativen Sozialforschung gilt somit die theoriegeleitete Datenerhebung und -analyse als Qualitätsmerkmal guter quantitativer Sozialforschung (Diekmann 2002: 122–159, Kromrey 2000: 48–58).
Die Erklärungsmodelle beschreiben Merkmale der sozialen Wirklichkeit über eine endliche Anzahl möglicher Ausprägungen – als Variablen – und führen die Verteilung der zu erklärenden abhängigen Variable über die Annahme einer Kausalbeziehung auf die Verteilung einer oder mehrerer unabhängiger Variablen zurück. Über intervenierende Variablen und Moderatoren werden die modellierten Zusammenhänge verfeinert, um die Modelle der komplexen Wirklichkeit des untersuchten Beziehungssystems anzunähern.
Die Forschungshypothesen postulieren also einen kausalen Effekt zwischen wenigstens zwei Variablen, sind als Vorhersage formuliert, lassen sich logisch aus dem zugrunde gelegten Erklärungsmodell herleiten und können über statistische Tests falsifiziert werden (Neuman 1997: 109). Insbesondere der letzte Aspekt spiegelt das am kritischen Rationalismus orientierte Wissenschaftsverständnis der quantitativen Sozialforschung wider. Theoretisch fundierte Forschungshypothesen lassen sich durch die empirische Prüfung nicht letztgültig beweisen – statistische Tests können aber sehr wohl die Wahrscheinlichkeit ihrer Richtigkeit testen. Indem sie in [64]ihren Studien versuchen, die Befunde anderer Forscher zu replizieren, aber auch gezielt alternative Erklärungsmodelle und widerstreitende Forschungshypothesen testen, nähern sich die Forscher eines Forschungsfeldes sukzessive der Wahrheit an.
b) Forschungsdesign
Im nächsten Schritt werden die Forschungshypothesen über ein geeignetes Forschungsdesign einer systematischen empirischen Prüfung zugänglich gemacht. Insbesondere folgende Fragen müssen bearbeitet werden: 1) Welche Informationen sind dazu geeignet, die Forschungshypothesen empirisch zu messen bzw. zu operationalisieren? 2) Für welche Fallauswahl sollen die Forschungshypothesen geprüft werden? 3) Ist ein Experiment oder eine Umfrage am besten dazu geeignet, die postulierten Kausalzusammenhänge zu erfassen?
Für die Operationalisierung gilt es zunächst, zu entscheiden, ob ein Konzept ein- oder mehrdimensional erfasst werden soll und welche Variable bzw. Variablen dazu geeignet sind, die Dimension/en empirisch abzubilden, und daher als Indikatoren dienen sollen. Dazu gehört auch die Überlegung, auf welcher Ebene die Informationen erhoben werden müssen: Werden z. B. Mikroprozesse postuliert, so dass auch Individualdaten zu erheben sind, um die Gefahr eines ökologischen Fehlschlusses zu reduzieren? Daran anschließend müssen die Indikatoren quantifiziert werden. Einheitliche Richtwerte ermöglichen es dabei etwa, Veränderungen über die Zeit zu bestimmen und die Befunde unterschiedlicher Studien miteinander zu vergleichen (Neuman 1997: 113 ff.).
Meistens können Forscher keine umfassende Fallstudie bzw. Vollerhebung aller relevanten Fälle durchführen, sondern müssen sich auf eine Fallauswahl beschränken. Um die Generalisierbarkeit der beobachteten Effekte anhand statistischer Signifikanztests prüfen zu können, muss es sich um eine Zufallsstichprobe aus der Grundgesamtheit aller Beobachtungen handeln. Jede Stichprobenziehung ist allerdings mit einem Fehler behaftet, der u. a. auf fehlende Antworten oder Messfehler zurückzuführen ist. Eine Zufallsstichprobe kann diesen Stichprobenfehler nicht vermeiden, aber verringern. Er wird auch mit der absoluten Größe der Stichprobe kleiner (Schnell et al. 2011: 257 ff.).
Die Methodenliteratur nennt in der Regel drei Kriterien, die erfüllt sein müssen, um eine Kausalbeziehung statistisch nachzuweisen: 1) die Verteilung einer Variable korrespondiert bzw. korreliert systematisch mit der Verteilung einer anderen Variable; 2) es ist keine Scheinkorrelation, d. h. die gemeinsame Variation der Verteilung von abhängiger und unabhängiger Variable bildet auch wirklich den direkten Zusammenhang der beiden Variablen ab und nicht den Einfluss einer unbeobachteten Drittvariable; 3) die Ursache wird vor der Wirkung gemessen (Kelle 2008).
Das experimentelle Design kommt der Modellierung einer Kausalbeziehung am nächsten, weil es den Kausaleffekt im Vergleich zwischen den Probanden der Untersuchungs- und der Kontrollgruppe direkt produziert und misst. Aus ethischen und praktischen Gründen ist es allerdings nur selten für soziologische Fragestellungen geeignet. Als quasi-natürliches Experiment gelten Settings, in denen zwei Gruppen miteinander verglichen werden, von denen nur eine Gruppe einem bestimmten Einfluss ausgesetzt war. Eine Herausforderung besteht hier darin, dass die beiden Gruppen in allen übrigen Merkmalen identisch sein müssen, so dass Unterschiede in der abhängigen Variable wirklich auf diesen Kausaleffekt zurückgeführt werden können. Darüber hinaus muss der Einfluss anderer möglicher Ursachen kontrolliert werden, um die Stärke des Effekts möglichst unverzerrt zu messen.
Häufiger bedient sich die quantitative Sozialforschung allerdings Umfragen, um ihre Hypothesen zu testen – nicht zuletzt auch, um eine höhere Fallzahl und Generalisierbarkeit der statistischen [65]Befunde zu erzielen. Die ersten beiden Kriterien der Kausalitätsprüfung können durch ein Querschnittdesign erfüllt werden, während das dritte Kausalitätskriterium ein Längsschnittdesign erfordert. Die Entwicklung von Panelstudien hat die quantitative Sozialforschung in Deutschland während der letzten beiden Jahrzehnte stark geprägt, das Interesse an Zeitreihen- und Ereignisdatenanalysen hat stetig zugenommen (vgl. Diekmann 2004).
c) Datenerhebung
Aufgrund der Randständigkeit experimenteller Designs beschränken sich die folgenden Ausführungen auf die sozialwissenschaftliche Umfrageforschung. Die Datengewinnung erfolgt über mündliche, schriftliche, telefonische oder internetgestützte Formen der Befragung. Im Mittelpunkt steht zunächst die Entwicklung des Fragebogens. Dabei sind alle für den Hypothesentest erforderlichen Indikatoren zu berücksichtigen. Je mehr eindimensionale Indikatoren man verwendet, desto mehr Informationen können insgesamt erfragt werden. Bei eindimensionalen Indikatoren kann eine missverständliche Frageformulierung allerdings auch zu einer falschen Klassifizierung der Befragten führen, und dieser Fehler kann weder korrigiert noch das Ausmaß des Fehlers eingeschätzt werden. Mit ihrem Interesse an einer möglichst differenzierten Messung ihrer Konzepte durch komplexe multidimensionale Indikatoren laufen Forscher umgekehrt aber auch möglicherweise Gefahr, Befragte zu überfordern, was ebenfalls fehlerhafte Antworten, fehlende Antworten oder sogar den Abbruch des Interviews zur Folge haben kann (z. B. Schnell et al. 2011: 199 ff.; Neuman 1997: 132 ff.).
Bei der Frageformulierung spielen messtheoretische Gesichtspunkte der Reliabilität und Validität eine entscheidende Rolle. Beide Gütekriterien lassen sich anhand standardisierter Verfahren in Pretests prüfen. So kann die Stabilität eines Indikators durch wiederholte Messungen innerhalb derselben Untersuchungsgruppe geprüft werden (Test-Retest-Methode). Für multidimensionale Indikatoren gilt es auch, die Konsistenz der Messergebnisse zwischen den Indikatoren zu testen (klassischer Test: Cronbachs Alpha). Die Replizierbarkeit der Ergebnisse hängt eng mit der Reliabilität der Indikatoren zusammen. Die Validität stellt quantitative Studien vor größere Herausforderungen, denn es gibt keine absolute Sicherheit darüber, dass ein Indikator auch wirklich das gemeinte Konzept abbildet (Neuman 1997: 141). Die inhaltliche Validität eines Indikators kann durch das Urteil anderer Experten oder möglicher Probanden über seinen Sinngehalt geprüft werden. Er sollte außerdem möglichst viele relevante Dimensionen des zugrunde liegenden Konzeptes abbilden. Aber auch der Vergleich mit bereits etablierten alternativen Indikatoren oder seine Vorhersagekraft können dazu dienen, die Validität eines Indikators zu steigern (ebd.: 144).
Um die Objektivität bzw. Replizierbarkeit der Messungen sicherzustellen, gilt es auszuschließen, dass Messfehler einen unkontrollierten Einfluss auf die Datengewinnung ausüben. Mögliche Fehlerquellen werden daher nacheinander eliminiert, indem der Fragebogen auf den Effekt der Fragenreihenfolge, den Einfluss von Suggestivfragen oder die Rolle sozialer Erwünschtheit überprüft wird.
Seit dem Zweiten Weltkrieg hat die quantifizierende Bestimmung des Sozialen stark zugenommen. Die Einrichtung großer Forschungsdatenzentren (Statistische Bundes- und Landesämter, GESIS, ICPSR, etc.), die Ausbreitung von Markt- und Meinungsforschungsinstituten (Allensbach, Emnid, Forschungsgruppe Wahlen, Infratest Dimap, etc.) sowie die regelmäßige Durchführung großer Bevölkerungsumfragen (ALLBUS, SOEP, ISSP, Eurobarometer, etc.) haben die wissenschaftliche Sekundäranalyse prozessproduzierter statistischer Daten vereinfacht. Während kosten- und zeitintensive Primärerhebungen die Freiheit lassen, Forschungsdesigns eng an eigenen Forschungsinteressen und Methodenkenntnissen zu entwickeln, setzt die freie bzw. [66]kostengünstige Nutzung unterschiedlicher Sekundärdatensätze ein breiteres Methodenwissen voraus (Fleck 2010).
d) Datenanalyse
Die Auswertung empirischen Datenmaterials wurde in den letzten Jahrzehnten durch die explosionsartige Steigerung der Rechnerkapazitäten (von der Hollerith-Lochkarte bis zum modernen Supercomputer) und die Implementierung leistungsfähiger Softwarepakete (wie Stata, SPSS, R oder LISREL) erheblich vereinfacht, so dass mittlerweile riesige Informationsmengen und komplexe Modelle innerhalb kürzester Zeit verarbeitet werden können (»Big Data«).
Die Datenanalyse erfolgt in der Regel in zwei Schritten: Univariate Analysen sollen anhand von Häufigkeitsverteilungen und Maßen der zentralen Tendenz darüber Aufschluss geben, a) wie häufig die unterschiedlichen Ausprägungen einer Variable in der Stichprobe vorkommen und b) welche Ausprägung für die Verteilung einer Variable charakteristisch sind und daher am häufigsten vorkommen. Die multivariate Analyse untersucht dann die Stärke und Richtung der in den Forschungshypothesen postulierten Kausaleffekte unter Kontrolle möglicher weiterer Ursachen. Aber auch intervenierende Variablen, welche die Stärke des Effekts beeinflussen, und moderierende Variablen, die seine Richtung verändern können, gehen in diesen Forschungsschritt ein. Zu den klassischen Instrumenten der multivariaten Datenanalyse gehören die Faktorenanalyse sowie die lineare und die logistische Regression.
In der Regel sind Wissenschaftlerinnen nicht allein an der deskriptiven Vermessung ihrer Stichprobe interessiert, sondern versuchen, ihre Befunde mit Hilfe inferenzstatistischer Verfahren zu verallgemeinern. Die gemeinsame Logik inferenzstatistischer Testverfahren besteht darin, eine Nullhypothese zu formulieren, die davon ausgeht, dass zwischen abhängiger und unabhängiger Variable kein Zusammenhang besteht, es wird also versucht, die erkenntnisleitende Theorie aktiv zu falsifizieren (vgl. Schnell et al. 2005: 447–454). Zu diesem Zweck wird anhand geltender Konventionen ein Signifikanzniveau festgelegt, und auf dieser Basis wird a) die Wahrscheinlichkeit getestet, mit der die Nullhypothese fälschlicherweise abgelehnt wird (»Alpha-Fehler«). Wenn der Forscher nun b) ein möglichst rigides Signifikanzniveau wählt, um den unter a) beschriebenen Fehler zu vermeiden, erhöht er damit zugleich aber auch die Wahrscheinlichkeit, die Nullhypothese anzunehmen, obwohl sie hätte verworfen werden müssen – d. h. er geht irrtümlicherweise davon aus, dass seine Forschungshypothese empirisch widerlegt ist (»Beta-Fehler«). Dabei beruhen alle statistischen Tests allerdings auf der Grundannahme, dass das gewählte lineare Modell den untersuchten Kausalzusammenhang richtig modelliert (Aachen 1982). Auch elaborierte statistische Prüfkriterien der richtigen Modellspezifikation und des richtigen statistischen Schätzers können Überlegungen über die inhaltlich-theoretische Validität des Modells nicht ersetzen.
Da Längsschnittdesigns kostspielig sind, greifen quantitativ ausgerichtete Forschungsprojekte häufig auf nationale Panelstudien oder die amtliche Statistik zurück. Während die Qualitätsstandards dieser Studien hoch sind, konfrontieren sie die Forscher zugleich mit der Herausforderung der Sekundäranalyse: Sie müssen ihre Forschungsfrage so modifizieren, dass sie auf Grundlage der bereitgestellten Daten angemessen bearbeitet werden kann, und sie müssen sich mit den Stärken und Schwächen des von anderen erhobenen Datenmaterials vertraut machen (Bryman 2008: 297 ff.). Insgesamt erfordern Längsschnittuntersuchungen ein hohes Maß an Methodenwissen und haben die Spezialisierung innerhalb der quantitativen Methodik verstärkt (für einen Überblick siehe z. B. Ruspini 2002).
[67]e) Theoretische Schlussfolgerungen
Die Befunde der empirischen Datenanalyse müssen in einem abschließenden Untersuchungsschritt auf ihre Implikationen für das zugrunde gelegte Theoriemodell geprüft werden. Falls sich eine Forschungshypothese im Rahmen der Analyse bestätigt, gibt es keinen Revisionsbedarf des Erklärungsmodells, wird eine Hypothese dagegen falsifiziert, so ist die erkenntnisleitende Theorie zu modifizieren oder zu verwerfen. Moderationseffekte haben zur Folge, dass der postulierte Kausalzusammenhang zwar durchaus bestätigt wird, aber nur für eine Teilpopulation. Die Theorie muss dann entsprechend ausdifferenziert werden. Schließlich können Hinweise auf unerwartete und überraschende Zusammenhänge auftreten, die nicht im Mittelpunkt des ursprünglichen Forschungsinteresses standen. Es besteht die Möglichkeit, diese Elemente im Rahmen einer Folgestudie anhand einer neuen Stichprobe zu testen.
2.2 | Methodik qualitativer Forschungsprozesse |
2.2.1 | Methodologische Grundlagen und Qualitätsstandards |
Die als qualitativ, interpretativ oder rekonstruktiv bezeichneten Methoden der Sozialforschung sind ein heterogenes Feld. In der Folge konzentrieren wir uns auf die Gemeinsamkeiten der damit adressierten Ansätze, ohne die bestehenden Unterschiede einzuebnen.
Qualitative Ansätze beschäftigen sich mit den alltagsweltlichen Praktiken, Wissensbeständen und Sinnzuschreibungen von Akteuren. Der Umgang mit diesen »Konstruktionen ersten Grades« (Schütz 1971) ist von drei methodologischen Prinzipien geprägt: 1.) Der Forschungsprozess qualifiziert die Teilnehmerperspektive, d. h. es wird eine möglichst umfassende, kontextreiche bzw. dichte Erfassung fallspezifischer Merkmale und Besonderheiten angestrebt. 2.) Das so erhobene Material ist deutungsoffen und muss daher interpretiert werden, es wird ein Bruch mit der Oberfläche des Datentextes und der Illusion des unmittelbaren Verstehens herbeigeführt, um mittels einer methodisch kontrollierten Befremdung latente Sinnstrukturen, fundierende Weltdeutungen und kulturelle Grammatiken aufzudecken. 3.) Zuletzt erfolgt ein rekonstruktiver Schritt, d. h. im Lichte eines spezifischen Erkenntnisinteresses durchdringt die Analyse das erhobene Material, transformiert es in Daten und erstellt von hier aus empirisch gehaltvolle Typologien und Theorien (vgl. Strübing 2013; Flick et al. 2012; Hollstein/Ullrich 2003; Przyborski/Wohlrab-Sahr 2008).
Über weitere allgemeine Prinzipien herrscht kein Konsens. Einigkeit besteht noch am ehestens hinsichtlich des Rollenprofils der soziologischen Beobachter. Abgesehen vom Spezialfall der Objektiven Hermeneutik1 wird diesen nämlich eine aktive, hervorbringende und performative Funktion zugeschrieben. Anders als in der quantitativen Tradition versucht man also nicht, neutrale und nicht-reaktive Formen der Materialgewinnung und -analyse zu finden, vielmehr wird empirische Forschung als interaktiver Prozess vorgestellt, bei dem die subjektiven Wahrnehmungen und Interventionsmöglichkeiten der Forschenden als wertvolle Ressourcen der Erkenntnis dienen (Strübing 2013, Flick et al. 2012: 25). Dissens herrscht hingegen hinsichtlich der erkenntnistheoretischen Frage nach dem Realitätsgehalt des dadurch generierten Wissens. Diesbezüglich haben wir es mit einem Kontinuum zwischen zutiefst realistischen Überzeugungen auf der einen [68]und radikalkonstruktivistischen Ansichten auf der anderen Seite zu tun (vgl. Breidenstein et al. 2013: 10). Schließlich differieren qualitative Ansätze bezüglich ihres genuinen Erkenntnisinteresses, wenn es nämlich um die Rekonstruktion von Sinnbeständen geht (vgl. Lamnek 2005: 224). Denn während einige Ansätze auf den subjektiv gemeinten Sinn abzielen (phänomenologische Wissenssoziologie, Biografieforschung), fokussieren andere auf die Dynamik des interaktiv hervorgebrachten Sinns (ethnomethodologische Konversationsanalyse) oder beziehen sich auf den kulturellen Sinn konstitutiver Strukturen (Objektive Hermeneutik, Diskursanalyse).
In den letzten Jahren hat im Anschluss an die zunehmende Etablierung und Konsolidierung qualitativer Forschung eine verstärkte Beschäftigung mit methodischen Standards stattgefunden, um die »Qualität qualitativer Daten« sicherzustellen (Helfferich 2009, Steinke 1999). Dabei lassen sich derzeit drei verschiedene Strategien unterscheiden, von denen bislang noch nicht absehbar ist, welche sich in Zukunft durchsetzen wird: 1.) die Adaption etablierter Gütekriterien aus dem Bereich der quantitativen Methoden, 2.) die Entwicklung eigener Standards und 3.) die Zurückweisung methodischer Standardisierungsbemühungen. In unmittelbarer Anlehnung an die quantitative Methodenlehre plädieren Przyborski und Wohlrab-Sahr (2008: 35–42) für die Adaption von drei Gütekriterien: Validität, Reliabilität und Objektivität. Auf diese Weise soll einerseits der Dialog zwischen den entzweiten Paradigmen befördert und andererseits ein gemeinsamer Standard für qualitative Verfahren implementiert werden (vgl. Reichertz 2000, King et al. 1994). Im Rahmen der zweiten Option lassen sich eigene Kriterien entwickeln, um die Tragfähigkeit qualitativer Studien zu bestimmen. Flick (2007) unterscheidet in diesem Zusammenhang die Dokumentation erkenntnisleitender Hypothesen, die Auswahl gegenstandsangemessener Erhe-bungs- und Auswertungsmethoden sowie die Protokollierung der Verfahrensschritte, die vom Material zu den finalen Kernhypothesen führen. Eine dritte und letzte Möglichkeit besteht darin, die aufkeimende Methodisierung zurückzuweisen. Die Ablehnung begründet man damit, dass die Standardisierung der Verfahren dem Anspruch einer gegenstandsnahen, durchlässigen und problemsensiblen Sozialforschung zuwiderläuft. Als Alternative wird eine fallspezifische Ausrichtung der Methode am jeweiligen Gegenstand eingefordert (vgl. Breidenstein et al. 2013: 8 f.).
2.2.2 | Grundzüge des qualitativen Forschungsprozesses |
In der folgenden Darstellung erläutern wir die wichtigsten Elemente eines qualifizierenden Forschungsprozesses: a) Materialgewinnung, b) Datenanalyse und c) Theoriebildung. Dabei zeigt sich, dass diese Phasen im Rahmen empirischer Studien – anders als im Bereich der quantitativen Methoden – rekursiv ineinandergreifen und in Abhängigkeit voneinander weiterentwickelt werden.
a) Materialgewinnung
Zu den wichtigsten Verfahren der Datenerhebung gehören Interviews, Ethnografien und internetbasierte Erhebungsverfahren.
Das Interview ist sicherlich das typischste Instrument zur Materialgewinnung. Zur Gewinnung verbaler Daten kommen im Bereich der qualitativen Sozialforschung folgende Befragungsmethoden zum Einsatz: Leitfadeninterviews, Experteninterviews, narrative Interviews, ethnografische Interviews sowie Gruppendiskussionen. Für sämtliche Verfahren gilt, dass sie darauf abzielen, eine möglichst natürliche und vertrauensvolle Gesprächssituation zu schaffen, welche die Befragten dazu anregt, selbstläufig ihre Sinnwelten zu entfalten. Zu den zentralen Tugenden der Interviewführung gehört eine souveräne Handhabung des Leit- oder Gesprächsfadens, um [69]spontan auf Erzählungen des Gegenübers eingehen und notwendige Diskussionsimpulse setzen zu können. Es gibt jedoch große Unterschiede, was den Strukturierungsgrad der Interviews angeht. So haben Experteninterviews einen klaren Problemfokus, was den Interviewer vor die Aufgabe stellt, den Redefluss im Sinne des Erkenntnisinteresses zu kanalisieren. Im Gegensatz dazu bestehen narrative Interviews im Idealfall aus einem einzigen Erzählstimulus, der beim Befragten eine eigenstrukturierte Lebensgeschichte evoziert, die nur gelegentlich durch Rückfragen oder Rückversicherungen unterbrochen werden muss. Die Sammlung möglichst reichhaltiger Kontextinformationen ermöglicht es, den betrachteten Fall in seiner Spezifik zu verstehen (vgl. dazu ausführlich: Küsters 2006; Strübing 2013, Przyborski/Wohlrab-Sahr 2008, Lamnek 2005, Gläser/Laudel 2010).
Unter einer Ethnografie versteht man die unmittelbare und zeitextensive Präsenz eines Forschenden in einem sozialen Mikrokosmos, dessen Praktiken im Hinblick auf ihren Sinn entschlüsselt werden sollen. Dabei sind Ethnografen weder Teilnehmer noch Touristen. Sie stellen Fragen, machen Notizen, produzieren umfangreiche Beobachtungsprotokolle – und lassen sich dabei von den praktischen Relevanzsystemen der Teilnehmer dirigieren. Zugleich nutzen sie ihre Fremdheit, um deutlicher als jene zu verstehen, was in dem ausgewählten Feld vor sich geht. Ethnografien zielen damit stärker noch als alle anderen qualitativen Verfahren auf die Entdeckung bislang unerforschter Zusammenhänge (Breidenstein et al. 2013; Hammersley/Atkinson 2007; Amann/Hirschauer 1997; Latour 2002).