Kitabı oku: «Handbuch der Soziologie», sayfa 9
Das Internet eröffnet vollkommen neue Möglichkeiten zur Erfassung sozialer Praktiken und Sinnwelten. Das über Blogs, Foren, Chats, Protokolldateien und soziale Netzwerke öffentlich verfügbare Datenmaterial erlaubt Zugänge zu Prozessen der Entstehung, Veränderung, Verbreitung und Konstitution sozialer Formen. Auf diese Weise wird es möglich, an nicht-reaktiv produzierte Verlaufsdaten zu kommen. Internetbasierte Erhebungsverfahren liegen seit einigen Jahren voll im Trend und es ist aufgrund kostengünstiger und schneller Erhebungsmethoden davon auszugehen, dass sie in Zukunft stark an Bedeutung gewinnen werden (Bryman 2008: 627–659).
Die Fallauswahl hat im Bereich der qualitativen Sozialforschung eher experimentellen Charakter, sie beruht nicht auf einer Zufallsstichprobe, sondern der Forschende navigiert vor dem Hintergrund einer im Untersuchungsprozess allmählich entstehenden Systematik von Fall zu Fall. Das »theoretical sampling« (Glaser/Strauss 1967) setzt auf eine allmähliche Verdichtung der Fallauswahl durch einen iterativen Forschungsprozess, in dem die Forscherin beständig zwischen Datenerhebung, Auswertung und Typisierung oszilliert. Auf diese Weise tritt nach einiger Zeit eine Sättigung ein, d. h. neue Fälle führen zu keinen neuen Erkenntnissen mehr. Die Erhebungsphase endet, sobald die induktive Erweiterung oder abduktive Generierung einer Theorie über das untersuchte Feld gelungen ist.
b) Datenanalyse
Zur qualitativen Untersuchung von empirischem Material stehen verschiedene Verfahren zur Verfügung: Grounded Theory, Objektive Hermeneutik, dokumentarische Methode, Diskursanalyse, Inhaltsanalyse, narrationsanalytische Biografieforschung, egozentrierte Netzwerkanalyse oder ethnomethodologische Konversationsanalyse (Strübing 2013, Lamnek 2005). Dabei hängt die Entscheidung für eine bestimmte Analysestrategie naturgemäß von dem verfügbaren Datenmaterial ab: Netzwerkanalysen sind auf relationale Beziehungsdaten angewiesen, Konversationsanalysen verlangen nach hochdifferenzierten Transkripten und die dokumentarische Methode benötigt für ihre Typisierungen möglichst kontrastreiche Fälle. Im Folgenden betrachten wir zwei der am häufigsten eingesetzten Analyseverfahren etwas genauer.
[70]Die Grounded Theory geht auf das Buch »The Discovery of Grounded Theory« (1967) von Barney Glaser und Anselm Strauss zurück und wurde seitdem kontinuierlich weiterentwickelt (Strauss/Corbin 1990, Strauss 1991, Strübing 2008, Clarke 2004, Charmaz 2006). Sie ist kein reines Auswertungsverfahren, sondern ein pragmatistisch inspirierter Forschungsstil, welcher Einfluss auf das gesamte Design einer empirischen Untersuchung nimmt. Auf diese Weise wird ein vorurteilsarmer, kreativer, abduktiver und iterativer Forschungsprozess initiiert, der um eine zunächst explorative, später theoriegeladene Fallauswahl kreist. Die einzelnen Untersuchungsschritte werden parallelisiert, schon mit dem ersten ausgewählten Fall beginnt die Theoriebildung. Hinsichtlich des zulässigen Datenformats ist die Grounded Theory offen – möglich sind Texte, Interviews, Videos oder Beobachtungsprotokolle. Die wachsende Beliebtheit der Grounded Theory resultiert nicht zuletzt daraus, dass sie als flexible Plattform für gegenstandsnahe Studien verwendet werden kann. Im Umgang mit dem erhobenen Material setzt sie auf eine gemeinsame Analyse durch mehrere Interpreten, welche in drei Schritten erfolgt. Zunächst wird offen kodiert, d. h. der Datentext wird von den beteiligten Wissenschaftlern durch eine mikroskopische Line-by-Line-Analyse in seine Einzelteile zerlegt. Dabei werden verborgene Sinndimensionen aufgespürt, thematisch interessante Materialstücke ausgewählt und zentrale Konzepte separiert. Anschließend wird axial kodiert, d. h. durch den Vergleich kontrastreicher Fälle kommt es zur Erstellung erster Zusammenhangshypothesen und Theorie-Miniaturen. Hierfür werden einige Phänomene ausgewählt und auf ihre möglichen Ursachen und Konsequenzen befragt. Zum Abschluss der Interpretationsphase wird selektiv kodiert, d. h. nun beginnt die Suche nach der zentralen Schlüsselkategorie, mit der sich die einzelnen Theoreme und Konzepte aufeinander beziehen lassen, um auf diese Weise die erkenntnisleitende Forschungsfrage zu beantworten (vgl. dazu ausführlich: Strauss 1991: 94–114).
Das zweite Interpretationsverfahren, das wir in seinen Grundzügen darlegen, ist die Narrationsanalyse (nach Schütze 1983, 1984). Sie kommt vor allem in der Biografieforschung zum Einsatz und nimmt ihren Ausgang von der detaillierten Transkription eines narrativen Interviews, das eine geschlossene Haupterzählung, einen Vertiefungsteil und einen argumentativ angelegten Nachfrageteil aufweist. In einem ersten Arbeitsschritt wird das Material einer formalsprachlichen Analyse unterzogen, um auf diese Weise erzählende von argumentativen und beschreibenden Passagen zu trennen. Von hier aus erfolgt eine strukturelle Beschreibung, bei der die Zusammenhänge zwischen den einzelnen Erzählsegmenten herausgearbeitet werden. Die analytische Abstraktion identifiziert daraufhin wiederkehrende Muster und Gestaltungsroutinen innerhalb der untersuchten Biografie. Die Wissensanalyse erforscht, auf welche Strategien der Identitätsbehauptung die Erzählperson bei der Darlegung ihrer Biografie zurückgreift. Dazu gehören Techniken der Verdrängung, Legitimierung oder Umdeutung. Nach Schütze kann die Einzelfallanalyse durch kontrastive Vergleiche angereichert werden. Dabei werden zunächst minimale Vergleiche zu ähnlichen Fälle angestellt, später dann maximale Vergleiche mit Fällen, deren Verlaufstypik signifikant vom Ausgangsfall abweicht. Die Vergleichsarbeit mündet in die Konstruktion von Theorien ein, die Prozessmodelle für typische Lebensläufe oder einzelne Lebensphasen bereitstellen (Strübing 2013: 153–161). Narrationsanalysen machen sich dabei drei »Zugzwänge des Stegreiferzählens« zunutze (Schütze 1984: 81). Der »Detaillierungszwang« evoziert die chronologische Benennung wichtiger Schauplätze und Lebensereignisse und befördert die sinnhafte Verknüpfung einzelner Episoden. Besonders detailreich ausbuchstabierte Sequenzen verweisen die Narrationsanalytiker auf biografische Höhe- oder Wendepunkte. Der »Gestaltschließungszwang« führt dazu, dass angekündigte oder begonnene Erzählteile in der Regel vollendet werden, selbst wenn sie Erlebnisse betreffen, die die Erzählperson eigentlich nicht zur Sprache bringen wollte. Auf diese Weise treten auch dramatische Ereignisse und konstitutive [71]Misserfolge hervor. Der »Relevanzfestlegungs- und Kondensierungszwang« besteht schließlich darin, dass die Erzählperson aufgrund eines endlichen Zeitbudgets narrative Schwerpunkte bei der Schilderung ihrer Lebensgeschichte setzen muss. Auf diese Weise werden narrationsanalytische Rückschlüsse auf die Relevanzstrukturen des Befragten möglich. Die Biografieforschung geht keineswegs davon aus, dass die abgerufene Erzählung mit dem gelebten Leben vollkommen übereinstimmt. Sie arbeitet stattdessen mit der konstruktivistischen Annahme, dass sich die mentale Repräsentation und Verarbeitung der eigenen Lebensgeschichte aufgrund der beschriebenen Zugzwänge des Interviews in der Erzählung niederschlagen (Küsters 2006: 33).
c) Theoriebezüge
Ausgangspunkt einer qualitativen Untersuchung sind nicht gegenstandsbezogene Theorien, sondern abstrakte Metatheorien, welche die Wahl der Methoden und Techniken präjudizieren. Hinsichtlich der metatheoretischen Rahmung qualitativer Studien lassen sich verschiedene Einflüsse dokumentieren. Dazu gehören vor allem Pragmatismus (John Dewey, Charles S. Peirce), symbolischer Interaktionismus (George Herbert Mead, Herbert Blumer), Wissenssoziologie und Konstruktivismus (Peter L. Berger, Thomas Luckmann), Phänomenologie und Hermeneutik (Alfred Schütz), Poststrukturalismus (Michel Foucault) und Akteur-Netzwerk-Theorie (Bruno Latour, Annemarie Mol, John Law). Je nach gewählter Theorieoptik wird ein anderes Verhältnis von Struktur und Handlung induziert. Dies hat Folgen für die Auswahl und Analyse des empirischen Materials. Während die Grounded Theory eher beim Akteur ansetzt, konzentrieren sich diskursanalytische oder objektiv hermeneutische Verfahren auf konstitutive Mechanismen und Dispositive auf der Strukturebene.
Ein gemeinsamer Wesenszug aller qualitativen Verfahren besteht darin, dass sie gegenstandsbezogene Theorien nicht im Sinne des quantitativen Paradigmas anwenden oder testen, sondern induktiv weiterentwickeln oder abduktiv generieren wollen (Kalthoff 2008: 21). Theorien gehen der empirischen Forschung nicht voraus, sondern bilden sich in der verstehenden Auseinandersetzung mit dem gesammelten Material. Qualitative Studien können daher auch als Experimente mit offenem Ausgang bezeichnet werden. Sie basieren nicht auf maßgeschneiderten Theorien oder eindeutigen Durchführungsbestimmungen und sie lassen sich von der Dynamik weitgehend unerforschter Materien affizieren. Der Schlüssel zur angestrebten Generalisierung der Befunde liegt in der komparativen Analyse komplexer Fallstrukturen, aus denen empirisch gesättigte Idealtypen und Typologien gebildet werden.
2.3 | Qualitative und quantitative Methoden im Vergleich |
Als Zwischenfazit der bisherigen Darstellung gibt Abbildung 1 einen Überblick über die herausgearbeiteten Differenzen zwischen den beiden Methodensträngen. Die Rekonstruktion hat gezeigt, dass die Zielsetzung ähnlich ist: Sowohl quantitative als auch qualitative Studien generalisieren fallspezifische Befunde, um auf diese Weise soziale Regeln, Regelmäßigkeiten und Gesetzmäßigkeiten aufzudecken. Meinungsverschiedenheiten gibt es jedoch bezüglich der Instrumente und Verfahren, die zur Bewältigung dieser anspruchsvollen Aufgabe eingesetzt werden sollten.
Da beide Methodenbaukästen wohlbegründet und bei der Analyse gesellschaftlicher Phänomene erfolgreich sind, gibt es im Anschluss an die Gegenüberstellung der Instrumente keinerlei Veranlassung dazu, einer Seite die Existenzberechtigung abzusprechen. Wir haben es in der Soziologie vielmehr mit zwei kontingenten, aber legitimen Versionen der empirischen Suche nach sozialen Mustern zu tun. Sofern man sich mit dieser friedlichen Koexistenz nicht begnügen [72]will, stellt sich allerdings die Frage, ob und wie diese Methoden trotz diverser Unterschiede in methodologischer und forschungspraktischer Hinsicht miteinander kompatibel gemacht werden können. In den folgenden Abschnitten diskutieren wir daher einige Kombinations- und Integrationsversuche, die darauf ausgelegt sind, Synergieeffekte zu generieren.
Quantitative Methoden | Qualitative Methoden | |
Erkenntnismodus | erklärend | verstehend |
Beobachterrolle | neutral | interaktiv |
Theoriebezug | theorietestend (deduktiv) | theoriegenerierend (abduktiv) |
Fallauswahl | statistical sampling | theoretical sampling |
Fallzahl | hoch | gering |
Fallbeschreibung | sparsam | detailliert |
Erhebungsmethode | standardisiert | unstandardisiert |
Datenformat | numerische Messwerte | sprachlich vermittelte Daten |
Forschungsprozess | sequenziell | iterativ-rekursiv |
Forschungsziel | generalisierbare Befunde über soziale Strukturen | generalisierbare Befunde über soziale Strukturen |
Abbildung 1: Zentrale Differenzen zwischen quantitativen und qualitativen Methoden
3. | Die Konvergenz quantitativer und qualitativer Methoden – Zwei Perspektiven |
Für die allermeisten Sozialwissenschaftler stellt sich die Frage nach der Vereinbarkeit von quantitativen und qualitativen Methoden in ihrem Forschungsalltag überhaupt nicht. Sie driften aufgrund kontingenter Ereignisse in eines der beiden Lager, werden mit den dortigen Überzeugungen infiziert und eignen sich im Laufe ihrer akademischen Sozialisation die ausgeklügelten Verfahren der betreffenden Methodenkultur an, ohne dass ein längerer Blick über den Tellerrand vonnöten wäre. Sie forschen an eigenen Lehrstühlen, ziehen eigene Nachwuchsgruppen heran und publizieren in methodisch homogen ausgerichteten Journals. Die enorme Ausdifferenzierung und Verfeinerung der Methoden hat in der Gegenwart zur weiteren Zementierung dieser Kluft beigetragen, denn es ist nahezu unmöglich geworden, die Entwicklungen auf beiden Seiten des Methodenspektrums zu überblicken (oder gar mitzugestalten). Es gibt daher nur wenige Grenzgänger, die nennenswerte Kompetenzen in beiden Bereichen aufweisen. Stattdessen wird die Beziehung durch episodisch wiederkehrende Interventionen belastet, wie den Vorwurf der »Variablensoziologie« (vgl. z. B. Blumer 1956; Esser 1996) als Grundsatzkritik an deterministischen Implikationen einer statistischen Analyse gesellschaftlicher Wirklichkeit oder durch die Unterstellung von »Subjektivität«, als Kritik an der unstandardisierten Vorgehensweise qualitativer Studien und den damit aufgeworfenen Validitäts- und Reliabilitätsproblemen (vgl. z. B. Merton 1968 [1949]).
[73]Die evolutionäre Entkopplung zwischen quantifizierenden und qualifizierenden Methoden der Sozialforschung wird seit ihren Anfängen von einer eher marginalen Gegenbewegung begleitet, die darauf abzielt, die entstehende Lücke forschungsstrategisch zu überwinden. In den 1960er-Jahren wurden diese zaghaften Bemühungen erstmals unter dem Begriff der »Triangulation« gebündelt. Der Ausdruck stammt aus dem Bereich der Landvermessung und bezeichnet dort ein Verfahren, bei dem die Koordinaten eines Gegenstands von zwei unterschiedlichen Punkten aus bestimmt werden (Flick 2012: 11). In der sozialwissenschaftlichen Forschungspraxis lassen sich im Anschluss an Norman K. Denzin (1970) vier Formen der Triangulation unterscheiden: Datentriangulation (verschiedene empirische Quellen werden zur Bestimmung eines Gegenstands herangezogen), Forschertriangulation (verschiedene soziologische Beobachter), Theorietriangulation (verschiedene Theorieperspektiven) und Methodentriangulation (verschiedene Methoden). Der Begriff wird in der Gegenwart häufig auf die Kombination von quantitativen und qualitativen Methoden reduziert. Das Motiv für eine derartige Methodentriangulation besteht darin, validere und reichhaltigere Befunde zu erhalten. Dieser vergleichsweise bescheidene Anspruch ist in den letzten Jahren aus unterschiedlichen Richtungen auf Kritik gestoßen. Aus dem konstruktivistischen Lager wird die damit postulierte Möglichkeit einer synergetischen Kombination bestritten, weil jede Methode ihren eigenen Gegenstand hervorbringt, so dass es demzufolge gar keinen gemeinsamen Nenner für eine Triangulation geben kann. Methodologisch ausgerichtete Forscher greifen diese Kritik auf und bemühen sich darum, eine integrative Plattform für qualitative und quantitative Ansätze zu entwickeln, von der aus eine Kombination der beiden Methodenbaukästen möglich wird. Und schließlich gibt es eine breite und eher forschungspragmatisch ausgerichtete Diskussionslinie, in der es vorwiegend um die formale Ausbuchstabierung und empirische Realisierung konkreter Mixed-Methods-Forschungsdesigns geht.
Wir werden nun auf die beiden letztgenannten Strömungen etwas genauer eingehen, da sie die aktuelle Diskussion um eine Annäherung der beiden Methodenstränge maßgeblich vorangetrieben haben.
3.1 | Möglichkeiten methodenintegrativer Sozialforschung |
Der hierzulande einflussreichste Vorschlag zur methodologischen Integration der beiden Methodenstränge stammt von Udo Kelle (2008). Kelle hat in den letzten Jahren ein integratives Forschungsprogramm entwickelt, auf dessen Basis quantitative und qualitative Ansätze sinnvoll zusammenarbeiten können. Die gemeinsame Plattform weist vier zentrale Charakteristika auf: einen gegenstandsadäquaten Kausalitätsbegriff, ein Konzept der verstehenden Erklärung, einen doppelten Theoriebegriff sowie ein modifiziertes Phasenmodell des sozialwissenschaftlichen Forschungsprozesses.
(1.) Kelles integratives Programm geht in Übereinstimmung mit der quantitativen Forschungslinie von der Notwendigkeit zur kausalen Interpretation empirischer Zusammenhänge aus. Der Begriff der Kausalität erfährt allerdings in zwei zentralen Hinsichten eine Veränderung bzw. Präzisierung. Zum einen werden seine deterministischen Anklänge zugunsten einer Versöhnung mit den Konzepten menschlicher Autonomie und Kreativität getilgt. Demzufolge wird soziales Handeln durch drei verschiedene Bedingungen beeinflusst bzw. verursacht: situative Faktoren, individuelle Handlungsziele und soziokulturell variable Handlungsregeln. Kelle geht im Rahmen seines Ansatzes davon aus, dass Akteure prinzipiell dazu in der Lage sind, diese drei Einflussgrößen zu verändern. Zum anderen wird der Kausalitätsbegriff an den Gegenstandsbereich der Sozialwissen-schaften [74]angepasst. Denn kausale Aussagen haben dort laut Kelles Analyse eine geringere Geltungsreichweite als in den Naturwissenschaften. Die Soziologie hat es stets mit raum-zeitlich begrenzten Strukturen mittlerer Reichweite zu tun, was die Entdeckung universeller Gesetzmäßigkeiten unmöglich macht (ebd.: 181–225).
(2.) Mit dem integrativen Konzept der verstehenden Erklärung wendet sich Kelle gegen den disziplinhistorisch eingeschliffenen Dualismus von Erklären und Sinnverstehen. Er betrachtet das Verhältnis dieser beiden Erkenntnismodi als komplementär: Quantitative Studien beschreiben die Zusammenhänge von Ursache und Wirkung auf der Makroebene, qualitative Analysen liefern durch detaillierte Fallbeschreibungen eine mikrofundierte Tiefenerklärung dafür, wodurch diese Korrelationen zustande kommen. Sofern sichergestellt ist, dass sich qualitative und quantitative Studien auf denselben empirischen Gegenstand beziehen, können sie sich also wechselseitig befruchten, validieren oder sogar korrigieren (ebd.: 267–269).
(3.) In Kelles Programm wird das Verhältnis von theoriegenerierenden (qualitativen) und theorieprüfenden (quantitativen) Verfahren genauer bestimmt. Zu diesem Zweck hält er es für erforderlich, zwei Missverständnisse auszuräumen. Demzufolge sind qualitative Studien nicht – wie gelegentlich suggeriert wird – dazu in der Lage, ex nihilo neue Theorien zu entwickeln. Vielmehr spielen theoretische Vorannahmen, Erwartungen und Wissensbestände eine wichtige Rolle bei der Konstitution und Erforschung des Gegenstandsbereichs. Ebenso wenig kann die quantitative Forschung laut Kelle ihrem selbstformulierten Anspruch auf deduktive Theorieprüfung in der Praxis gerecht werden, weil soziologische Theorien häufig keine operationalisierbaren Aussagen aufweisen, die hinreichend konkret sind, um einen lokalen Gegenstandsbereich angemessen zu erkunden. Kelle schlägt aus diesem Grund einen doppelten Theoriebegriff vor, der zwei Theoriesorten voneinander unterscheidet: empirisch gehaltvolle, gut operationalisierbare und raum-zeitlich klar limitierte Konzepte (a) und empirisch gehaltsarme und universalistisch ausgerichtete Konzepte (b). Die quantitativen Studien sind auf Theorievariante (a) angewiesen, denn nur aus ihnen lassen sich Hypothesen ableiten, die in der Konfrontation mit der empirischen Realität scheitern bzw. falsifiziert werden können. Die qualitativen Studien benötigen hingegen jene heuristischen Suchscheinwerfer, die ihnen durch empirisch gehaltsarme Großtheorien (b) zur Verfügung gestellt werden (ebd.: 271–277).
(4.) Kelle entwickelt auf dieser kategorialen Grundlage ein dreiphasiges Forschungsprogramm. Der erste Schritt besteht in der Deskription empirisch anzutreffender Struktur- und Handlungsmuster. Auf diese Weise wird bestimmt, was überhaupt als Explanandum in Frage kommt. Hierfür ist eine Analyse auf der statistischen Aggregatebene erforderlich, wofür quantitative Verfahren nach Auffassung Kelles am besten geeignet sind. Der zweite Schritt besteht in dem Versuch, die beschriebenen Handlungs- und Strukturmuster verstehend zu erklären. Mithilfe detaillierter Daten über feldspezifische Situationsdeutungen, Handlungsorientierungen und kulturellen Regeln werden typische Akteurmodelle gebildet. An diese Kontextinformationen gelangt man am besten auf qualitativem Wege. Schließlich wird in einem dritten und letzten Schritt die Geltungsreichweite der generierten Theorie überprüft. Aufgrund der geringen Fallzahlen in qualitativen Studien bietet sich hierbei eine quantitative Untersuchung an (ebd.: 281).
Kelle skizziert einen integrativen Forschungsrahmen, an den qualifizierende und quantifizierende Studien gleichermaßen andocken können, da er Kausalität und Freiheit, Erklären und Verstehen sowie Theoriebildung und Theorietest aufeinander bezieht. Grundsätzlich bleibt es zwar innerhalb dieses Rahmens möglich und legitim, monomethodische Untersuchungen durchzuführen, sei es für ausgewählte Phasen des Forschungsprozesses oder über alle drei Phasen hinweg. Doch das Phasenmodell legt eine arbeitsteilige Analyse nahe, indem es die Stärken und Schwächen der jeweiligen Instrumente in neuer Schärfe hervortreten lässt.
[75]Demzufolge eignet sich das quantitative Methodenarsenal am besten, um empirische Evidenzen für Zusammenhangshypothesen zu liefern und um erklärungsbedürftige Tatbestände auf den Bildschirm der Soziologie zu bringen. Qualitative Instrumente sind hingegen dazu in der Lage, mikrofundierte Tiefenerklärungen für schwer interpretierbare Zusammenhänge auf der Aggregatebene anzubieten, durch die Entdeckung neuer Variablen zur Aufklärung von Varianz beizutragen oder durch die Aufdeckung von Drittvariablen zur Vermeidung von Fehlinterpretationen zu sorgen (Kelle 2008: 282–284).
3.2 | Mixed-Methods-Designs |
Der Mixed-Methods-Ansatz hat sich seit den 1980er-Jahren im angelsächsischen Raum entwickelt. Neben der im Kontext der Triangulation bereits erwähnten Studie von Denzin (1978) haben die britische Studie »Quantity and Quality in Social Research« (1988), in der Alan Bryman das Spannungsverhältnis zwischen dem Wissenschaftsparadigma der qualitativen und quantitativen Sozialforschung exploriert, und die US-amerikanische Studie »Research Design: Qualitative and Quantitative Approaches« (1994), in der John W. Creswell erste idealtypische Verfahren skizziert, die Entwicklung des Mixed-Methods-Research als eigenes Forschungsfeld maßgeblich beeinflusst. Diese Entwicklung wurde wesentlich dadurch begünstigt, dass die qualitative Methodik neben der bereits etablierten quantitativen Methodik ein eigenes Profil entwickelt hatte (Denzin/Lincoln 2005).2
Weil divergierende erkenntnistheoretische und methodologische Prämissen in das Design qualitativer und quantitativer Forschung einfließen, wurde besonders in den Anfangsjahren der Mixed-Methods-Bewegung debattiert, ob die Kombination der Methoden durch ein dialektisches Verhältnis, die Dominanz eines Paradigmas oder den gleichberechtigten Einfluss beider Paradigmen in Abhängigkeit von der jeweiligen Forschungsfrage geprägt sein sollte (einen Überblick geben z. B. Creswell/Plano Clark 2011).
Auf einer eher forschungspragmatischen Ebene haben in den Folgejahren zahlreiche Studien versucht, Mixed-Methods-Designs als eigenständige methodische Perspektive zu etablieren. Dabei lassen sich Fälle, in denen quantitative und qualitative Methoden systematisch kombiniert werden (z. B. Greene 2007; Tashakkori/Teddlie 2009), von solchen Ansätzen unterscheiden, die eine von Fragestellung und Forschungsprozess abhängige dynamische Kombination beider Methoden vorsehen (z. B. Maxwell/Loomis 2003; Hall/Howard 2008). Im Zuge dessen wurden Kriterien formuliert, die einen Methodenmix begründen können, wie die Bereitstellung komplementärer Erklärungsmodelle, die Steigerung der Glaubwürdigkeit und die Vergrößerung der empirischen Reichweite (vgl. Bryman 2006; Greene et al. 1998).
Creswell und Plano Clark (2011) formulieren folgende Leitfragen für die Entwicklung eines konkreten Mixed-Methods-Designs: 1.) Sind die qualitativen und quantitativen Teilschritte unabhängig voneinander, so dass die Befunde erst bei der Interpretation integriert werden, oder interdependent, so dass sie sich im Zuge des Forschungsprozesses direkt aufeinander beziehen? 2.) Hat eine der beiden Methoden Priorität vor der anderen, oder sind beide Methoden gleichberechtigt? 3.) In welchem zeitlichen Verhältnis stehen die qualitativen und quantitativen Teilschritte des Forschungsprozesses zueinander? 4.) In welchem Forschungsschritt werden beide [76]Methoden kombiniert, d. h. während der Interpretation, der Datenanalyse oder bereits während der Datenerhebung? (Creswell/Plano Clark 2011: 64 ff.)
Auf dieser Grundlage unterscheiden die Autoren sechs unterschiedliche Typen eines Mixed-Methods-Forschungsdesigns, und zwar ein convergent parallel design, in dem die Datenerhebung und -analyse der quantitativen und qualitativen Daten unabhängig voneinander erfolgt und beide Methoden im systematischen Vergleich der Befunde zusammengeführt werden; ein explanatory sequential design, das eine quantitative Datenerhebung und -analyse durch eine qualitative Datenerhebung und -analyse vertieft, während ein exploratory sequential design eine qualitative Studie durch eine quantitative Studie ergänzt, um die Reichweite ihrer Gültigkeit zu steigern; embedded designs sind demgegenüber dadurch gekennzeichnet, dass eine quantitative oder qualitative Studie bereits bei der Datenerhebung und -analyse durch ein Element der jeweils anderen Methodik ergänzt wird. Demgegenüber zielen sowohl das transformative design als auch das multiphase design auf einen Methodenmix ab, der sich im ersten Fall im Zuge des Forschungsprozesses ergibt und im zweiten Fall bereits als ergänzende Durchführung quantitativer und qualitativer Teilstudien, insbesondere im Rahmen von Evaluationsstudien, als Methodenmix angelegt ist, in dem sich beide Methoden mehrfach abwechseln können (ebd.: 69 ff.). Für jedes der Designs können eigene methodische Stärken, methodologische Grundlagen und methodische Herausforderungen unterschieden werden.3
4. | Aktuelle Herausforderungen empirischer Sozialforschung |
Zum Abschluss wollen wir auf die wichtigsten Herausforderungen hinweisen, mit denen sich die Methoden der empirischen Sozialforschung gegenwärtig konfrontiert sehen.
a) | In den letzten Jahren hat die Diskussion um Forschungsstandards und Gütekriterien in den qualitativen Methoden an Bedeutung gewonnen. Derzeit ist nicht absehbar, ob die Auseinandersetzung zu einer stärkeren Integration der verschiedenen Ansätze oder zur internen Fragmentierung und Spaltung des Feldes führen wird. Im Zuge der zu erwartenden Konflikte sollte man nicht übersehen, dass sich im Rahmen methodischer Reflexionen und praktischer Studien bereits ein weithin geteiltes Sortiment an impliziten Regeln und expliziten Qualitätskriterien herausgebildet und etabliert hat (vgl. Abschnitt 2.2 und 2.3). |
b) | Die zunehmende Technisierung des Alltags macht auch vor sozialwissenschaftlichen Verfahren nicht halt. Man darf gespannt darauf sein, wie der vermehrte Einsatz computer- bzw. internetgestützter Verfahren die Erhebung, Analyse, Auswertung und Dokumentation gerade im Bereich der qualitativen Sozialforschung verändern wird. Durch die Etablierung öffentlich zugänglicher Datenarchive – wie »Qualiservice« (Universität Bremen) – dürfte außerdem das bislang kaum bestellte Feld der qualitativen Sekundäranalyse enormen Auftrieb bekommen. |
c) | Die quantitative Forschung hat mittlerweile einen erfreulich hohen Grad der Spezialisierung erreicht. Allerdings kann sie von hier aus ihren eigenen Anspruch auf Objektivität und Überprüfbarkeit durch andere Forscher nur noch schwerlich einlösen. Lediglich absolute Spezialisten für die betreffende Methode können die Befunde anderer Forscher beurteilen. Es müssen daher Vorkehrungen getroffen werden, um die Qualität quantitativer Studien auch in Zukunft zu gewährleisten. |
[77]d) | Durch die Zunahme sekundäranalytischer Zugriffe auf nationale Längsschnittuntersuchungen erfolgt eine Zuspitzung quantifizierender Studien auf eine feststehende Auswahl an Forschungsthemen. Daraus ergibt sich eine beträchtliche Hürde für die Exploration neuer Fragestellungen und die Bearbeitung aktueller Themen auf dem Stand der methodischen Entwicklung. Dieser Tendenz gilt es entgegenzuwirken. |
e) | Mit der zunehmenden Abhängigkeit universitärer Forschung von der erfolgreichen Drittmitteleinwerbung steigt das Risiko, dass methodische Interpretationsspielräume ausgenutzt werden, um gesellschaftlich erwünschte oder massenmedial anschlussfähige Schlussfolgerungen zu ziehen. Forscher/innen sehen sich unter den gegenwärtigen Bedingungen immer häufiger dazu animiert, ihre Befunde zu stilisieren, um den öffentlichen Erfolg ihrer Studie zu steigern. Dadurch wird ein ergebnisoffener Austausch über theoretische Modelle, empirische Forschungsdesigns und die Grenzen der Verallgemeinerbarkeit blockiert (Neuman 1997: 157). |
f) | In jüngster Zeit haben institutionelle Vorkehrungen und diskursive Verschiebungen eine Annäherung der beiden Methodenstränge befördert. So empfiehlt die Deutsche Gesellschaft für Soziologie (DGS) seit dem Jahr 2002 eine universitäre Ausbildung, in der quantitative und qualitative Methoden in gleichberechtigter Weise gelehrt werden. Darüber hinaus sorgt das kulturelle Leitmotiv der Interdisziplinarität für Berufungs- und Begutachtungsverfahren, in denen immer häufiger Kompetenzen in beiden Feldern vorausgesetzt werden. Wie wir in unserem Beitrag gezeigt haben, sind die methodischen Anforderungen an integrative Forschung und Lehre jedoch immens. Ohne eine intensivierte Kooperation von quantitativen und qualitativ ausgerichteten Wissenschaftlerinnen und Wissenschaftlern im Rahmen gegenstandsnaher Forschungsverbünde ist eine Überwindung der historisch gewachsenen Spaltung auch in Zukunft kaum vorstellbar. Wir sind der Auffassung, dass eine transmethodische Zusammenarbeit nicht nur möglich, sondern auch erforderlich ist, um die soziologische Durchdringung hereinbrechender Sozialwelten zu verbessern. |
Literatur
Aachen, Christopher H. (1982): Interpreting and Using Regression. Thousand Oaks, California.
Amann, Klaus/Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Dies. (Hg.): Die Befremdung der eigenen Kultur. Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt/M.: 7–52.