Kitabı oku: «Autochthone Minderheiten und Migrant*innen», sayfa 6
3. Methodischer Rahmen
3.1 Auswertungsmethoden: Die vergleichende diskurshistorische Argumentations- und Inhaltsanalyse
Um die der Arbeit zugrundeliegenden Forschungsfragen beantworten zu können, ist die Kombination von mehreren Methoden notwendig. Die wichtigste Säule bildet die vergleichende diskurshistorische Argumentationsanalyse, die es ermöglicht, beide Tageszeitungen, unabhängig ihrer sprachlichen Realisierung nach Mustern und Schemata über einen langen Zeitraum hinweg, zu untersuchen. Vorbild für die methodische Auswertung waren Martin Wengelers praxisnahen Arbeiten, der – zur Düsseldorfer Schule der Diskursanalyse angehörig – eine Reihe von Argumentationsmustern für den Migrationsdiskurs formulierte. Diese Methode ermöglicht es, Strukturen und Muster von expliziten und impliziten Argumentationen zu analysieren und über eine längere Zeitspanne zu vergleichen. Zudem war die Wiener Schule in Hinblick auf die Kontextualisierung von Diskursen wegweisend. Die Argumentationsanalyse hat sich besonders für die interlinguale Gegenüberstellung der beiden Zeitungen Dolomiten und Alto Adige angeboten, da die Analyse auf inhaltlicher Ebene geführt wird und dadurch die Lexik nicht im Vordergrund steht.222
Die Argumentationsanalyse hat sich im Besonderen im Migrationsdiskurs etabliert, da sie eine „sinnvolle diskursanalytische Interpretation eines Textkorpus“223 ermöglicht und Denkmuster offenlegen kann.224 Sie ist ein passendes Instrument, um Argumentationen – wahr oder nicht wahr – zu erfassen, die in öffentlichen Diskursen Meinungen bilden oder Handlungen rechtfertigen.225 Für die Begründung einer diskurshistorisch ausgerichteten Argumentationsanalyse steht die Richtigkeit einer Position oder Entscheidung nicht im Vordergrund. Es geht ausschließlich um die Erfassung des kollektiven Wissens einer gegebenen Zeit.226 Diesen Grundsatz verfolgt auch vorliegende Forschungsarbeit.
Den Überlegungen zur diskurshistorischen Argumentationsanalyse liegen unter anderem die Arbeiten von Josef Kopperschmidt227 und Manfred Kienpointner228 zugrunde. Die von Kopperschmidt sogenannte mikrostrukturelle Argumentationsanalyse kann sich auf eine Vielzahl von Texten konzentrieren und ist so für eine Diskursanalyse einsetzbar. Dabei unterscheidet er zwischen formaler, materialer und funktionaler Analyse, wobei für diese Arbeit eine Mischform von formaler und materialer Argumentationsanalyse sinnvoll ist. Die funktionale Ebene ist für die Diskursanalyse nicht anwendbar. Auf formaler Ebene geht es um die Typologisierung und Analyse der allgemeinen Formprinzipien/kontextabstrakten Mustern von Argumenten über einen längeren Zeitraum hinweg.229 Präziser gesagt, geht es um die Analyse von impliziten Schlussregeln, die den Topoi230 der antiken Rhetorik naheliegen.231 Diese Topoi können, in einem öffentlichen Diskurs gebraucht, in der Gesellschaft verbreitete Denkgewohnheiten und Einstellungen offenlegen. Kienpointner hat in seinem Buch „Alltagslogik“ eine Reihe kontextabstrakter Mustern formuliert, die für das Argumentieren einer Sprachgemeinschaft prototypisch sind.232 Für Martin Wengeler reicht es jedoch nicht aus, nur allgemeine/formale Argumentationsmuster (z. B. Kausalschemata oder Vergleichsschemata) ausfindig zu machen, sondern sie müssen mit spezifischen Inhalten gefüllt werden. Um eine diskursgeschichtlich ausgerichtete Argumentationsanalyse durchführen zu können, wird also die formale Topik mit der materialen/inhaltlichen Topik verbunden. Dadurch können „Unterschiede in der Verwendung typischer Topoi zwischen verschiedenen Gruppen zu einem Zeitpunkt und zwischen diesen Gruppen zu verschiedenen Zeitpunkten in einem Themenbereich herausgefunden“233 und anschließend verglichen werden.234
Da Argumentationen meist implizit bleiben, muss das Gesagte zunächst interpretativ erschlossen werden. Dies geschieht durch die Ableitung von Schlussregeln bzw. Topoi aus impliziten Argumenten. Aufgrund der Vielzahl an Variationen können Argumente nicht singulär verglichen werden, durchaus aber Schlussregeln, die Argumente mit gleicher Schlussfolgerung zusammenfassen.235 Diese Schlussregeln können in der Analyse als knappe Stichworte, Ausdrücke, Kurzsätze oder Regeln formuliert werden. Die Dominanz, das Vorkommen und die Veränderung dieser Muster ermöglichen anschließend einen Vergleich von dominanten Denkmustern über die Zeit und darüber hinaus den Vergleich von Diskursen in verschiedenen Medien. So z. B. der Migrationsdiskurs der Tageszeitungen Dolomiten und Alto Adige.236 Beide Südtiroler Tageszeitungen berichten in unterschiedlichen Sprachen und repräsentieren ihre jeweilige Sprachgruppe und Kultur. Es kann hierbei nicht von einem internationalen Vergleich gesprochen werden, trotzdem handelt es sich um zwei unterschiedliche Kulturen, die zwei unterschiedliche Sprachen sprechen und eine Art Parallelgemeinschaft führen. Dieser interlinguale und doch intranationale Aspekt ist für die Auswertung nicht unbedeutend, da auch die Denkmuster/das kulturelle Gedächtnis237 keine Gemeinsamen sind. Dadurch ergeben sich prototypische Argumente, die nur für eine Sprachgruppe charakteristisch sind.
Für die diskursgeschichtliche vergleichende Argumentationsanalyse in Südtirol gilt also zu klären, ob:
• die beiden Sprachgruppen die gleichen Argumente/Argumentationsmuster verwenden oder nicht,
• es Gemeinsamkeiten/Parallelen in den Diskursen der jeweiligen Sprachgruppen gibt und ob diese zur selben Zeit oder phasenverschoben auftreten,
• es eine Veränderung/einen Wandel im Gebrauch bestimmter Argumentationsmuster gibt und dieser synchron verläuft,
• bestimmte Argumentationsmuster signifikant für die jeweilige Sprachgruppe sind.238
Eine diskurshistorische Analyse – und hier wird auf die Wiener Schule der Diskursanalyse verwiesen – darf neben dem argumentativen Aspekt nicht die Ebene des „nicht-sprachlichen gesellschaftlichen Kontextes“239 vergessen. Die Bedeutung der einzelnen Topoi entsteht nicht nur durch den Gebrauch im Diskurs, sondern auch in Verbindung mit dem relevanten Kontext. Um es einfach auszudrücken: Sprachliche Äußerungen finden an einem bestimmten Ort, zu einer bestimmten Zeit und aus einem bestimmten Grund statt, weshalb gesellschaftliche, historische und kulturelle Kontexte zu beachten sind. Bernd Matouschek unterschiedet hierbei drei Kontexte auf der Makroebene:
• Der diskursive Kontext: die inhaltliche/thematische Verknüpfung der einzelnen Texte (Intertextualität)
• Der soziale Kontext: Um den Bezug zum nicht-sprachlichen Kontext herzustellen, müssen auch verfügbare Sozialdaten miteinbezogen werden (Daten zur Einwanderung, Asylanträge, Arbeitsmarktlage, Lebensverhältnisse der Migrant*innen, Kriminalstatistiken usw.)
• Der historische Kontext: Die untersuchten Texte sind in einer vergangenen Zeit entstanden, weshalb es für die Analyse auch wichtig ist, den relevanten geschichtlichen Hintergrund zu beschreiben.240
Um formale und inhaltliche Merkmale der Zeitungsartikel festzuhalten, wurde zeitgleich mit der Argumentationsanalyse eine Inhaltsanalyse durchgeführt. Denn durch inhaltsanalytische Verfahren können formale Aspekte wie Darstellungsformen, Medientypen oder Zeiträume erschlossen und anschließend graphisch dargestellt werden. Die Inhaltsanalyse ist besonders effizient in der Verarbeitung großer Datenbestände und hilft bei der Strukturierung, Abrufung und Einordnung einzelner Texte. Unterschieden werden muss bei der Methode der Inhaltsanalyse zwischen qualitativen und quantitativen Verfahren.241 Für diese Arbeit wurden quantitative Verfahren angewendet, mit dessen Hilfe folgende Kriterien erfasst wurden:
• Datum (Jahr und Monat)
• Art des Mediums (Dolomiten oder Alto Adige)
• Artikulationsmöglichkeiten von Migrant*innen (Kommen zu Wort bzw. kommen nicht zu Wort)
• Journalistische Form (Nachrichten/Meldungen, Berichte, Reportagen, Dokumentationen, Leitartikel/Kommentare/Glosse, Interviews, Pressemitteilungen, Leserbriefe)
Die Kombination von Diskursanalyse und Inhaltsanalyse hat sich als gewinnbringend gezeigt. Durch die Inhaltsanalyse wurden die einzelnen Artikel mit den notwendigen Metadaten versehen, die für die Strukturierung, Einordnung und Auswertung der Artikel notwendig sind. Außerdem konnten inhaltliche Aspekte wie die Artikulationsmöglichkeiten von Migrant*innen erhoben werden.
3.2 Analysestrategie- und vorgehen: Blended Reading
Blended Reading bezeichnet eine Analysestrategie, die menschliche und computergestützte Kompetenzen kombiniert. Konkret bedeutet das, dass Analyseverfahren aus dem Repertoire des Text Mining mit der Notwendigkeit, Einzeltexte selbst zu lesen, verknüpft werden. Als Text Mining wird hierbei ein weitgehend automatisierter Prozess der Wissensentdeckung auf der Basis computergestützter Programme verstanden. Dieser Prozess steht dem genauen Lesen einzelner Texte und dessen Interpretation gegenüber. Die beiden Politologen, Alexander Stulpe und Matthias Lemke, unterscheiden drei wesentliche Analyseebenen des Blended Reading: Verfahren erster Ordnung sind datenstrukturierend, dienen also der basalen Strukturierung des Textdatenbestandes im Zeitverlauf (z. B. Frequenzanalysen). Verfahren zweiter Ordnung sind quantitativ und eröffnen erste Wege zur inhaltlichen Erschließung des Textmaterials (z. B. Topic Modelle oder Kookkurrenzanalysen). Verfahren dritter Ordnung sind qualitativ und interpretengestützt (manuelle Annotation relevanter Textstellen). Diese Verfahren stehen nicht starr nebeneinander, sondern umschließen sich vielmehr, womit maschinelle und manuelle Analyse in einem ständigen Austausch stehen.242
Analyseprogramm
Um der schieren Anzahl von Zeitungsartikeln gerecht zu werden, ist der Einsatz computerbasierter Programme sinnvoll und notwendig. Für die vorliegende Forschungsarbeit hat sich der Rückgriff auf das qualitative Analyseprogramm ATLAS. ti als vorteilhaft erwiesen, da es eine Kombination von automatisierter und manueller Analyse zulässt, Netzwerkanalysen ermöglicht und einen unkomplizierten Rückgriff auf die Volltexte gestattet. ATLAS.ti erlaubt es, neben der manuellen Kodierung von Texten, komplexe automatisierte Stichwortsuchen durchzuführen.
Für die manuelle Kodierung mit ATLAS.ti wird der Text zunächst in Kategorien eingeordnet und nach Analysefragen sortiert und kodiert. Des Weiteren können die erarbeiteten Konzepte auf der Basis einer netzwerkartigen Datenstruktur gespeichert werden. D. h., Daten werden mithilfe von Kodes miteinander verknüpft. Es können sowohl Verweise auf Datenmaterial als auch Zitate im Datenmaterial erstellt werden. Kodes enthalten Stichwörter und mit Memos werden Textnotizen zugefügt. Auf der Grundlage dieser netzwerkartigen Datenstrukturen und deren Speicherung erhält man eine Gesamtübersicht, die alle Verweise enthält.243
In einem ersten Schritt werden Familien gebildet. Diese Familien fassen alle Artikel einer bestimmten Ordnungsstruktur zusammen (zum Beispiel Jahrgänge oder Themenfelder). In einem weiteren Schritt werden Unterkategorien festgelegt. Hierbei werden die Artikel mit Kodes manuell und/oder mit einer komplexen Stichwortsuche maschinell beschlagwortet. Anschließend können all jene Artikel, die zu einer bestimmten Unterkategorie gehören, mithilfe einer Netzwerkanalyse auf einem Blick erfasst werden. Durch das Query Tool ist es schließlich möglich, komplexere Analysen durchzuführen. Dabei kann nach mehr als einem Kode gefragt werden, etwa nach bestimmten z. B. logisch definierbaren Kombinationen von Kodes.
Vom Korpus zu validen Analyseergebnissen – eine 7-Schritte-Methode
Schritt 1: Frequenzanalyse
Ein erster wichtiger Schritt ist die Herstellung eines sinnvollen Zugangs zum Zeitungskorpus, womit eine Basis für weitere Analyseschritte geschaffen und eine basale Strukturierung des Textdatenbestandes vorgenommen wird.244 Die Frequenzanalyse bietet hierbei einen idealen Einstieg und gibt den Auftakt zur computergestützten Analyse. Frequenzanalysen zählen relative und absolute Häufigkeiten von Zeitungsartikeln bzw. Suchbegriffen und geben dadurch einen Aufschluss über die Anzahl von Texten im Zeitverlauf bzw. über die Verbreitung von bestimmten sprachlichen Mustern.245
Grafik 2 visualisiert die absoluten Häufigkeiten von Zeitungsartikeln des Subkorpus Migration und Südtirol. Hierbei handelt es sich um jenes Korpus, der aus dem Gesamtbestand der digitalisierten Tageszeitung Dolomiten und Alto Adige mittels komplexer Begriffssuche extrahiert wurde.
Grafik 2: Frequenzanalyse aller Zeitungsartikel des Korpus Migration und Südtirol
Der Frequenzgraph bietet erste Einstiegspunkte für das weitere genaue Lesen. Der Graph wirft Fragen auf, die eine weitere genauere Untersuchung einzelner Zeitabschnitte unabdingbar machen. Diese Fragen können wie folgt lauten: Warum wurde 1991/1992 so häufig über Migration berichtet, obwohl zu dieser Zeit nicht mehr als 5.099246 Menschen mit ausländischem Pass in Südtirol lebten? Was ist der Grund für quantitative Unterschiede in der Berichterstattung beider Tageszeitungen (zum Beispiel 2002, 2006 oder 2009) und wann wird besonders selten über Migration gesprochen?
Um Rückschlüsse auf die Verwendung von bestimmten Stichwörtern oder Mehrworteinheiten im Korpus zu erhalten, bietet sich ebenfalls die Durchführung einer Frequenzanalyse an. Ein Beispiel für eine solche Frequenzanalyse ist in Grafik 3 zu finden. Die Grafik zeigt, wann bestimmte Bezeichnungen für Migrant*innen in der deutschsprachigen Tageszeitung besonders häufig auftreten oder wie sich die Verwendung der Begriffe im Laufe der Zeit verändert hat. Die in der Legende angegeben Begriffe umfassen dabei alle Benennungsmöglichkeiten (z. B. Flüchtling*, Aslylwerber*, Geflüchtete* usw.). Treten zu einem Zeitabschnitt Häufungen auf (zum Beispiel 1999 der Begriff Flüchtlinge oder der Anstieg des Begriffs Ausländer und Einwanderer 2007 und 2008) oder zeigen sich deutliche Unterschiede zwischen beiden Tageszeitungen, bietet sich eine genauere Betrachtung durch manuelle Analysen an.
Grafik 3: Frequenzanalyse der Begriffe Einwanderer, Ausländer, Migrant, Saisonarbeiter, Flüchtlinge
Schritt 2: Inhaltliche Auswertung
Nachdem Frequenzanalysen erste Einstiegspunkte und wichtige Hinweise zu signifikanten Diskursen offengelegt haben, kommt es zu ersten inhaltlichen Analysen. Ziel dieser inhaltlichen Erschließung ist die Generierung essentieller Diskurse bzw. Themen, die für die weiteren Analysen von Bedeutung sind. Diese Themen können entweder durch genaues Lesen oder – falls es das gewählte Analyseprogramm zulässt – durch computerbasierte Methoden wie Kookkurrenzanalysen bzw. Topic Modelle erschlossen werden. Im Falle der manuellen Analyse werden die Überschriften der Artikel überflogen und dadurch wesentliche Themen und Entwicklungen festgehalten. Dasselbe Ziel wird mit computerbasierten Methoden angestrebt. Kookkurrenzanalysen können nicht mehr nur einfache Wortfrequenzen aufzeigen, sondern auch die Häufigkeit des gemeinsamen Auftretens mehrerer Worte.247 Mit Topic Modellen können Themen und Trends innerhalb eines Diskurses automatisch identifiziert bzw. auch gezielt ausgeschlossen werden.248 Sowohl Kookkurrenzanalysen als auch Topic Modelle – die für diese Arbeit aus technischen Gründen nicht durchgeführt werden konnten – bedürfen jedoch ebenfalls einer steten Gegenprüfung durch genaues Lesen der Texte.
Eine gezielte Auseinandersetzung mit dem Korpus ist wesentlich für diesen Analyseschritt, denn sie ermöglicht es Forscher*innen, ein Gefühl für das eigene Korpus zu erhalten und Nähe aufzubauen. Das Korpus wirkt besser einschätzbar und den eigenen Analysen wird mehr Vertrauen geschenkt.
Schritt 3: Erstellen von Subkorpora
Jene Informationen, die durch das Lesen von Texten bzw. mithilfe von Kollokationsanalysen/Topic Modellen gewonnen werden, können in einem dritten Schritt für erneute Stichwortsuchen herangezogen werden. Diese Stichwortsuchen dienen dem Erstellen von Subkorpora, die auf ein spezifisches Thema zugeschnitten sind. Das heißt, dem Gesamtkorpus werden kleinere thematische Einheiten entnommen, die abgetrennt vom restlichen Korpus weiteren Analysen zur Verfügung stehen. Möglich sind beispielsweise Eingrenzungen zu Themen wie Integration, Moscheebau oder Flucht etc. Hierfür werden zunächst alle Textstellen autokodiert, die die gesuchten Stichworte enthalten. Im Konkreten heißt dies, dass alle Artikel, die beispielsweise die Begriffe Moschee, Gebetshaus, Minarett enthalten, mit einer auto-coding Funktion beschlagwortet und unter dem Überbegriff Moscheebau zusammengefasst werden. Anschließend können die kodierten Artikel problemlos wiedergefunden werden. Diese so entstandenen Subkorpora bilden nun die Basis für die qualitative Auswertung der Texte.
Schritt 4: Qualitative Auswertung
Das Fundament für die qualitative Auswertung wird durch die Annotation des Textmaterials gelegt. Dabei handelt es sich um einen Analyseschritt, der durch genaues Lesen und durch den Interpreten, die Interpretin zu erbringen ist. Es gibt verschiedene methodische Zugänge, um Zeitungsartikel diskursanalytisch zu erfassen. Eine dieser Möglichkeiten bildet die vergleichende diskurshistorische Argumentationsanalyse, die in dieser Arbeit zur Anwendung gekommen ist. Je nach Themenschwerpunkt werden dabei mehrere Hunderte bis mehrere Tausende Artikel nach Argumentationen durchsucht und im ATLAS.ti Programm manuell annotiert, sprich relevante Textstellen werden mit Kodes versehen. Auch was Argumentationsanalysen anbelangt, gibt es jedoch bereits Ansätze, diese zu automatisieren. Erste Versuche sind zum Beispiel bei Noah Bubenhofer249 zu finden.
Schritt 5: Computergestützte Auswertung und Strukturierung der Codes
Für das weitere Vorgehen sind wiederum computergestützte Verfahren notwendig. Denn die manuell gesetzten Kodes müssen nun strukturiert, organisiert und für die weitere Interpretation zugänglich gemacht werden. Das Query Tool des Analyseprogramms ATLAS.ti enthält Funktionen, die Kodes miteinander verknüpfen, sie aber auch gegenseitig ausschließen können. Abbildung 1 zeigt zum Beispiel ein Netzwerk von Textstellen, die dem Argumentationsmuster der Notwendigkeit (Notwendigkeits-Topos) zugeordnet wurden, zum Subkorpus Moscheebau gehören (Moschee COOCCUR Notwendigkeits-Topos) und Teil von Zeitungsartikeln sind, die der Form nach ein Leserbrief oder ein journalistischer Beitrag sind. Derartige Visualisierungen helfen, den Überblick zu behalten. Ebenfalls erlauben sie einen schnellen Rückgriff auf den Originaltext, um die Textstellen im Kontext analysieren zu können.
Abbildung 1: Computergestützte Strukturierung der Kodes im ATLAS.ti Programm
Schritt 6: Quellenkritische Betrachtung der Textstellen
Spätestens mit dem sechsten Schritt ist das hermeneutische Sinnverstehen und das genaue Lesen des Wissenschaftlers und der Wissenschaftlerin unentbehrlich und der Technik eindeutig Grenzen gesetzt. Nun werden die einzelnen Textausschnitte (annotierten Textstellen) quellenkritisch betrachtet, interpretiert und – was für Diskursanalysen essentiell ist – in den kulturellen, historischen, politischen Kontext eingeordnet. Denn die Bedeutung der Sprache entsteht nicht durch den Gebrauch, sondern erst in Verbindung mit dem relevanten Kontext.
Schritt 7: Synthese
Der letzte Schritt umfasst das Verschriftlichen, sprich die Zusammenführung der einzelnen Erkenntnisse zu einem stimmigen und stringenten Text. Auch im letzten Schritt erscheint es sinnvoll, die durch die maschinellen Analysen erhaltenen quantitativen Daten mit den Ergebnissen der qualitativen Auswertung zu verknüpfen. Das bedeutet, dass Visualisierungen der quantitativen Ergebnisse mit den Interpretationen in Beziehung gesetzt werden. Auch hier kommt es zu einem ständigen Wechsel zwischen den Ergebnissen, die durch das Lesen aus der Ferne sowie durch das genaue Lesen gewonnen werden. Das bedeutet, ebenfalls beim Verschriftlichen der Forschungsergebnisse macht eine Kombination von Mikround Makroanalyse Sinn und vergrößert zudem die Repräsentativität der Analyse.