Kitabı oku: «How to do empirische Sozialforschung», sayfa 2
FF 5.1 : Welche Meinung hat [...] in Bezug auf die eigene, subjektive Wahrnehmung?
Frage 9, Items 9.1, 9.4 und 9.9
FF 5.2 : Welche Meinung hat [...] in Bezug auf formale Aspekte?
Frage 9, Items 9.2 und 9.8
FF 5.3: Welche Meinung hat [...] in Bezug auf inhaltliche Aspekte?
Frage 9, Items 9.3 und 9.5
FF 5.4 : Welche Meinung hat [...] in Bezug auf anwendungsbezogene Aspekte?
Frage 9, Items 9.6 und 9.7
Datenanalytische Grundlagen zur Beantwortung der Forschungsfragen finden sich überblicksmäßig in den Kapiteln „6.2 | Messniveaus (Skalenniveaus) und Datenanalyse‟ ab Seite 97 sowie „8.1.3 | Datenanalyse forschungsfragen-/hypothesenkonsistent planen‟ ab Seite 142 und im Detail bei Braunecker 2021: 191ff.
1.3.2 | Hypothesen – die „Checkliste‟
Hypothesen stellen Annahmen bzw. Behauptungen auf, die auf Basiswissen (aus Vorerhebungen, Literatur usw.) beruhen. Sie sind „vermutete Antworten auf Forschungsfragen‟ (Vgl. Herczeg/Wippersberg 2019: 91). Empirie prüft Hypothesen.
Qualitative Erhebungen (vgl. Seite 22) zielen darauf ab, Hypothesen zu entwickeln, aus gewonnenen Daten neue Hypothesen aufzustellen (zu generieren). Quantitative Erhebungen (vgl. Seite 23) prüfen bereits vorhandene (aus Literatur oder anderen Vorrecherchen erstellte) Hypothesen anhand gewonnener, NEUER Daten.
Hypothesen (und Forschungsfragen) dürfen niemals mit denselben Daten überprüft (beantwortet) werden, aus denen sie erstellt wurden!
Hypothesen sind – in der empirischen Sozialforschung – Vermutungen über Ergebnisse von Datenerhebungen. Eine Hypothese formuliert das, was untersucht werden soll, als (wissenschaftlich) theoriegestützt überprüfbare Aussage. Damit ihre überprüfung klar definiert und gut möglich ist, sollten Hypothesen möglichst kurz und leicht fassbar ausgedrückt sein.
In den Sozialwissenschaften sind Hypothesen fast immer probabilistisch: Sie sind Wahrscheinlichkeitsaussagen und erheben damit keinen Anspruch auf Gesetzmäßigkeit.9 [17]
Angenommen, deutsche Studien haben ergeben: Menschen, die gerne lesen, konsumieren eher Fachliteratur als andere. Eine österreichische Studie könnte somit – unter ähnlichen Bedingungen – die Hypothese aufstellen: Auch in österreich konsumieren Personen, die generell gerne lesen, eher Fachliteratur als andere. Die Wahrscheinlichkeit, in der österreichischen Bevölkerung Fachbuchkonsumierende zu finden, müsste also bei jenen Personen, die generell gerne lesen, größer sein, als bei den anderen, die nicht gerne lesen.
Warum wird hier von Wahrscheinlichkeiten gesprochen? In der realen Welt wird es Personen geben, die gerne lesen und dementsprechend auch Fachbücher lesen. Aber auch bei Personen, die NICHT gerne lesen, wird Fachbuchkonsum feststellbar sein. Umgekehrt werden andere zwar gerne lesen, aber keine Fachliteratur: Nicht alle, die gerne lesen, müssen „automatisch‟ auch Fachbücher lesen – nur: Die Wahrscheinlichkeit ist einfach größer, in der Gruppe gerne Lesender Personen zu finden, die auch Fachbücher lesen.
Derartige Wahrscheinlichkeitsaussagen könnten zunächst als „Hypothese‟ in einem eher noch allgemeinen, nicht sehr wissenschaftlichen Sprachgebrauch artikuliert werden:
In der österreichischen Wohnbevölkerung gibt es einen Zusammenhang zwischen Leseaffinität und Fachbuchkonsum.
Diese Hypothese ist ungerichtet. Sie vermutet einen Zusammenhang, gibt aber nicht an, welchen. Es könnte somit sein, dass Menschen, die gerne lesen, auch mehr bzw. öfter Fachliteratur lesen als andere. Ebenso möglich wäre aber auch: Menschen, die gerne lesen, lesen lieber andere Texte – also eher weniger bzw. seltener Fachbücher als andere.
Ein wissenschaftliches Wording geht über reine Aussagen hinaus. Bei Hypothesen verbreitet sind Konditional- („Wenn-Dann‟) und Vergleichssätze („Je-Desto‟). Die obenstehende Hypothese (H) – nach wie vor ungerichtet, aber wissenschaftlicher – formuliert: 10
H I: Wenn Personen gerne lesen, dann unterscheiden sie sich in ihrem Fachbuch-Konsum von anderen Personen.
Fragen 1 und 3
Aus einer hingegen gerichteten Betrachtung könnte folgende Hypothese resultieren:
H I: Wenn Personen gerne lesen, dann lesen sie eher Fachliteratur, als wenn sie nicht gerne lesen.
Fragen 1 und 3
Hier wird – präziser – auch die RICHTUNG des vermuteten Zusammenhangs angegeben: Gerne lesen bedeutet eher auch Fachbuch lesen (und umgekehrt).
Beide Hypothesen – die gerichtete und ungerichtete – sind inhaltliche Hypothesen und wären in einer quantitativen Bevölkerungsumfrage mit der ersten und dritten Frage des Fragebogens auf Seite 101f. (vgl. Abbildung 27 und 28, Anmerkungen zum Fragebogen in FUßNOTE 6 auf Seite 16) abgedeckt. [18]
Hypothesen beinhalten den vermuteten Zusammenhang von zumindest zwei Merkmalen (vgl. Herczeg/Wippersberg 2019: 92; Karmasin/Ribing 2019: 90).
Um Hypothesen datenanalytisch exakt prüfen zu können, gibt es auch statistische Hypothesen: Diese fokussieren bereits auf die konkrete Operationalisierung – z.B. auf die Art und Formulierung der Fragen in einem Fragebogen – und damit in weiterer Folge auf die spätere Technik der Ergebnisauswertung. Statistische Hypothesen dienen der Signifikanzprüfung und könnten im angeführten Beispiel lauten:
Ho: Statistische Nullhypothese: Der Prozentanteil von Personen, die jährlich Fachbücher lesen, ist unter jenen, die gerne lesen, gleich (ähnlich) wie unter jenen, die nicht gerne lesen.
Ha bzw. Hi: Statistische (gerichtete) Alternativhypothese: Der Prozentanteil von Personen, die jährlich Fachbücher lesen, ist unter jenen, die gerne lesen, höher als unter jenen, die nicht gerne lesen.
Eine Nullhypothese geht von KEINEM (realen) Unterschied zwischen Vergleichsgruppen und damit keinem Merkmalszusammenhang aus. Die Alternativhypothese vermutet EINEN Unterschied zwischen Vergleichsgruppen: Sie geht von einem Zusammenhang zwischen einem unabhängigen (oft gruppenbildenden) Merkmal (im obigen Beispiel: Personen, die gerne lesen) und einem abhängigen Merkmal (im Beispiel: Personen, die Fachbücher konsumieren) aus. Oft lässt sich nicht festlegen, welches Merkmal das abhängige und welches das unabhängige ist – dann muss der Forschungskonnex entscheiden.11
Weitere – inhaltliche und statistische – Hypothesen wären folgendermaßen formulierbar:
HII: Wenn Personen gerne lesen, dann lesen sie jährlich mehr Bücher, als wenn sie nicht gerne lesen.
Fragen 1 und 16
Ho: Statistische Nullhypothese: Der Mittelwert der jährlichen Bücher-Lesemenge ist bei jenen, die gerne lesen, gleich groß (ähnlich) wie bei jenen, die nicht gerne lesen.
HA bzw. H1: Statistische (gerichtete) Alternativhypothese: Der Mittelwert der jährlichen Lesemenge an Büchern ist bei jenen, die gerne lesen, höher als bei jenen, die nicht gerne lesen.
H III: Je älter Personen sind, desto mehr Bücher pro Jahr lesen sie.
Fragen 14 und 16
Ho: Statistische Nullhypothese: Es gibt keinen zahlenmäßigen Zusammenhang (keine Korrelation) zwischen Alter und der Anzahl gelesener Bücher pro Jahr.
HA bzw. H1: Statistische (gerichtete) Alternativhypothese: Es gibt einen positiven zahlenmäßigen Zusammenhang (positive Korrelation) zwischen Alter und der Anzahl gelesener Bücher pro Jahr.
H II und H III in sind beide gerichtet und könnten mit den Fragen 1, 14 und 16 des Fragebogens auf Seite 101f. operationalisiert werden. [19]
Wie Forschungsfragen können – und sollten ‒ auch thematisch „breitere“ Hypothesen in ihre Sub-Details „zerlegt‟ bzw. untergliedert werden. In Analogie zu den Forschungsfragen erhöht das bei der späteren Datenanalyse deutlich deren Passgenauigkeit.
Möglich wäre eine weitere inhaltliche, ungerichtete Haupt-Hypothese – die korrespondierenden Fragebogen-Fragen sind wieder mit gekennzeichnet:
H IV: Wenn Personen Bücher [lieber in der Buchhandlung kaufen], dann haben sie generell [andere Anforderungen an Fachbücher, als wenn sie sie lieber im Versandhandel kaufen].
Frage 4 und Frage 6, alle Items
Setzen sich die durch die Hypothese angesprochenen „Anforderungen‟ aus vier Dimensionen zusammen – z.B. persönliche (subjektive) Wahrnehmung, formale Aspekte, inhaltliche, und anwendungsbezogene Aspekte, wären folgende Detaillierungen möglich:
H IV .1 : Wenn Personen [...], dann haben sie in Bezug auf ihre persönliche bzw. subjektive Wahrnehmung [...].
Frage 4 und Frage 6, Items 6.1, 6.4 und 6.9
H IV.2: Wenn Personen [...], dann haben sie in Bezug auf formale Aspekte [...].
Frage 4 und Frage 6, Items 6.2 und 6.8
H IV.3: Wenn Personen [...], dann haben sie in Bezug auf inhaltliche Aspekte [...].
Frage 4 und Frage 6, Items 6.3 und 6.5
H IV.4: Wenn Personen [...], dann haben sie in Bezug auf anwendungsbezogene Aspekte [...].
Frage 4 und Frage 6, Items 6.6 und 6.7
Generell müssen bzw. sollten Hypothesen – wie bereits weiter oben erwähnt – als „Wenn- Dann‟- oder „Je-Desto‟-Regeln formuliert werden.12 Der Vorteil dieser Wordings liegt vor allem auch in der größeren Klarheit für die spätere Datenanalyse zur Hypothesenprüfung (vgl. überblicksmäßig die Kapitel „6.2 | Messniveaus (Skalenniveaus) und Datenanalyse‟ ab Seite 97 sowie „8.1.3 | Datenanalyse forschungsfragen-/hypothesenkonsistent planen‟ ab Seite 142 und im Detail bei Braunecker 2021: 191ff.).
Hypothesen formulieren allgemein und können deshalb niemals vollkommen verifiziert werden: Die vorhandenen Daten erlauben es höchstens, sie „momentan zu stützen‟, vorläufig zu verifizieren (vgl. Herczeg/Wippersberg 2019: 94): Denn niemals könnten alle dazu notwendigen denkbaren Möglichkeiten der überprüfung weltweit, in allen Zielgruppen und JEDEM Zusammenhang – also sämtlichen je existierenden Fällen – durchgeführt werden.
Häufig werden zu Beginn der Auseinandersetzung mit einem wissenschaftlichen Thema einfach Annahmen als Hypothesen formuliert – z.B.:
österreichische Jugendliche kaufen Fachbücher lieber im Versandhandel.
75% der österreichischen Jugendlichen kaufen Fachbücher lieber im Versandhandel. [20]
Österreichische Jugendliche im Alter von 18 bis 25 Jahren kaufen Bücher mehrheitlich lieber im Versandhandel.
Um derartige Behauptungen „wissenschaftstauglich‟ zu machen, sollten sie unbedingt einer methodischen „übersetzung‟ zugeführt werden. Eine bessere Formulierung, mit Einbeziehung zumindest zwei dazu benötigter Merkmale (vgl. Herczeg/Wippersberg 2019: 92; Karmasin/Ribing 2019: 90), könnte lauten:
Wenn in österreich lebende Jugendliche im Alter von 18 bis 25 Fachbücher kaufen, dann kaufen sie diese eher lieber im Versandhandel als im stationären Handel.
Wie soeben erläutert, weisen Thema, Erkenntnisinteresse(n), Forschungsfrage(n) und/oder Hypothesen der (den) am effizientesten einzusetzenden qualitativen oder quantitativen Forschungsmethode(n) (vgl. Kapitel „2 | Qualitative und quantitative Forschungsmethoden‟ ab Seite 22) den Weg.
Zusatzinformationen und weiterführende Literatur zu diesem Kapitel:
Herczeg, Petra/Wippersberg, Julia (2019): Kommunikationswissenschaftliches Arbeiten. Eine Einführung. Wien: facultas. Thema, Erkenntnisinteresse: Seite 71-83; Forschungsfragen: Seite 8590; Hypothesen: Seite 91-109.
Karmasin, Matthias/Ribing, Rainer (2019): Die Gestaltung wissenschaftlicher Arbeiten. Ein Leitfaden für Facharbeit/VWA, Seminararbeiten, Bachelor-, Master-, Magister- und Diplomarbeiten sowie Dissertationen. 10., überarbeitete und aktualisierte Auflage 2019. Wien: facultas. Thema: Seite 21-25; Forschungsfrage, Unterfragen: Seite 25-29.
[21]
2 Die Ausführungen in diesem Kapitel basieren auf Anleitungen zum wissenschaftlichen Arbeiten. Dabei liegt der Fokus auf „Wissenschaftlichkeit‟ in Verbindung mit empirischer Sozialforschung.
3 Karmasin/Ribing 2019: 25f. bezeichnen bereits das Erkenntnisinteresse als „Forschungsfrage‟.
4 In der Literatur werden Programmfragen auch als Vertiefung (Konkretisierung) von Forschungsfragen beschrieben (vgl. Brosius/Haas/Koschel 2016: 96): Sie verfolgen den Zweck, Erkenntnisinteressen zu präzisieren – wie die Detaillierung einer zentralen Forschungsfrage in mehrere Sub-Forschungsfragen. Nützliche Tipps zu den Möglichkeiten, Forschungsfragen zu formulieren, finden sich bei Karmasin/Ribing 2019: 25ff. Detaillierter gehen Herczeg und Wippersberg auf Forschungsfragen (vgl. Herczeg/Wippersberg 2019: 85ff.) und Hypothesen (ebd.: 91ff.) ein.
5 vgl. dazu die Kapitel „6.2 | Messniveaus (Skalenniveaus) und Datenanalyse‟ ab Seite 97, „7 | Leitfaden, Fragebogen‟ ab Seite 110 sowie „8.1.3 | Datenanalyse forschungsfragen-/hypothesenkonsistent planen‟ ab Seite 142.
6 Der Beispielfragebogen dieses Buchs stellt keinen Anspruch auf „echte‟ Wissenschaftlichkeit: Die Formulierung der Fragen ergab sich NICHT aus zuvor erfolgter Literaturrecherche. Ihre Erstellung erfolgte „frei‟ durch den Autor – wenn auch unter Einbeziehung willkürlicher schriftlicher Basisbefragungen von Studierenden verschiedener Studienrichtungen und Fortschritts-Phasen im Studienplan. Der Fragebogen ist aus unterschiedlichen empirischen Blickwinkeln zu betrachten: Er dient der möglichst praxisnahen Veranschaulichung von (technischer) Operationalisierung von Forschungsfragen bzw. Hypothesen, Skalenniveaus, Arten der Frageformulierung sowie möglichst vielen Formen der Datenanalyse. Als Grundlage der BUCHdaten bildet er auch die Basis aller datenanalytischen Ausführungen bei Braunecker 2021. Fragebogen und BUCHdaten sind unter „Downloads‟ auf howtodo.at bzw. bei utb-shop/de verfügbar.
7 Ab dieser Stelle wird in diesem Kapitel zur Demonstration technisch und nicht real theoriegestützt argumentiert.
8 Mit „Leseaffinität‟ ist hier „Hinwendung, Neigung zum Lesen‟ (= „gerne lesen‟) gemeint.
9 Darin unterscheiden sich sozialwissenschaftliche Fragestellungen von naturwissenschaftlichen: Dort werden oft deterministische Hypothesen („in 100% aller Fälle‟, z.B. physikalische Gesetze) aufgestellt: „Wenn eine Person ein (unverpacktes) Buch ins Wasser fallen lässt, dann wird es nass.‟
10 Grundsätzlich setzt jede der hier angeführten Formulierungen eine vorangegangene (Literatur-)Recherche voraus, aus der die jeweilige hypothetische Annahme abgeleitet werden kann. Zur leichteren Lesbarkeit wird in den folgenden Beispielen auf die Präzisierung, auf WEN (z.B. österreichische Wohnbevölkerung) sich die jeweilige Hypothese bezieht, verzichtet. Diese (wiederholte) Präzisierung ist in der Realität einer wissenschaftlichen Arbeit aber ratsam.
11 Die theoretischen und datenanalytischen Grundlagen zur überprüfung statistischer Hypothesen werden im Detail bei Braunecker 2021: 77ff. behandelt.
12 Ob sie das tatsächlich müssen/sollten oder auch Formulierungen als „noindent1e‟ Aussagesätze möglich sind, wird in der wissenschaftlichen Praxis nicht ganz übereinstimmend betrachtet.
2 | Qualitative und quantitative Forschungsmethoden
… in diesem Kapitel geht’s um:
● Qualitativ forschen: Inhaltliche Tiefe steht im Vordergrund • „Warum“, beschreiben, Motive • bei neuen Themen • zur Erforschung von Dimensionen • vor allem individuelle und psychologische Aspekte • überschaubare Erhebungsanzahl • kein einheitlicher Fragebogen (dafür Leitfaden) • verbalisierte Ergebnisse • KEINE Statistik |
● Quantitativ forschen: Ergebnisse auf zahlenmäßig breiter Basis • Abtestung „bekannter“ Zustände • zahlenmäßige Interpretationen • große Menge an Erhebungen • standardisierter Fragebogen • Prozentzahlen, Mittelwerte • Statistik |
● Inhaltsanalyse: Zählen oder Bewerten von Aussagen oder anderen klar definierten Inhalten • in Print-, elektronischen und Online-Medien • Codierschema • wenn automatisiert: „Sentiment-Problem“ |
● Beobachtung: objektiviertes Erfassen von Situationen, Handlungen und Verhaltensweisen • Beobachtungsbogen • Eyetracking, Mystery-Tests |
● Fokusgruppe: Diskussionsrunde kleiner Gruppen (sechs bis 12 Personen) • moderiert • Leitfaden • Dauer ein bis zwei Stunden |
● Qualitative Befragung: Einzelgespräche aus Befragtenperspektive • überwiegend freier Gesprächsverlauf oder zumindest frei formulierbare Fragen • ausschließlich oder überwiegend offene Fragen |
● Quantitative Befragung: (voll) standardisierte Interviews • (fast) ausschließlich geschlossene Fragen • KEIN Spielraum für die Befragerin oder den Befrager • F2F, PAPI, CAPI, CATI, CAWI, WATI • Mehrthemenumfrage MTU („Omnibusbefragung“) • Hybrid- bzw. Mixed-Mode-Befragungen • Panel, Tracking |
● Experiment: Analyse von Ursache-Wirkung-Beziehungen • Versuchs- und Kontrollgruppe |
Thema, Erkenntnisinteresse(n), Forschungsfragen und/oder Hypothesen geben vor13, ob eine Erhebung qualitativ, quantitativ oder in Kombination erfolgt. Worin unterscheidet sich nun das Wesen qualitativer von quantitativer Empirie?
2.1 | Qualitative Methoden
Qualitative Methoden gehen der Frage nach einzelnen Motiven und Inhalten nach. Sie beschreiben inhaltliche Dimensionen verbal, oft auch interpretativ, erforschen Werte, [22] Gefühle, Details, das Warum bzw. Wie von „Tun“. Im Vordergrund stehen weniger Erhebungsmengen als vielmehr inhaltliche Tiefe.
Qualitative Empirie beschäftigt sich deshalb mit einer eher geringeren Anzahl an Untersuchungsobjekten, die sie dafür aber sehr umfangreich und im Detail beleuchtet.
Dazu werden eher „offene‟, in Details noch flexibel gestaltbare Erhebungsinstrumente eingesetzt: Sie können direkt während ihres Einsatzes noch feinjustiert werden.
So skizziert z.B. ein Gesprächsleitfaden bloß die Inhalte eines qualitativen Interviews. Wortwahl und Abfolge der Themen können dem Gesprächsverlauf angepasst werden.
Statistiken, große Stichproben und Signifikanzprüfungen sind in der qualitativen Forschungswelt kein oder kaum Thema. Prozent- und Mittelwerte sowie andere Maßzahlen finden sich hier nur am Rande.
Qualitative Erhebungen beschäftigen sich z.B. mit dem Warum von (Kauf-)Entscheidun- gen, mit „im Hinterkopf schlummernden‟ Motiven. Andere Ansätze erkunden bzw. detaillieren Qualitäts- oder Kundenzufriedenheitsdimensionen oder analysieren Images. Auch Expertengespräche sind fast immer qualitativ angelegt. Ebenso basiert die Erforschung von Ursachen jeglicher Art fast immer auf qualitativer Empirie. Nicht zuletzt beschreitet die beschreibende Bewertung von Aussagen und Inhalten qualitative Wege.
In der qualitativen Erhebungswelt geht es um Vorstudien, Hypothesenfindung, vertiefte Problem(er)kenntnis und Detailinformation. Anlassfall können - v.a. in der Wirtschaft - auch kurzfristig benötigte dringende Entscheidungshilfen sein.14
Qualitative Ansätze werden oft auch mit quantitativen Verfahren kombiniert.
Analysen der Kundenzufriedenheit z.B. liefern meist Zufriedenheitskennzahlen. Oft sind diese Kennzahlen (noch) nicht erhebbar, weil niemand weiß, welche überhaupt die richtigen sind. Was Kundenzufriedenheit jeweils ausmacht, kann im Vorfeld durch qualitative Forschung erhoben werden. Das werden bei Autos wohl ganz andere Kriterien sein als etwa bei Schokolade, Waschmittel oder einem speziellen Dienstleistungs-Startup.
Qualitative Forschung hat ihren Platz aber nicht nur VOR, sondern auch NACH quantitativen Erhebungen: Auf diese Weise werden quantitative Zahlen zusätzlich mit Inhalten belegt.
Nach einer quantitativen Imageanalyse kann es z.B. von Interesse sein, im Nachhinein die besten (oder schlechtesten) Imagekriterien zu detaillieren: Was bedeutet z.B. ein guter Wert bei „modern‟? Woraus leitet sich empfundene Modernität inhaltlich genau ab usw.?
2.2 | Quantitative Methoden
Quantitative Methoden verfolgen den Ansatz zu zählen: also nicht verbal auszuformulieren, sondern rein zahlenmäßig zu quantifizieren und daraus Interpretationen abzuleiten.
[23]
Quantitative Forschung entdeckt keine (weiteren) neuen Zugänge zu einem Thema (höchstens am Rande): Hier wird bereits „Bekanntes‟ erforscht, die Antwortalternativen bzw. möglichen Ergebnisausprägungen sind bereits vor der Erhebung fixiert.
Um gut quantifizieren zu können, kommen meist große Stichproben (oder Vollerhebungen) zum Einsatz.
Quantitative Erhebungsinstrumente erlauben nur sehr wenig, meist sogar überhaupt keinen Spielraum während der Erhebung.
Ein standardisierter Fragebogen z.B. wird jeder befragten Person in völlig identer Form vorgelegt (vorgelesen). Die Wortwahl und Abfolge der Themen sind streng vorgegeben und dürfen nicht variiert werden.
Die Analyse quantitativer Daten wirft Häufigkeiten, Prozentwerte, Mittelwerte und weitere statistische Maßzahlen aus. Oft mündet sie auch in detaillierte und berechnungsintensivere Statistiken und Signifikanzprüfungen.
Im Zuge quantitativer Forschung werden konkret ausgewählte Merkmalsbeschreibungen systematisch einem zuvor festgelegten Kategoriensystem zugeordnet und auf zahlenmäßig breiter Basis gesammelt. Hier steht das Bestreben im Vordergrund, möglichst klare und eindeutige Informationen zu generieren. „Nackte‟ Zahlen werden erhoben, ausgewertet und interpretiert, signifikante Unterschiede zwischen einzelnen Menschen oder Erhebungsgegenständen gesucht, erklärt und gedeutet.
Eine Bildungseinrichtung untersucht - über ein Jahr - die Klickraten auf ihre unterschiedlich gestalteten werblichen und redaktionellen Beiträge im Internet. Die Zahlen sollen eine Entscheidungsgrundlage liefern, wo und in welcher Form Inhalte positioniert werden müssen, um größtmögliche Reichweiten zu erzielen.
Ein Unternehmen leitet aus der Anzahl der mit konkreten Detailaspekten (sehr) zufriedenen Kundinnen und Kunden wertvolle Qualitätskennzahlen ab.
Eine Studierende spricht im Rahmen ihrer Masterarbeit mit vielen Expertinnen und Experten. Sie geht aber nicht auf inhaltliche Details des „Expertentums‟ ein. Sie quantifiziert ausschließlich, wie viele sich mit welchen konkreten Themendetails auseinandersetzen.
Das Ziel ist erreicht, wenn das quantitativ produzierte meist umfangreiche Datenmaterial übersichtlich und anschaulich analysiert werden konnte: Wie oft treten Meinungen, Verhaltensweisen, Aussagen, Zustände (in welchen graduellen Ausprägungen) auf?15
Quantitative Analysen erfolgen meist mit spezifischer Software: Mit dem sehr gebräuchlichen Auswertungsprogramm SPSS (Version 27) beschäftigt sich im Detail Braunecker 2021.
Abbildung 2 auf Seite 25 gibt einen zusammenfassenden überblick über das Wesen der „inhaltlichen‟ gegenüber der „zählenden‟ Forschungswelt. [24]
Abbildung 2: Qualitative und quantitative Methoden
In den folgenden Abschnitten dieses Kapitels werden die gebräuchlichsten Arten und Anwendungsfälle qualitativer und quantitativer Forschungsmethoden überblicksmäßig skizziert. Die Reihenfolge der Darstellung erfolgt aufgrund mannigfaltiger Kombinations- und Anwendungsmöglichkeiten der einzelnen Methoden willkürlich.
2.3 | Inhaltsanalyse
Inhaltsanalysen erforschen Kommunikationsinhalte, indem sie Aussagen und Bedeutungen untersuchen. Gegenstand einer Inhaltsanalyse können (Zeitungs-)Texte, Bilder, Radio- und Fernsehsendungen, Webseiten, Social Media, Bücher, Filme, Plakate, Firmenlogos, Firmenauftritte usw. sein. Die Basis der Analyse stellen von Personen geäußerte oder in Medien publizierte schriftliche, bildliche oder akustische Inhalte dar.
Inhaltsanalysen vereinen oft qualitative und quantitative Elemente: Neben dem Zählen des Auftretens von Aussagen, Bildern, Artikellängen, Artikelthemen etc. (quantitative Inhaltsanalyse) erfolgt oft auch eine bedeutungsmäßige Analyse der gezählten Wortinhalte (qualitative Inhaltsanalyse).
So könnte eine Inhaltsanalyse Artikel (aller Tageszeitungen eines Landes in der ersten Januarwoche eines bestimmten Jahres) zum Thema „Klimaveränderung‟ untersuchen. Sie könnte das Vorkommen des Wortes „Klimawandel‟ zählen und zwischen Boulevard- und Qualitätspresse vergleichen (quantitative Inhaltsanalyse). Wenn in weiterer Folge aus dem Artikelkontext heraus zusätzlich auch noch eine Bewertung erfolgt, ob der Beitrag [25] verharmlosend, sachlich neutral oder alarmierend verfasst wurde, wird damit auch eine qualitative Inhaltsanalyse durchgeführt.
Ein sehr wichtiges Element jeder Inhaltsanalyse ist ein gutes Codierschema. Darin müssen alle zu analysierenden Dimensionen und deren Ausprägungen klar definiert werden.

Abbildung 3: Beispielhaftes Codierschema für eine Inhaltsanalyse
Abbildung 3 zeigt als Beispiel einen konstruierten (zur Veranschaulichung dienenden) Auszug aus einem Codierschema einer quantitativen Inhaltsanalyse. Das Codierschema ist konsistent zum Codebuch in Abbildung 4 ab Seite 26 und wurde mit Excel angelegt.
Bevor die Inhaltsanalyse startet, ist es sinnvoll, das Codierschema bei wenigen Analyseelementen „auszuprobieren‟ (Pretest). Treten dabei noch Probleme (Unklarheiten) auf, sollte das Schema unbedingt nachjustiert werden.
Sehr bedeutsam ist auch, dass alle, die an der Inhaltsanalyse mitarbeiten, die Inhalte nach denselben Grundsätzen im Codierschema erfassen bzw. eintragen: Es muss unbedingt sichergestellt sein, dass verschiedene Menschen die Inhalte in dieselben Kategorien einordnen (INTER-Coder-Reliabilität). Zur überprüfung der Inter-Coder-Reliabilität gibt es eigene Testverfahren (z.B. der „Holsti-Test‟ auf Seite 107 im Kapitel „6.5.2 | Reliabilität‟). Außerdem muss jede Person, die heute Inhalte klassifiziert, dieselben Inhalte auch morgen oder übermorgen noch ident erfassen (INTRA-Coder-Reliabilität).
Zur Sicherstellung einer geregelten und reliablen Datenerfassung ist es unbedingt erforderlich, noch vor Beginn der Codierarbeit ein sogenanntes Codebuch zu erstellen.
[26]
Dort werden die Analyseeinheiten16 und Analyseinhalte im Detail definiert und alle Codierungsregeln festgelegt.
Die folgende Abbildung zeigt Auszüge aus einem 20-seitigen(!) Codebuch.
Die Analyse beschäftigte sich mit der Berichterstattung österreichischer Printmedien über Public Relations. Das Codebuch zur Analyse wurde in Anlehnung an Kerl 2007 und Bur- KART/RUßMANN 2010 erstellt.17 Für die hier beispielhafte Abbildung erfolgten geringfügige Adaptierungen. [27]


Abbildung 4: Codebuch einer Inhaltsanalyse (Auszüge, adaptiert) [28]
In heutiger Zeit sind sehr viele Bild- und Textelemente digital verfügbar. Ob es sich dabei um massenmediale Kommunikation oder zwischenmenschliche Interaktionen in Social Media handelt: Analysen gespeicherter, allgemein zugänglicher Inhalte sind weit verbreitet.
Eine Institution möchte z.B. in Erfahrung bringen, wie sich eine neu eingeführte Dienstleistung im Netz verbreitet, wie sie angenommen, wie darüber kommuniziert wird.
Menschen, die das Netz themenbezogen durchsuchen, benötigen Zeit, der monetäre Aufwand ist hoch. Da liegt es nahe, stattdessen Suchsoftware18 einzusetzen. Eine aktuell sehr große Vielfalt an Textanalyse-Tools bietet die Möglichkeit, das Netz (oder Datenbanken) nach definierten Begriffen (Keywords) zu durchforsten.
Automatisierte Textanalysen können mit wenig Aufwand gesuchte Begriffe, Textstellen usw. (global) auffinden19 und automatisiert Ergebnisberichte mit Häufigkeiten erstellen.
Wie oft z.B. eine neue Marke in den Sozialen Netzwerken diskutiert wird, kann relativ einfach automatisiert gezählt werden.
Wer jedoch (auch) Bilder analysieren bzw. Inhalte regionalisiert betrachten oder gar bewerten möchte, stößt schnell an die Grenzen der Automatisierungen: Vertiefende Forschung ist ohne intensiveres menschliches Zutun nicht derart einfach durchführbar.
Rein technische Sentiment-Analysen zur Bedeutung von Inhalten sind bereits auf syntaktisch „einfachere‟ englische Texte angewandt schwierig umsetzbar. Für die deutsche Sprache sind sie nur schwer realisierbar, weil stark fehlerbehaftet.20
Softwarealgorithmen versuchen hier, über das gemeinsame Auftreten von Worten „ähnlichkeitscluster‟ zu definieren und Texte nach diesen zu gruppieren.21 Das scheitert aber oft am richtigen Interpretieren von Bedeutungszusammenhängen oder am Bildmaterial.
Einem „dummen‟Programm mittels Definitions-Regeln beizubringen, dass die Aussage in einem Online-Forum „DAS ist ja mal eine gute Marke‟ nicht unbedingt positiv gemeint sein muss, stellt eine Herausforderung dar. Ist die zitierte Aussage im Kontext wirklich positiv gemeint oder stellt sie eine negative, von Zynismus gefärbte äußerung dar? [29]
Auch gepostete Bilder können positiv oder negativ konnotiert sein, was nur menschliche Intelligenz feststellen kann.
Auto-Textanalysen finden sich in der heutigen deutschsprachigen Forschungspraxis deshalb vor allem in Form von Wortschatzanalysen (vgl. Brosius/Haas/Koschel 2016: 173f.)22 oder als Textauffinder. Bewertende Inhaltsanalysen führen im Idealfall nach wie vor geschulte Codierende durch.
2.4 | Beobachtung
Bei einer Beobachtung werden Situationen, Handlungen und Verhaltensweisen dort erfasst, wo sie geschehen. Beobachtungen können Einzelpersonen, miteinander agierende Gruppen oder auch Dinge (z.B. Gegenstände) betreffen.