Kitabı oku: «Die Befragung», sayfa 3
Für die »quasi-nomothetische« Vorgehensweise steht die Methode der qualitativen Inhaltsanalyse12, bei der induktiv (vom Einzelfall ausgehend) und iterativ (schrittweise) Kategorien13 gebildet werden (vgl. Kvale / Brinkmann 2009: 201208). Die Analyse kann in zwei Richtungen erfolgen: Durch die Abstrahierung der Aussagen der Befragten werden diese induktiv mehrdimensional typologisiert (analog dem statistischen Verfahren der Clusteranalyse). Durch die Vorgabe bestimmter soziodemografischer oder theorierelevanter Merkmale werden die Befragten in Gruppen unterteilt und in der Auswertung wird nach Ähnlichkeiten und Unterschieden in Bezug auf weitere relevante Merkmale gesucht und entspricht damit in etwa der Logik des statistischen Verfahrens der Varianzanalyse (vgl. Kelle / Kluge 2010: 38f., 43ff.).
[28]Eine »konsequent-idiografische« Vorgehensweise verfolgen diverse Methoden der Textanalyse wie die Ethnografie, die Konversationsanalyse oder hermeneutische Verfahren des Textverstehens (vgl. Titscher et al. 1998: 107ff., 121ff., 142ff., 247ff.). Diese Verfahren beziehen den kulturellen Kontext und die konkrete Entstehungssituation des Textes im Interviewprozess ein und orientieren sich an der Sequenzialität des Textes.
Schließlich werden mit der Verwendung der Forschungsphilosophien auch unterschiedliche Vorstellungen von Gesellschaft verbunden: Dienen die Ergebnisse standardisierter Forschung eher der sozialtechnologischen Veränderung von Gesellschaft, weil der Auftraggeber allein über sie verfügt, wird mit qualitativer Forschung oft eine emanzipatorische Absicht verbunden; dies kommt besonders in der »Aktionsforschung« (»Handlungsforschung«) zum Ausdruck, bei der die Befragten in die Lage versetzt werden sollen, ihre Probleme (mit Unterstützung des Forschers) selbst zu lösen (vgl. Heinze 2001: 80ff.).14
Allerdings müssen die Grenzen zwischen qualitativen und quantitativen Methoden nicht scharf gezogen werden, wenn man die Differenzen nicht grundsätzlich, also forschungsphilosophisch-methodologisch, sondern abhängig von der Forschungsfrage, also pragmatisch-technisch, behandelt.15 Neben dem allgemeinen Vergleich in diesem Exkurs werden in den weiteren Kapiteln konkrete standardisierte und offene Verfahren beschrieben (→ Kapitel 3), die Vorteile und Nachteile offener Fragen im Vergleich zu Fragen mit vorgegebenen Antworten (→ Kapitel 5.4.) und die Standardisierung der Befragungssituation (→ Kapitel 6.3 und 6.4) diskutiert sowie die unterschiedliche Eignung quantitativer und qualitativer Verfahren bei der Befragung spezieller Populationen (Kinder, Alte, Ausländer, Elite-Personen) erörtert (→ Kapitel 7.4).
1 Jacob / Eirmbter / Décieux (2013: 6ff.) setzen den Beginn der Umfrageforschung zeitgleich mit der Quantifizierung und sogar mit der Entstehung der Sozialwissenschaften selbst an, in der Neuzeit also bereits im 17. Jahrhundert. Das Aufkommen statistischer Analysen kann dabei nur eine notwendige, aber keine hinreichende Bedingung für die Entwicklung der Methode Befragung sein, denn Daten lassen sich auch aus Dokumenten erfassen. Dem Fazit der beiden Autoren kann dagegen zugestimmt werden: »Umfrageforschung hat keine demokratisch verfassten Gesellschaften zur Folge, aber Umfrageforschung setzt demokratisch verfasste Gesellschaften voraus.« (Jacob / Eirmbter / Décieux 2013: 20)
2 Die Zeitschrift »Planung und Analyse« dokumentierte 1983 den »Fragebogen für Arbeiter«, den Karl Marx im Jahr 1880 in 25.000 Exemplaren als Beilage einer Zeitschrift in Frankreich verbreitete. Solche Befragungen zur wirtschaftlichen Lage der Arbeiter oder der Armen wurden im 19. Jahrhundert und bereits vorher durchgeführt (vgl. Noelle-Neumann / Petersen 1996: 620ff.; Diekmann 2011: 99ff.).
3 In diesem Kontext entwarf Weber auch eine Inhaltsanalyse, sodass er für diese Methode ebenfalls als Pionier gelten kann (vgl. Weber 1911: 52).
4 Eine ausführliche, methodisch dokumentierte Darstellung der bisherigen ALLBUS-Befragungen findet sich in www.gesis.org/dienstleistungen/daten/umfragedaten/allbus.
5 Zudem wird auf diese Weise eine Trennlinie mitten durch die qualitativen Methoden gezogen, denn diese haben oft das Verstehen ihres Gegenstands zum Ziel und wären demnach nicht-empirisch. Diese Trennung ist unpraktikabel, wenn etwa die Daten mit dem empirischen Verfahren des narrativen Interviews erhoben und mit dem nicht-empirischen Verfahren der Hermeneutik ausgewertet wird.
6 In einem Fall muss der Forschungsgegenstand nicht außerwissenschaftlich sein, nämlich wenn die Wissenschaft selbst zum Forschungsgegenstand wird, also in der Wissenschaftssoziologie. Die untersuchte Wissenschaftspraxis wird dann theoretisch und methodisch genauso wie ein außerwissenschaftlicher Forschungsgegenstand behandelt.
7 Dieses Inferenzproblem ist aber nicht typisch für die Befragung, sondern betrifft ebenso die Inhaltsanalyse, bei der vom analysierten Text auf Kontexte geschlossen wird (vgl. Merten 1995), und die Beobachtung, bei der vom beobachteten Verhalten auf sinnhafte Handlungen geschlossen wird (vgl. Gehrau 2002).
8 Solche Unterschiedskataloge werden vor allem von Vertretern qualitativer Methoden aufgestellt (vgl. Kleining 1982; Corbin / Strauss 1990; Honer 1989; Lamnek 2010: 124-127). Dies geschieht oft zur Rechtfertigung qualitativer Methoden gegenüber dem quantitativen »Mainstream«. In den Lehrbüchern, die von Methodologen mit vorwiegend quantitativer Präferenz verfasst werden, gelten dagegen die Regeln quantitativer Methoden als Standard für empirische Sozialforschung schlechthin. Die qualitativen Methoden werden dementsprechend an diesem Standard gemessen, was meistens in einer äußerst kurzen und oft ungerechten Abhandlung der qualitativen Methoden resultiert (vgl. etwa Diekmann 2011: 543ff.; Fowler 1988; Converse / Presser 1986).
9 Im Extremfall gibt der Befragte sogar eine Antwort auf eine Einstellungsfrage, obwohl er keine Meinung dazu hat (»pseudo-opinions«). Dieses Phänomen betrifft bereits die Validität der Antwort, denn sie kann als ungültig eingestuft werden, wohingegen die Antwort auf der Basis einer nur schwachen Meinungstiefe durchaus gültig sein kann, aber sehr stimmungsoder situationsabhängig ist.
10 Die induktive Forschungslogik, wie sie vor allem von der »Grounded Theory« (vgl. Corbin / Strauss 1990) bevorzugt wird, versucht zwar, die Behinderungen für die empirische Untersuchung, die von vorgefertigten Theorien und Hypothesen ausgehen (können), zu vermeiden. Dies bedeutet jedoch nicht, dass der Forscher völlig ohne (theoretische) Vorannahmen ins Feld geht, sondern allenfalls, dass er in der Befragungssituation theoretische Sensibilität und Offenheit beibehält (vgl. Kelle / Kluge 2010: 19ff., 28f.).
11 Diese Kriterien gelten zwar nicht speziell für die qualitative Sozialforschung, sondern sind grundlegend für empirische Forschung schlechthin; sie werden allerdings von qualitativen Forschern anders interpretiert.
12 Prinzipiell kann eine offene Befragungsform auch standardisiert ausgewertet werden. Man verlässt dann allerdings die qualitative Methodologie.
13 Diese abstrakten Kategorien reduzieren zwar auch den lebensweltlichen Hintergrund des Befragten; diese Reduktion ist aber nicht als (so stark) isoliert vom Entstehungskontext zu verstehen wie bei der quantitativ-standardisierten Erhebung von Variablen (vgl. Kvale / Brinkmann 2009: 201-208).
14 Diekmann (2011: 533) bestreitet die heutige Relevanz dieses Anspruchs und vermerkt süffisant, dass der zunehmende Einsatz qualitativer Verfahren in der Markt- und Meinungsforschung ein Indiz für die Entkoppelung von gesellschaftskritischen Vorstellungen von Sozialforschung und der Anwendung bestimmter Methoden ist.
15 Ausführlich mit dem Verhältnis quantitativer und qualitativer Forschung beschäftigten sich Garz / Kraimer (1991): Puristische Positionen gehen entweder von der Inkommensurabilität (Unvereinbarkeit) oder von der Substitution (Ersetzbarkeit) beider Forschungsstrategien aus. Pragmatische Positionen halten das Verhältnis eher für komplementär (ergänzend) oder symbiotisch (kreuzvalidierend) (vgl. auch Hoffmann-Riem 1980; Kleining 1982; Brosius / Haas / Koschel 2012: 4f.).
[29]2 | Verfahren der Befragung |
Die Verfahren der Befragung lassen sich nach ihrem Kommunikationsmodus in drei Gruppen unterteilen: persönliche (face to face), telefonische und schriftliche Befragungen. Das jüngste Verfahren der Online-Befragung stellt zwar eigentlich nur eine Variante der schriftlichen Befragung dar, aber sie bekommt zunehmend ein eigenes Profil und wird deshalb hier als eigenständiges Verfahren behandelt. Neben der Charakterisierung der Verfahren selbst wird auch die jeweilige Stichprobenpraxis beschrieben, weil diese wesentlich zu den Vorteilen und Nachteilen des Verfahrens beiträgt. Die Unterstützung der Befragung durch den Computer, die unter dem Oberbegriff »Computer Assisted Interviewing« (CAI) firmiert, erschließt neue Einsatzmöglichkeiten der verschiedenen Befragungsverfahren, die aber auch mit neuen Anforderungen und Problemen verbunden sind.
2.1 | Das persönliche (face-to-face) Interview |
2.1.1 | Beschreibung und Varianten |
Das persönliche Interview ist eine Befragungsform, das auf der Anwesenheit von einem (selten zwei) Interviewer(n) und einem (selten mehreren) Befragten basiert. Es wird deshalb auch als »face-to-face«-Interview bezeichnet.
Grundsätzlich lassen sich drei Varianten unterscheiden: das Hausinterview, das Passanteninterview und die »Klassenzimmer«-Befragung.
Beim Hausinterview sucht der Interviewer den Befragten auf, entweder in dessen Privatwohnung, an seinem Arbeitsplatz oder an einem verabredeten anderen Ort. Es ist die häufigste Variante der mündlichen Befragung, die auch die größten Möglichkeiten bietet, während die anderen Varianten verschiedenen Beschränkungen unterliegen.
Beim Passanteninterview führt der Interviewer die Befragung im öffentlichen Raum durch, zum Beispiel in der Fußgängerpassage einer Innenstadt. Für den Einsatz dieser Variante müssen mehrere Voraussetzungen erfüllt sein bzw. Beschränkungen berücksichtigt werden (vgl. Nötzel 1989; Friedrichs / Wolf 1990):
Die Grundgesamtheit muss in Beziehung stehen mit dem Ort der Befragung. Dies ist der Fall, wenn Käufer in der Innenstadt oder Passanten, die an einer Plakatwand oder an einem Flugblattverteiler vorbeigehen, interviewt werden.
[30]Die Interviews müssen kurz gehalten werden, da die Situation flüchtig ist und die Passanten andere Ziele verfolgen und wenig Zeit haben.
Externe Faktoren wie Wetter und Tageszeit beeinflussen den Ablauf von Passanteninterviews wesentlich, sodass die Bedingungen vorher genau ermittelt werden müssen.
Bei der Klassenzimmer-Befragung werden die Fragebögen durch einen Verteiler persönlich an die Befragten übergeben, aber von diesen selbst ausgefüllt (selfadministered questionnaires). Der Verteiler der Fragebögen motiviert zur Teilnahme an der Befragung, steht für Rückfragen der Befragten zur Verfügung und erläutert gegebenenfalls den Zweck der Untersuchung, greift aber sonst nicht ein. Damit ist die Klassenzimmer-Befragung eine Hybridform aus mündlicher und schriftlicher Befragung (vgl. Hafermalz 1976: 12). Voraussetzung für diese Befragungsart ist allerdings, dass die Befragten räumlich nicht verstreut sind, sondern zu einem bestimmten Zeitpunkt an einem bestimmten, relativ geschlossenen Ort versammelt sein müssen, an dem die Fragebögen verteilt und in der Regel auch wieder eingesammelt werden müssen. Damit reduziert sich die Einsatzmöglichkeit dieser Variante der persönlichen Befragung auf Fragestellungen, bei denen in der Regel homogene Gruppen untersucht werden sollen (Schulklassen, Universitätsseminare, Ressorts in journalistischen Redaktionen, Abteilungen in Unternehmen und Behörden usw.).
Da das Passanteninterview und die Klassenzimmer-Befragung nur sehr eingeschränkt eingesetzt werden können, beziehen sich die folgenden Ausführungen in erster Linie auf das wesentlich häufiger verwendete Hausinterview.
2.1.2 | Stichprobe |
Da die Stichprobenziehung zuerst für die mündliche Befragung entwickelt wurde und diese Verfahren grundlegend für die Befragung im Allgemeinen sind, können anhand derer generelle Anforderungen an die Stichprobenziehung erläutert werden. Deshalb sollen sie im Kontext der mündlichen Befragung ausführlicher behandelt und in den Abschnitten über die telefonische und schriftliche Befragung nur noch die dafür spezifischen Varianten beschrieben werden.
Um die Repräsentativität einer Stichprobe zu erreichen, gibt es zwei Möglichkeiten. Entweder wird mit einem Zufallsverfahren gewährleistet, dass prinzipiell jedes Element der Grundgesamtheit (etwa der gesamten erwachsenen Bevölkerung eines Landes) die gleiche Chance hat, in die Stichprobe zu gelangen. Hier gewährleistet (bereits) die korrekt durchgeführte Prozedur die Repräsentativität der Stichprobe hinsichtlich aller Merkmale. Das elaborierteste Verfahren ist das ADM-Stichproben-System, das vom »Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute [31]e.V.« entwickelt wurde (→ Kapitel 1.1; www.utb-shop.de, Kapitel 1.2.1). Alternativ dazu kann Repräsentativität dadurch hergestellt werden, dass die Verteilung der wichtigsten Merkmale der Stichprobe – das sind meist die soziodemografischen Kennzeichen – mit der Verteilung dieser Merkmale in der Grundgesamtheit zur Übereinstimmung gebracht werden (→ www.utb-shop.de, Kapitel 1.2.2).
In der Praxis werden die prozedurale und die ergebnisorientierte Variante miteinander kombiniert, allerdings werden unterschiedliche Schwerpunkte gesetzt: Bei der Zufallsstichprobe wird in erster Linie Wert darauf gelegt, ein elaboriertes Verfahren zu entwickeln, mit dem die Zufälligkeit der Auswahl geregelt wird. Das Ergebnis der Stichprobenziehung wird mit den wichtigsten Merkmalen der Grundgesamtheit verglichen und – bei Abweichungen – durch Gewichtung korrigiert. Beim Quotenverfahren erfolgt der Abgleich der Stichprobenmerkmale mit den Grundgesamtheitsmerkmalen, während die Studie noch im Feld ist, sodass mögliche Abweichungen durch spezielle Quotenvorgaben der unterrepräsentierten Segmente noch in der Feldzeit korrigiert werden können.
Festzuhalten bleibt, dass die Repräsentativität einer Stichprobe nicht in der Verteilung aller (denkbaren) Merkmale proportional mit der Grundgesamtheit übereinstimmen kann. Die Stichprobe ist nicht in dem Sinn ein Abbild der Grundgesamtheit wie das Foto von seiner abgebildeten Umgebung, sondern die Stichprobe ist selbst Teil der Grundgesamtheit. Insofern gilt Repräsentativität nur für spezielle Merkmale und streng genommen auch nur für den Zeitpunkt der Erhebung (vgl. Erichson 1992: 19f.).
Im Folgenden werden einige relevante Stichprobenmodelle vorgestellt. Im Befragungsalltag gibt es natürlich zahlreiche weitere Möglichkeiten der Stichprobenziehung, auch solche, die keinen Anspruch auf bevölkerungsweite Repräsentativität erheben.
Zufallsstichprobe mit dem ADM-Stichprobensystem
Das ADM-Verfahren ist eine dreistufige Gebiets- bzw. Flächenstichprobe auf der Basis von geografischen Einheiten, den Wahlbezirken: Auf der ersten Stufe werden so genannte Sampling Points, die zumeist den Wahlbezirken entsprechen, ausgewählt. Darauf folgt eine Ziehung der Privathaushalte mit Hilfe einer Zufallsbegehung, woraus im letzten Schritt die zu befragenden Zielpersonen ermittelt werden (vgl. Behrens / Löffler 1999: 69). Die Grundgesamtheit bilden somit Privathaushalte unter Ausschluss von »Anstaltshaushalten«, gewerblichen Betrieben und Mehrfach-Wohnsitzen. Das vereinigte Deutschland besteht aus über 80.000 Wahlbezirken, die allerdings unterschiedlich viele wahlberechtigte [32]Personen umfassen. Deshalb werden einige Wahlbezirke zu synthetischen »Sample Points« zusammengefasst mit mindestens 400 Wahlberechtigten.
1. Stufe: Die Stichprobe der Sample Points wird als systematische Zufallsauswahl gezogen. Systematisch ist die Auswahl deshalb, weil sie nach verschiedenen geographischen Einheiten getrennt erfolgt: nach Bundesländern, pro Bundesland nach Regierungsbezirken, pro Regierungsbezirken nach Kreisen, pro Kreis nach Gemeindegrößeklassen, pro Gemeindegrößeklasse nach Gemeinden, eventuell Stadtteilen und Wahlbezirken. Auf diese Weise werden je nach Bedarf der ADM-Institute gesamtdeutsch 128 Netze aus jeweils 258 Sample Points gebildet (vgl. Behrens / Löffler 1999: 74ff.).
2. Stufe: Zur Ermittlung der Privathaushalte wird die im ersten Schritt ausgewählte Fläche »begangen«. Dazu wird ein Startpunkt bestimmt, von dem aus zwischen 20 und 50 Adressen von den Türschildern abgeschrieben oder erfragt werden. Das können entweder alle hintereinander oder nur jede x-te Adresse bis zur geforderten Anzahl sein. Für diese Zufallsbegehung gibt es genaue Anweisungen. Sie kann entweder als Adress-Random realisiert werden, wobei die Begehung bzw. Adressermittlung und die eigentliche Befragung voneinander getrennt werden, oder mittels Random-Route bzw. Random-Walk direkt mit der Befragung verknüpft werden. Die Trennung zwischen Stichprobenauswahl und Befragung beim Adress-Random entlastet den Interviewer, während bei Random-Route möglicherweise unbequeme Adressen übersprungen werden. Allerdings ist Random-Route ökonomisch und zeitlich günstiger und immer dann geeignet, wenn aufgrund der Beschränkung der Grundgesamtheit (etwa auf bestimmte Altersgruppen) mit hohen Fehlkontakten zu rechnen ist (vgl. Behrens / Löffler 1999: 78ff.; Noelle-Neumann / Petersen 1996: 246ff.).
3. Stufe: Schließlich muss die zu befragende Zielperson im Haushalt bestimmt werden. Dazu werden die Haushaltsmitglieder aufgelistet und per Zufallsverfahren (»Schwedenschlüssel«) die Zielperson ausgewählt. Alternativ kann auch die Person befragt werden, die als letztes Geburtstag hatte oder als nächste Geburtstag hat. Da die Haushalte aus unterschiedlich vielen Personen bestehen, haben Personen in kleinen Haushalten eine höhere Auswahlwahrscheinlichkeit, was gegen die wahrscheinlichkeitstheoretischen Regeln der Zufallsauswahl verstößt, wonach jedes Mitglied der Grundgesamtheit die gleiche Chance haben muss, ausgewählt zu werden. Deshalb werden in großen Haushalten oft zwei Personen befragt. Außerdem können bei bekannter Haushaltsgröße die individuelle Auswahlwahrscheinlichkeit jeder Person errechnet und diesbezügliche Disproportionalitäten durch Gewichtung in der Stichprobe ausgeglichen werden (vgl. Behrens / Löffler 1999: 81ff.).
[33]Die Ausschöpfung einer geplanten Stichprobe ist nie vollständig, weil aus verschiedenen Gründen das Interview mit der Zielperson nicht immer zustande kommt. Man unterscheidet unsystematische oder qualitätsneutrale und systematische oder (qualitäts)relevante Ausfälle. Zu den qualitätsneutralen Ausfällen, die keinen Einfluss auf die Güte der Stichprobe haben, zählen:
Dateifehler (Haushalt existiert trotz Adressauflistung nicht);
Straße oder Hausnummer nicht auffindbar;
Haushalt gehört nicht zur Stichprobe (Anstaltshaushalt, Gewerbebetrieb);
Wohnung oder Untermietwohnung zurzeit nicht bewohnt;
keine Person passt zur definierten Grundgesamtheit;
Haushalt oder Zielperson ist der deutschen Sprache nicht mächtig;
Totalausfälle von Sample Points;
Adresse nicht bearbeitet.16
Um relevante Ausfälle handelt es sich, wenn keine Interviews durchgeführt werden können, obwohl die Zielpersonen zur Stichprobe gehören. Hierzu zählen:
Haushalt oder Zielperson trotz mehrmaliger Versuche nicht erreichbar;
Haushalt oder Zielperson verweigert jede Auskunft ohne Angabe von Gründen, aus Zeitmangel, aus Interesselosigkeit oder aus prinzipiellen Erwägungen gegen Meinungsforschung;
Zielperson bricht das Interview frühzeitig ab;
Zielperson ist krank oder kann dem Interview geistig nicht folgen;
Interview ist fehlerhaft und kann nicht ausgewertet werden17 (vgl. Behrens / Löffler 1999: 88f.; Porst 1991: 61).
Die Ausschöpfungsquote ist ein wichtiger Indikator für die Qualität der Stichprobenrealisierung; sie wird wie folgt berechnet18: Ausgangspunkt ist die Bruttostichprobe, die alle ausgewählten und eingesetzten Adressen umfasst. Davon werden die qualitätsneutralen Ausfälle abgezogen; der Rest ist die Nettostichprobe [34]oder »bereinigte« Stichprobe. Von dieser werden die relevanten Ausfälle abgezogen, sodass der Anteil der tatsächlich durchgeführten und auswertbaren Interviews an der Nettostichprobe die Ausschöpfungsquote ergibt. Man kann zwar nicht eindeutig mathematisch bestimmen, unterhalb welcher Grenze eine Stichprobe nicht mehr repräsentativ ist, aber die Marktforschung sieht als Konvention eine Mindestausschöpfung von 70 Prozent an, deren Unterschreitung zumindest begründet werden muss (vgl. Behrens / Löffler 1999: 88ff.). Kritiker bezweifeln allerdings, dass bei einem Ausfall von bis zu 30 Prozent die wahrscheinlichkeitstheoretischen Annahmen der Zufallsauswahl noch gültig sind. Zudem ist die geforderte Ausschöpfungsquote von 70 Prozent in der Praxis selten in einem vertretbaren Aufwand zu realisieren (vgl. Sommer 1987: 300f.).
Quotenstichprobe
Wie aus diesen Ausführungen ersichtlich wird, ist das Vorgehen auf ADM-Basis in der Praxis sehr aufwändig. Aus diesem Grund bevorzugen einige Meinungsforschungsinstitute das Quotenverfahren, das bereits in 40er Jahren in den USA entwickelt wurde.
Ausgangspunkt ist nicht die Grundgesamtheit selbst und ihre Elemente, sondern die statistischen Proportionen bzw. Merkmalsverteilungen der Grundgesamtheit. Aufgrund amtlicher Daten des Mikrozensus oder den Ergebnissen der »MediaAnalyse« (→ www.utb-shop.de, Kapitel 1.2.1) sind folgende Merkmale und ihre Verteilungen in der Grundgesamtheit bekannt:
regionale Verteilung nach Bundesländern, Regierungsbezirken und Gemeindegrößen (vier Wohnortgrößegruppen);
Geschlecht;
Alter bzw. (vier) Altersgruppen;
Anteil Berufstätiger und (sechs) Berufsgruppen;
bekannte Konsummerkmale (Besitz bestimmter Konsumartikel).
Anhand dieser Merkmale wird ein Quotenplan entwickelt, der einen modellgerechten Miniaturquerschnitt der Grundgesamtheit abbildet. Mit diesen Quotenvorgaben suchen die Interviewer die Befragten selbstständig aus. Damit einher gehen zwei Annahmen: Durch die komplexe Quotenvorgabe, die mehrere Merkmale umfasst, ist der Interviewer in seinem Ermessensspielraum eingeschränkt und praktisch gezwungen, die Befragten annäherungsweise zufällig auszuwählen, sodass systematische Verzerrungen zumindest verringert werden können. Über die (wenigen) Quotenmerkmale hinweg wird Repräsentanz auch für andere Merkmale, die mit ihnen korrelieren, hergestellt. Dies kann man zumindest für [35]diejenigen weiteren Merkmale kontrollieren, für die externe Daten vorliegen (vgl. Noelle-Neumann / Petersen 1996: 255ff.; Meier / Hansen 1999: 103ff.).
Folgende Anforderungen sind an die Erstellung von Quotenplänen zu stellen:
Die Quoten müssen objektiv und spezifisch sein, sodass sie nicht erst vom Interviewer interpretiert werden müssen.
Die Quotenvorgabe darf weder zu einfach sein, um zu vermeiden, dass der Interviewer (nur) Personen aus seinem Bekanntenkreis auswählt, noch zu schwierig sein, um zu vermeiden, dass der Interviewer die Befragtenmerkmale fälscht und sie an die Quotenvorgabe anpasst.
Der Fragebogen sollte multithematisch sein, damit der Interviewer die Zielpersonen nicht nach ihrer (vermeintlichen) Themenkompetenz auswählt.
Die Interviews sollten vorwiegend in Wohnungen und nicht auf der Straße durchgeführt werden, damit mobile Personen nicht überrepräsentiert werden.
Die Befragung sollte auf möglichst viele Interviewer verteilt sein, sodass individuelle Verzerrungen sich nicht stark auf das Gesamtergebnis auswirken oder sich im Durchschnitt ausgleichen (können).
Dementsprechend sollte die Zahl der Interviews pro Interviewer möglichst gering sein, damit die Aufgabe auch zeitlich zu bewältigen ist und keine Frustrationen mit der Quotenerfüllung entstehen.
Insgesamt sollte das Interviewernetz eines Instituts soziodemografisch heterogen, ähnlich der Bevölkerungsstruktur, zusammengesetzt sein, damit keine Verzerrungen entstehen selbst für den Fall, dass die Interviewer Zielpersonen aus ihrem Milieu bevorzugt auswählen.
Die Interviewer müssen intensiv geschult und ihre Tätigkeit regelmäßig und zentral kontrolliert werden, damit Verstöße im Vorfeld minimiert und während der Feldzeit schnell entdeckt und korrigiert werden können (vgl. Noelle-Neumann / Petersen 1996: 278f.; Meier / Hansen 1999: 109ff.).
Mittlerweile haben etliche Methodenexperimente stattgefunden, um Unterschiede zwischen Zufallsverfahren und Quotenverfahren zu ermitteln. Tatsächlich stimmen die Verteilungen weitgehend überein (vgl. Reuband 1998b; Noelle-Neumann / Petersen 1996: 263ff.). Dennoch verbleibt als Nachteil des Quotenverfahrens, dass die Qualität der Auswahl selbst nicht kontrollierbar ist. Die Berechnung einer Ausschöpfungsquote ist nicht möglich, da der Interviewer zielgerichtet die Personen selbst aussucht und nicht angibt, wie viele Fehlversuche er hatte. Auch ist nicht kontrollierbar, ob er mehrfach dieselben Personen befragt.
Für beide Verfahren gilt: Repräsentanz ist weitgehend abhängig von der Feldarbeit, denn die Kontrolle der Einhaltung der Zufallsauswahl oder der Quotenmerkmale [36]erfordert einen erheblichen Aufwand. Dies gilt insbesondere, um die oben genannten relevanten Fehler der Verweigerung und der Nichterreichbarkeit (→ Kapitel 7.3.3) zu vermindern (vgl. Erichson 1992: 23ff.).
Weitere Stichprobenmodelle
Neben diesen beiden Grundformen der Stichprobenziehung gibt es zahlreiche Sonderformen, die insbesondere eingesetzt werden, wenn es nicht um bevölkerungsrepräsentative Umfragen geht, sondern um sehr spezifische Bevölkerungsgruppen oder um direkte Vergleiche zwischen verschiedenen Befragtengruppen.
Wenn die Auswahl der Zielpersonen in Abhängigkeit von einem bestimmten Ereignis, etwa von einer Messe, erfolgt, werden Zeitintervallstichproben eingesetzt. Diese sind zeit- und ortsabhängig. Es handelt sich in der Regel um mehrstufige Stichproben, bei denen im ersten Schritt die Befragungsorte ausgewählt werden, zum Beispiel die Eingänge der Messe und die Räume innerhalb der Messehalle. Danach werden die Zeitintervalle bestimmt, innerhalb derer die Befragung durchgeführt wird. Die Auswahl der Befragten erfolgt durch ein bestimmtes, vorher festgelegtes Kriterium, zum Beispiel jede x-te Person, die eine gedachte Linie überschreitet. Für die Entwicklung eines Stichprobenplans sollten die besonderen Gegebenheiten des Ereignisses berücksichtigt werden, um Verzerrungen zu vermeiden (vgl. von der Heyde 1999: 113ff.; Nötzel 1987b).
Speziell für die Klassenzimmer-Befragung ist in der Regel eine Klumpenstichprobe sinnvoll. Dies ist eine mehrstufige Auswahl, bei der räumlich abgegrenzte (Teile von) Organisationen (etwa Schulklassen) entweder per Zufall oder je nach Fragestellung der Untersuchung bewusst ausgewählt werden. Innerhalb dieser ausgewählten Einheiten werden dann alle Individuen (das heißt der ganze »Klumpen«) befragt. Der Vorteil besteht in der Effizienz bei der Durchführung. Allerdings wirkt sich die Klumpung dann negativ aus, wenn die Klumpen sehr homogen sind, weil dann die Gesamtstichprobe weniger Varianz aufweist als bei anderen Stichprobenverfahren und in Bezug auf das homogene Merkmal zu systematischen Verzerrungen führt.
Bei Netzwerkanalysen (→ www.utb-shop.de, Kapitel 4.2) ist es sinnvoll, mit dem Schneeballverfahren zu arbeiten. Dazu wird in einer ersten Stufe per Zufallsverfahren eine Ausgangsstichprobe gezogen. Die befragten Personen werden dann um weitere Adressen gebeten von Personen, die sich im gleichen Netzwerk befinden (Freunde, Bekannte, Kollegen, Verwandte) oder in irgendeiner Hinsicht für sie relevant sind (etwa als Meinungsführer zu bestimmten Themen). Diese zweite Stufe erfolgt nicht mehr als Zufallsverfahren, sondern stellt eine bewusste Auswahl der Befragten selbst dar.
[37]Für einige Forschungszwecke ist eine bewusste Auswahl nach bestimmten Merkmalen notwendig. Hier gibt es wiederum mehrere Möglichkeiten: So können aufgrund der Fragestellung der Untersuchung Personengruppen mit einem extremen oder untypischen Merkmal wie die Fernsehverweigerer ausgewählt werden. Da es für solche Gruppen keine Übersicht über die Grundgesamtheit gibt und eine Flächenstichprobe zu große Streuverluste in Kauf nehmen müsste, ist eine zufällige Auswahl nicht durchführbar. Darüber hinaus ist die Population hauptsächlich hinsichtlich des einen spezifischen Merkmals von Forschungsinteresse, sodass es weniger auf die Repräsentanz hinsichtlich anderer Merkmale ankommt, sondern auf eine gewisse Bandbreite bzw. Streuung in Bezug auf andere Merkmale. Eine weitere Möglichkeit besteht in der Auswahl von normalen oder typischen Personengruppen in Bezug auf ein bestimmtes Merkmal, also etwa Personen mit einem durchschnittlichen Fernsehrezeptionsverhalten. Sowohl bei der Auswahl extremer als auch normaler Personen(gruppen) geht es darum, diese intensiver oder detaillierter beschreiben zu können. Wenn dagegen eher der Vergleich zwischen Gruppen im Mittelpunkt der Fragestellung stehen soll, muss ein bestimmtes Spektrum abgedeckt werden. Dieses Spektrum kann je nach Untersuchungsziel wiederum eher ähnliche Personen(gruppen) berücksichtigen oder Extremgruppen.
Insbesondere bei nichtstandardisierten Befragungen sind solche bewussten Auswahlverfahren üblich, da keine quantitativen Auswertungen vorgenommen werden (→ Kapitel 3.1, 3.2, 3.3). Auch bei standardisierten Formen der Befragung wie beim Experiment sind nichtrepräsentative Auswahlverfahren üblich, wenngleich dort meist mit einem Zufallskriterium gearbeitet wird, damit bestimmte statistische Auswertungsverfahren überhaupt sinnvoll sind (→ Kapitel 3.6).