Kitabı oku: «Kommunikationswissenschaftliches Arbeiten», sayfa 4
Viele Jahrzehnte später – Herta Herzog war von den USA nach Europa zurückgekehrt – wendete sie sich wieder der Unterhaltungsforschung zu. In ihrer Studie „Der Stich ins Böse: Dallas und Denver Clan: Garantiert anders als der Alltag“ (1990) wurden qualitative Interviews kombiniert mit einem projektiven Persönlichkeitstest durchgeführt und es wurde eruiert, welchen Stellenwert diese Serien im Leben der befragten Zuschauer einnahmen.
Herta Herzog hat mit ihrer Publikumsforschung einen wichtigen Beitrag für die Rezeptionsforschung geleistet, der in der Wissenschaft lange Zeit nicht ausreichend erkannt und gewürdigt wurde (vgl. Klaus, 2008). In der Marktforschung wurde Herzog zur „Gray Eminence of Market Research“ und sie wurde „in die ‚Hall of Fame‘ des Market Research Council aufgenommen“ (Klaus, 2008, S. 242). Ihre Ansätze über die Motive und Entscheidungen von Konsumenten haben auch heute noch in der Marktforschung große Bedeutung. [44]
4Quelle: Persönliche Mitteilung von Prof. Dr. Roland Burkart. Mit der Bezeichnung „ein bisserl“ (Wienerisch für „ein wenig“) erwies sich Paupiè als Visionär in einem doppelten Sinn: Einerseits erkannte er die damals aufkeimende Diskussion um Inter- und Transdisziplinarität von (insbesondere: Sozial-)Wissenschaften und andererseits richtete er seinen Blick mit dieser Etikettierung auf die ebenfalls zu dieser Zeit stattfindende Auseinandersetzung über unterschiedliche Wissenschaftsbegriffe – speziell in den Natur- und Geisteswissenschaften – und die damit jeweils präferierten methodischen (quantitativen sowie qualitativen) Vorgehensweisen.
5Auf das angespannte Verhältnis zwischen Lazarsfeld und Cantril soll an dieser Stelle nicht näher eingegangen werden, sondern es sei auf den Beitrag von Martin R. Herbers (2016) verwiesen.
4Forschungsprozess
Zu Beginn des Forschungsprozesses steht professionelle, wissenschaftliche Neugier: das „Wissen-Wollen“. Wissenschaft wird spannend und interessant, weil man sich Gedanken zu bestimmten Themen macht, Zusammenhänge entdeckt oder eigene Erklärungen findet. Dieser Wunsch, etwas Neues wissen zu wollen, führt zum „Wissen-Schaffen“. Das Schaffen von Wissen erfolgt nach bestimmten Regeln des Forschungsprozesses, häufig sogar nach recht strengen Regeln (bspw. Datenauswertung).
Mit diesen Abläufen beschäftigt sich das folgende Kapitel. Innerhalb dieser Abläufe benötigt es verschiedene Fertigkeiten und Fähigkeiten sowie Kompetenzen zur Erarbeitung des gewählten Themas bzw. Forschungsinteresses. Die einzelnen Schritte der Bearbeitung werden in den folgenden Unterkapiteln behandelt.
Vor diesen einzelnen Arbeitsschritten muss allerdings ein grundlegendes Thema der Forschungsabläufe thematisiert werden: die zwei Paradigmen der empirischen Sozialforschung.
Wissenschaftliche Forschung in den Sozialwissenschaften erfolgt üblicherweise innerhalb dieser zwei Paradigmen der empirischen Sozialforschung: der quantitativen und der qualitativen Forschung. Häufig werden die beiden Paradigmen einander streng gegenübergestellt und es wird häufig darüber diskutiert, welcher Zugang der bessere oder „der richtige“ ist.
Es sei hier explizit festgehalten, dass die beiden Forschungszugänge unterschiedliche Dinge leisten können und somit nicht in einem hierarchischen Verhältnis zueinander stehen. Vielmehr bieten beide Zugänge verschiedene Möglichkeiten, Aussagen über die soziale Realität zu treffen – dies in unterschiedlicher Tiefe, unterschiedlicher Aussagekraft und mit unterschiedlichen Ansprüchen.
Die beiden Paradigmen sind von zentraler Bedeutung für verschiedene Aspekte des Forschungsprozesses, insb. sind sie relevant für die Bildung von Forschungsfragen und Hypothesen sowie die methodische Umsetzung des Forschungsvorhabens. Die Unterscheidung [45] von qualitativer und quantitativer Forschung wird häufig „nur“ mit der Methodenauswahl und dem Methodendesign in Zusammenhang gesetzt, sie ist aber viel weitreichender, da sie mit einem unterschiedlichen Forschungsanspruch verbunden ist.
Aus diesem Grund muss man sich ausführlich damit auseinandersetzen. Wichtig ist, sich nicht einem „(methodischen) Lager“ zuzuordnen, sondern die Potenziale jedes Zugangs zu kennen und die jeweils dem Forschungsvorhaben adäquate Vorgehensweise zu wählen. Die zu starke Fixierung auf eine bestimmte (methodische) Vorgehensweise führt dazu, womöglich schon bevor man überhaupt Ziele definiert hat, nur bestimmte Aspekte des Forschungsproblems zu erkennen und sich selbst zu stark einzuschränken. (Als Forscherin muss man ohnehin das Arbeiten in beiden Paradigmen „draufhaben“.) Zudem ist die Konzentration der Unterscheidung von qualitativem und quantitativem Paradigma auf die Methoden verkürzend.
4.1Die zwei Paradigmen
Die zwei Paradigmen der empirischen Sozialforschung findet man in der Literatur auch häufig unter den Stichworten quantitative und qualitative Forschungsansätze bzw. deduktive und induktive Vorgehensweisen. Der zentrale Unterschied zwischen qualitativen und quantitativen Forschungsvorhaben liegt v. a. im unterschiedlichen Anspruch an die Forschung und die Ergebnisse der empirischen Untersuchung.
4.1.1Quantitative und qualitative Forschung
Quantitative Forschung ist generalisierend und zielt (idealerweise) auf Gesetzmäßigkeiten ab. (Wobei diese in den Sozialwissenschaften aber quasi niemals erreichbar sind.) Anspruch solcher Forschungsvorhaben ist die Überprüfung und die (vorläufige) Bestätigung von vorhandenem Wissen, um damit das bestehende Wissen zu stärken und punktuell weiterzuentwickeln. Es gibt bereits zahlreiche Vorarbeiten, Forschungsansätze und Studienergebnisse, weshalb zu dem konkreten eigenen Forschungsinteresse also schon sehr viel Material vorhanden ist. Dieser Umstand ermöglicht es, dass man deduktiv vorgehen kann, man kann Forschungsfragen, Hypothesen, Operationalisierungen und Methodendesign aus diesem Bestand an Vorwissen ableiten.6
Unter der quantitativen Forschung ist jene Forschung zu verstehen, die Daten durch Messen und Zählen erfasst. Diese erfassten Daten werden [46] dann mittels statistischer Verfahren analysiert und aufbereitet. Grundsätzlich versteht man unter Messen Quantifizieren. Merkmale/Eigenschaften werden von der Gesamtheit gelöst und bezüglich ihrer spezifischen Ausprägungen in Relation gesetzt (durch Zahlen oder Wörter wie größer/kleiner bzw. älter/jünger).
Die qualitative Forschung kann nicht auf einen so großen Bestand an Vorwissen zum konkreten Forschungsinteresse aufbauen. Der Anspruch an solche Forschungen ist es, gründlich zu verstehen, neue Zusammenhänge herzustellen und aus dem Einzelfall heraus auf größere Zusammenhänge zu schließen. Sie ist auf das gründliche Verstehen im kleinen Maßstab gerichtet.
Damit kann sie nicht (ausschließlich) deduktiv vorgehen, sondern arbeitet induktiv.
Qualitative Untersuchungen zielen nicht darauf ab, vorhandenes Wissen zu überprüfen, Daten standardisiert zu erheben und diese dann mittels statistischer Verfahren auszuwerten, sondern bspw. eine Typenbildung zu erarbeiten.
Es ist essenziell festzuhalten, dass sich qualitative und quantitative Vorgehen sinnvoll ergänzen; bei der dogmatischen (!) Unterscheidung von qualitativen und quantitativen Methoden handelt es sich um einen konstruierten Gegensatz, den bspw. in der US-amerikanischen scientific community niemand nachvollziehen kann. Sehr häufig finden sich somit auch Forschungsinteressen, die mit Aspekten sowohl der quantitativen als auch der qualitativen Methoden zu erarbeiten sind.
Tabelle 3 mit ihren Begriffspaaren zeigt einen guten Überblick über die Unterschiede der beiden Paradigmen und bezieht dabei methodische Aspekte bereits stark mit ein.
Tab. 3: Unterschiede der Methoden
Quantitatives Vorgehen | Qualitatives Vorgehen |
lineare Forschungsstrategie | zirkuläre Forschungsstrategie |
vorhandenes Wissen überprüfen und erklären | vorgefundene Phänomene (erstmalig) verstehen |
deduktiv | induktiv |
hypothesenprüfend | hypothesengenerierend |
Stichproben | Einzelfall |
Variablen messen | Variablen beschreiben |
Quelle: Eigene Darstellung. [47]
Ein quantitatives Vorgehen verfolgt eine lineare Forschungsstrategie, dabei soll vorhandenes Wissen überprüft und/oder erklärt werden. Da es bereits ausreichend Forschung zu diesem Thema und Forschungsinteresse gibt, kann deduktiv gearbeitet werden: Man kann also auf Vorhandenem aufbauen. (Ansonsten wäre eine Überprüfung des Wissens ja gar nicht möglich.) Es werden (geprägt durch die bereits existierenden Arbeiten zu diesem Thema) Hypothesen aufgestellt, die im Laufe der Arbeit geprüft werden („hypothesenprüfendes Arbeiten“). Für die methodische Umsetzung werden Stichproben aus der Grundgesamtheit gezogen, die interessierenden Variablen werden gemessen. Die Daten werden statistisch ausgewertet, es können daraus Rückschlüsse auf die Grundgesamtheit gezogen werden.
Ein qualitatives Vorgehen basiert auf einer zirkulären Forschungsstrategie, derartige Vorhaben sind durch Überarbeitungen auch der Vorgehensweise gekennzeichnet. Man kann sie nicht einfach linear „durchexerzieren“. Im Vordergrund steht der Wunsch, in der sozialen Realität vorgefundene Phänomene erstmalig oder genauer zu verstehen. Zu diesen Aspekten gibt es noch nicht ausreichend Vorarbeiten, daher wird induktiv gearbeitet, also „aus dem vorgefundenen Material heraus“. Daher können die Hypothesen auch erst nach der Durchführung der eigenen empirischen Forschung aufgestellt werden, es gibt ja noch zu wenig Material, auf dessen Basis sie für eine Überprüfung aufgestellt werden könnten („hypothesengenerierendes Arbeiten“). Für die methodische Umsetzung werden Einzelfälle herangezogen, die tiefere Einblicke in das interessierende Phänomen geben. Aus diesen kann aber nicht verlässlich auf die Grundgesamtheit geschlossen werden. Die Variablen werden daher genau beschrieben.
4.1.2Induktion und Deduktion
Die Unterscheidung zwischen qualitativer und quantitativer Forschung beinhaltet auch die Unterscheidung zwischen einem induktiven und einem deduktiven Forschungsverlauf. Die Begriffe Induktion und Deduktion eignen sich auch sehr gut, um die grundlegenden Forschungszugänge zu verstehen.
Was bedeutet Induktion? Der Begriff kommt von lateinisch inductio (Hereinführung). Methodisch gesehen bedeutet es qualitativ, also hypothesen- und/oder theoriegenerierend zu arbeiten. Ein Gedanke vom Einzelwissen und vom speziellen Wissen führt zum allgemeinen Wissen. Das bedeutet, dass aus dem vorgefundenen Material heraus gearbeitet wird. Man widmet sich diesem Material sehr ausführlich und sucht nach den interessierenden Variablen. Man geht aber nicht mit [48] aus der Literatur abgeleiteten Kategorien an diese Suche heran (zumindest nicht nur oder nur in groben Zügen), sondern sucht, was im Material selbst steckt. Dabei geht es v. a. um ein Beschreiben und Verdichten der aufgefundenen Variablen.
Was bedeutet Deduktion? Dieser Begriff leitet sich von lateinisch deductio (Hinwegführung) ab. Methodisch gesehen bedeutet es, quantitativ, also hypothesenprüfend zu arbeiten. Spezielle Erkenntnis wird aus allgemeinen Theorien gewonnen. Dies bedeutet, dass es zum gewählten Forschungsinteresse bereits eine Fülle an Material gibt. Auf dieses kann (muss!) aufgebaut werden, aus diesem werden jene Faktoren abgeleitet, die in der empirischen Untersuchung überprüft (und idealerweise) weiterentwickelt werden.
Kurz zusammenfassend kann also gesagt werden: Deduktion bedeutet das Schließen vom Allgemeinen auf das Besondere (den Einzelfall). Induktion hingegen bedeutet das Schließen vom Besonderen (dem Einzelfall) auf das Allgemeine.
Neben der „wahrheitsbewahrenden“ (und deswegen sichereren, aber weniger innovativen) Deduktion und der potenziell „wahrheitserweiternden“ (und deswegen weniger sicheren) Induktion gibt es eine weitere Form des Schließens: die Abduktion. Sie hat den Anspruch, genuin neues Wissen zu erzeugen, und ist deshalb potenziell „wahrheitserzeugend“. Sie stellt damit einen Zugewinn an Wissen dar; sie schließt von beobachtbaren Fakten nicht auf weitere ähnliche Fakten, sondern auf allgemeine Prinzipien und Hintergründe, die die Fakten erklären könnten. „Die Abduktion ist also ein kreativer Prozess der Generierung neuer Hypothesen aus Daten, wobei vor allem die geistige Haltung der Forschenden entscheidend ist [...].“ (Döring & Bortz, 2016, S. 35) Diese Erklärungen haben aber immer stark spekulativen Charakter.
4.2Forschungsabläufe
Je nach gewähltem Zugang ergeben sich nun zwei verschiedene Abfolgen im wissenschaftlichen Arbeiten. Auch wenn sich die beiden Vorgehensweisen in der Abfolge der einzelnen Schritte unterscheiden, so gibt es doch auch wesentliche Gemeinsamkeiten.
Es gibt außerdem Forschungsarbeiten, bei denen beide Zugänge kombiniert werden, weil es (nur) so sinnvoll ist, die gewählte Fragestellung zu untersuchen.
Die Wahl des Forschungsprozesses und der Methode hängt vom gewünschten Ziel, dem Forschungsstand und den Forschungsfragen ab. [49]
4.2.1Typisches quantitatives Arbeiten
Quantitatives Forschen folgt typischerweise dem in Abbildung 2 dargestellten Ablauf.
Ein typischer quantitativer Forschungsablauf beginnt mit der Erfassung des Forschungsstandes, der Definition des konkreten Themas basierend auf einem (Forschungs-)Problem und der Formulierung des Zieles bzw. des Erkenntnisinteresses.
Ausgehend von einem soliden und ausreichend vorhandenen Forschungsstand können Forschungsfragen formuliert, Hypothesen gebildet, Variablen definiert und eine Operationalisierung vorgenommen werden.
Daran schließt die Entwicklung des Untersuchungsdesigns an, das in der Feldarbeit umgesetzt wird. Die erhobenen Daten müssen ausgewertet, das Ergebnis muss präsentiert und interpretiert werden. Anhand der durch die eigene empirische Arbeit gewonnenen Daten werden die Forschungsfragen beantwortet bzw. die Hypothesen (vorläufig) bestätigt oder falsifiziert.
Die Ergebnisse müssen auch in einen Zusammenhang mit den schon in der Literatur vorliegenden Daten gebracht werden.
4.2.2Typisches qualitatives Arbeiten
Qualitatives Forschen folgt typischerweise dem in Abbildung 3 dargestellten Ablauf. [50]
Abb. 2: Quantitativer Forschungsablauf
Quelle: Eigene Darstellung. [51]
Abb. 3: Qualitativer Forschungsablauf
Quelle: Eigene Darstellung. [52]
Auch bei einem qualitativen Forschungsablauf steht die Erfassung des Forschungsstandes, die Definition des konkreten Themas basierend auf einem (Forschungs-)Problem und die Formulierung des Zieles bzw. des Erkenntnisinteresses am Anfang der wissenschaftlichen Arbeit. Auch hier wird eine Forschungsfrage formuliert, die bei diesem Vorgehen häufig als forschungsleitende Frage bezeichnet wird.
Da beim qualitativen Arbeiten meist nicht in ausreichendem Umfang Studien und Untersuchungen vorliegen, um Hypothesen aufzustellen, muss die empirische Untersuchung bereits zu diesem Zeitpunkt durchgeführt werden, um eine Basis für die Formulierung von Hypothesen zu gewinnen. Das heißt, dass zunächst das Untersuchungsdesign erarbeitet und die Feldarbeit durchgeführt wird. Das gewonnene Material kann mit unterschiedlichen Auswertungskonzepten7 durch die Festlegung von Codierregeln (auch hier gibt es verschiedene Verfahrensmöglichkeiten) differenziert ausgewertet, interpretiert und präsentiert werden. Daran schließt die Beantwortung der Forschungsfragen an und im Anschluss werden Hypothesen aufgestellt.
Der Prozess ist dabei aber typischerweise nicht linear, sondern zirkulär bzw. iterativ. Daher bietet sich für einen qualitativen Forschungsablauf besser die in Abbildung 4 präsentierte Darstellung an.
Abb. 4: Zirkuläres Modell des qualitativen Forschungsablaufs
Quelle: Flick, 2016, S. 128. [53]
4.2.37-Schritte-Modell eines typischen Forschungsablaufs
Das 7-Schritte-Modell zeigt die typischen Forschungsabläufe für (sowohl quantitative als auch qualitative) Arbeiten. Dabei werden nicht nur die Unterschiede hervorgehoben, sondern auch die (beträchtlichen!) Gemeinsamkeiten dargestellt.
Tab. 4: 7-Schritte-Modell eines Forschungsablaufs
[54]
Quelle: adaptiert nach Haas & Lojka, 1988, S. 2–3 und Mayring, 2016, S. 24–27.
4.3Ansprüche an wissenschaftliches Arbeiten – wissenschaftliche und methodische Gütekriterien
Wissenschaft ist fundierte, systematische und nachvollziehbare Befriedigung von Neugier. (Das „Wissen-Schaffen“, das dem „Wissen-Wollen“ folgt, läuft nach bestimmten Regeln ab.) Dabei gilt das „Dogma der Wiederholbarkeit“! Der gesamte Forschungsprozess muss daher so klar dargelegt und beschrieben werden, dass bei einer Wiederholung (von sachkundigen Forschern) dasselbe Ergebnis herauskommt. So muss jeder Arbeitsschritt offengelegt und dokumentiert werden.
Die systematische Vorgehensweise beim wissenschaftlichen Arbeiten ist somit insbesondere nachvollziehbar, wiederholbar, überprüfbar, auffindbar, kritisierbar, verbesserbar, (möglichst) vollständig und methodisch. Das Ergebnis ist relevant, nützlich, neu – es bringt einen Erkenntnisgewinn.
Dieses systematische, wissenschaftlich korrekte Arbeiten erfolgt nach bestimmten Regeln (vgl. u. a. Forschungsfragen, Hypothesenbildung, Verwendung von korrekten Methoden). Für die Verwendung von bereits vorhandenem Material (Literatur, Studien etc.) gibt es eigene Regeln für den Umgang mit diesen Quellen. [55]
4.3.1Die „klassischen“ Ansprüche
Jene Vorgaben, die man einhalten muss, damit ein Forschungsprozess wissenschaftlich ist, nennt man wissenschaftliche und methodische Gütekriterien. Für wissenschaftliches Arbeiten gelten die in Abbildung 5 dargestellten zehn grundlegenden Ansprüche bzw. Gütekriterien, die eng zusammenhängen und teilweise ineinander übergehen.
Abb. 5: Ansprüche an das wissenschaftliche Arbeiten
Quelle: Balzert et al., 2008, S. 9.
Im Detail versteht man unter diesen Qualitätskriterien die folgenden Ausprägungen (vgl. bspw. Balzert et al., 2008, S. 10–42):
Objektivität
Bei diesem Gütekriterium geht es um die Frage, ob die Ergebnisse unabhängig von Einflüssen der Forscherin oder der Erhebungssituation bei der Durchführung, Auswertung und Interpretation zustande gekommen sind. Die Inhalte von wissenschaftlichen Arbeiten müssen so neutral, sachlich, unabhängig, vorurteilsfrei und unvoreingenommen wie nur möglich sein. Persönliche Vorlieben oder Befindlichkeiten des Verfassers dürfen in eine wissenschaftliche Arbeit nicht miteinfließen. Dabei ist eine gewisse Subjektivität nie ganz auszuschließen, da der Forscher ja immer eine bestimmte Position einnimmt; es muss aber versucht werden, diese Subjektivität so gut wie möglich auszuschließen. [56]
Als objektiv gelten Messinstrumente oder empirische Verfahren, wenn die damit erzielten Ergebnisse unabhängig sind von der Person, die die Messinstrumente anwendet.
Ehrlichkeit
Wer wissenschaftlich arbeitet, muss seine Ergebnisse und Beobachtungen wahrheitsgemäß wiedergeben, dies schafft Glaubwürdigkeit. Plagiate, Fälschungen, Täuschungen und Datenmanipulationen oder Ghostwriting sind unredliches wissenschaftliches Verhalten. Irrtümer – bei grundsätzlich korrektem wissenschaftlichem Vorgehen – sind dabei aber leider nicht ausgeschlossen. Dieses Gütekriterium steht im engen Zusammenhang mit der wissenschaftlichen Redlichkeit.
Überprüfbarkeit
Wissenschaftliche Aussagen müssen überprüft (falsifiziert oder vorläufig bestätigt) werden können. Dafür müssen alle Schritte des wissenschaftlichen Arbeitens offengelegt werden, damit die Forschung wiederholt, überprüft und ggf. verbessert werden kann. Zudem ist es unabdingbar notwendig, dass korrekt zitiert wird und alle verwendeten Quellen dargelegt werden.
Reliabilität
Reliabilität bedeutet die Zuverlässigkeit der Messung. Wissenschaftliches Arbeiten muss unter gleichen Bedingungen gleiche Ergebnisse hervorbringen. Reliabilität bezieht sich üblicherweise auf ein Messinstrument und beschreibt die Zuverlässigkeit der Messung, die mit diesem Instrument durchgeführt wird. Wenn dasselbe Messinstrument an ein und derselben Person zweimal dasselbe Ergebnis bringt, gilt es als reliabel (unter der Voraussetzung, dass sich die Variable nicht geändert hat).
Es ist auch möglich, die Reliabilität in Form eines Paralleltests zu überprüfen (wenn dieser gleiche Ergebnisse von zwei getrennten Gruppen zur selben Zeit liefert, ist das Messinstrument reliabel). Das Erzielen von gleichen Ergebnissen gilt als Idealfall, tatsächlich ist aber jede empirische Messung mit einem Zufallsfehler behaftet, daher wird die Reliabilität als ein Koeffizient zwischen 0 und 1 beschrieben.
Für die Überprüfung von Reliabilität gibt es verschiedene standardisierte Testverfahren.
Validität
Validität bedeutet Gültigkeit. Sie stellt sicher, dass man mit dem Messinstrument wirklich das misst, was man messen möchte. Forschungs- und Erhebungsinstrumente müssen genau das erheben, was sie erheben sollen. Die Prüfung der Validität erfolgt nicht durch Koeffizienten [57] oder standardisierte Testverfahren, sondern durch die Verbesserung des Messinstruments, indem man überprüft, ob die Variablen „die richtigen“ sind und man mit ihnen auch das messen kann, was einen interessiert.
Verständlichkeit
Wissenschaftliche Arbeiten müssen verständlich sein. Dazu tragen eine logische Gliederung und eine folgerichtige Struktur, verständliche Sprache und zweckmäßige Aufbereitung der Literatur (selbstverständlich unter Verwendung des entsprechenden Fachvokabulars) und eine gute Navigation durch die Arbeit (Inhaltsverzeichnis) bei.
Relevanz
Eine wissenschaftliche Arbeit ist dann relevant, wenn sie im Fachgebiet neues Wissen schafft, zum wissenschaftlichen Fortschritt beiträgt, einen hohen Informationswert aufweist und wenn sie hilft, Probleme der wissenschaftlichen Disziplin zu lösen. Gerade im Bereich der Gesellschaftswissenschaften zeigen sich hier viele aktuell relevante Aspekte.
Logische Argumentation
Eine logische, somit folgerichtige Argumentation ist für jede wissenschaftliche Arbeit essenziell. Dies bedeutet, eigene Behauptungen ausreichend, sorgfältig und plausibel zu begründen, korrekte Schlussfolgerungen zu ziehen. Dazu ist es auch notwendig, alle verwendeten Argumente offenzulegen. So können Fehlschlüsse vermieden werden und die Arbeit erscheint nicht als „beliebig“.
Originalität
Eine wissenschaftliche Arbeit muss eine eigenständige Leistung vorlegen, die ein neuer Entwurf, eine neue Lösung oder eine neue Zusammenstellung unter einem neuen Blickwinkel sein kann.
Nachvollziehbarkeit
Jede wissenschaftliche Arbeit muss für die Leser nachvollziehbar sein. Dies bedeutet, dass sich die Arbeitsschritte für die Leser erschließen. Im Kriterium der Nachvollziehbarkeit finden sich alle oben angeführten Merkmale wieder.
4.3.2Rechtmäßigkeit, insbesondere Datenschutz
Die hier vorgestellten zehn Gütekriterien müssen um einen wesentlichen Aspekt ergänzt werden: die Rechtmäßigkeit. Damit ist einerseits der korrekte Umgang mit fremden Quellen gemeint (siehe dazu sehr [58] ausführlich Kap. 9), andererseits sind aber auch Fragen des Datenschutzes angesprochen, die hier kompakt dargestellt werden sollen.
Der Datenschutz verfolgt das Ziel, persönliche oder gar sensible Daten von Personen (hier in concreto von Personen, die befragt oder beobachtet wurden) zu schützen. Die wissenschaftliche Antwort auf den Datenschutz ist grundsätzlich insb. die Anonymisierung von erhobenen Daten. Auf diese Anforderung ist bereits bei der Erarbeitung der Fragestellung, spätestens jedoch vor (!) dem Erhebungsprozess unbedingt Rücksicht zu nehmen!
Bei der Durchführung von Befragungen stellen sich zwei Fragen:
•Wie kann man Menschen dazu anregen, an einer Befragung teilzunehmen, um die gewünschte Stichprobe zu erreichen?
•Wie ist die Befragung durchzuführen, damit der Datenschutz bestmöglich gewährleistet ist?
Bei Befragungen ergibt sich ja häufig die Herausforderung, wie man Personen anregen kann, an einer Befragung teilzunehmen. Das direkte Anschreiben von fremden Personen per E-Mail bspw. ist sehr problematisch, da (insb. personalisierte) E-Mail-Adressen bereits zu den persönlichen Daten zählen. In diesem Fall müssten diese Personen vorab zugestimmt haben, dass man ihnen derartige Fragebögen schicken darf. Diese Zustimmung ist bei studentischer wissenschaftlicher Forschung wohl kaum jemals gegeben. Fragebögen in Online-Foren oder auf Social Media-Plattformen zu publizieren ist hingegen unbedenklich, da ja die potenziellen Befragten nicht direkt kontaktiert werden. Dabei sind die jeweils gültigen AGB der Plattformen zu berücksichtigen. (Hier zeigt sich, dass die Frage der Datenqualität und die Frage der Erfüllung von rechtlichen Voraussetzungen zwei unterschiedliche Bereiche darstellen!) Des Weiteren besteht die Möglichkeit, Personen persönlich (face to face) zu befragen. Wenn dazu bspw. ein standardisierter Fragebogen verwendet wird, den Personen, die zufällig auf der Straße angesprochen werden, ausfüllen, dann ist diese Befragung sogar anonym. Es ist ja kein Rückschluss auf eine einzelne Person möglich, die einzelnen Personen sind weder identifiziert noch identifizierbar.
Bei Fokusgruppen-Gesprächen ist dies bspw. anders. Zumeist ist also auch hierfür eine Einwilligung erforderlich (siehe dazu gleich unten).
Bleibt die Frage, wie Befragungen datenschutzkonform erstellt und durchgeführt werden können. Die Europäische Datenschutzgrundverordnung (DSGVO) ist am 25. Mai 2018 in allen EU-Mitgliedsländern in Kraft getreten. Die DSGVO hat zum Ziel, personenbezogene Daten [59] bestmöglich zu schützen und den Menschen die Möglichkeit zu geben, selbst zu entscheiden, wer personenbezogene Daten haben und verarbeiten darf. Gem. Art 4 DSGVO sind
„personenbezogene Daten“ alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (im Folgenden „betroffene Person“) beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann.
In sozialwissenschaftlichen Untersuchungen werden nun tatsächlich häufig derartige Merkmale erhoben, aber sie werden grundsätzlich in anonymer oder anonymisierter Form ermittelt und v. a. verarbeitet. Das heißt, ein Rückschluss auf einzelne Personen ist nicht möglich und darf mit erlaubten technischen Hilfsmitteln auch nicht möglich sein.
Hier zeigt sich, dass die Kriterien von korrekter wissenschaftlicher Sozialforschung diesem Anspruch schon immer genügt haben. Die Sozialwissenschaft verspricht ihren Befragten stets, dass alle Daten nur in anonymisierter Form verwendet werden. Es interessiert ja gerade nicht die erkennbare Einzelperson, sondern es werden Aussagen über eine größere Gesellschaftsgruppe angestrebt.
Dennoch gilt es auch zu prüfen, ob alle Rechtsgrundlagen eingehalten werden, und ggf. entsprechende Maßnahmen zu setzen, um rechtssicher zu agieren.
Die Erhebung und Verarbeitung personenbezogener Daten im Rahmen von sowohl quantitativer als auch qualitativer studentischer Forschung (Seminar- und wissenschaftliche Arbeiten, Bachelorarbeiten, Abschlussarbeiten) ist in Österreich nach dem Forschungsorganisations-Gesetz (FOG) explizit erlaubt: Mit dem § 2f Abs 5 Forschungs-Organisations-Gesetz (FOG) wird studentische Forschung im Rahmen der Lehre besonders geschützt.
Um nun als Studierende Befragungen durchführen zu können, sind technische, inhaltliche und formale Aspekte zu berücksichtigen, die aber sehr gut mit den wissenschaftlichen Standards und Konventionen harmonieren und daher keinen großen zusätzlichen Aufwand bedeuten. Die „Anleitungen zur studentischen sozialwissenschaftlichen Forschung: Auswirkungen der DSGVO für die Praxis“ werden mit [60] ausdrücklicher Zustimmung des Büro Studienpräses an dieser Stelle wortwörtlich, aber gekürzt wiedergegeben (Büro Studienpräses, 2018).
„Anleitungen zur studentischen sozialwissenschaftlichen Forschung: Auswirkungen der DSGVO für die Praxis“ des Büro Studienpräses der Universität Wien, Stand 2018
Pseudonymisierte Daten/anonyme bzw. anonymisierte Daten
Pseudonymisierte Daten liegen dann vor, wenn sich personenbezogene Daten nicht mehr ohne zusätzliche Information einer Person zuordnen lassen. Bei dieser zusätzlichen Information handelt es sich um eine „Verschlüsselung“ oder einen „Code“ der Daten, ohne die man die personenbezogenen Daten nicht mehr den einzelnen Personen zuordnen kann. Der dafür notwendige Code ist technisch wie organisatorisch getrennt von den pseudonymisierten Daten aufzubewahren.
Bei anonymen bzw. anonymisierten Daten ist kein Rückschluss auf konkrete Personen möglich. Entweder ist keine Person zu den Daten bekannt (= anonym) oder der „Code“ wird gelöscht (= anonymisiert). Wenn ausschließlich anonyme Daten erhoben werden, dann sind die Regelungen der DSGVO gar nicht anzuwenden.
Ücretsiz ön izlemeyi tamamladınız.