Kitabı oku: «Darwin schlägt Kant», sayfa 11

Yazı tipi:

6.1Kahnemans Taxiproblem

Beginnen wir mit Statistik. Statistiken sind in der Wissenschaft und in der Öffentlichkeit weit verbreitet. Prozentzahlen und mathematische Korrelationen vermitteln den Eindruck scheinbarer Objektivität. Aber auch hier liegen Licht und Schatten nahe beieinander. Der in diesem Buch ausführlich zitierte Daniel Kahneman hat sich intensiv mit Verzerrungen unserer Wahrnehmung und Erkenntnisfähigkeit beschäftigt. Als Naturwissenschaftler belegt er die menschlichen Denkfehler oft dadurch, dass er sie mit scheinbar objektiven Zahlen vergleicht. Auf welch schwankendem Grund die scheinbar objektiven Tatsachen stehen, kann man anhand eines von Kahneman selbst dargestellten Beispiels demonstrieren. Es handelt sich um das Taxiproblem. Kahneman verwendet es, um zu demonstrieren, dass wir bei unseren Einschätzungen oft statistische Zusammenhänge bzw. Wahrscheinlichkeiten ignorieren, es sei denn, der Zusammenhang wird uns in einer eingängigen Geschichte präsentiert. Dieser Befund ist zweifellos richtig. Man kann das Beispiel aber auch dazu verwenden, um auf die mit dem statistischen Ansatz verbundenen Probleme hinzuweisen. Sie stehen stellvertretend für die häufig unterschätzten Schwierigkeiten, die auch mit der naturwissenschaftlichen Methodik verbunden sind.

Zunächst das Taxibeispiel, so wie Kahneman es in seinem Buch schildert: »Ein Taxi war an einem nächtlichen Unfall mit Fahrerflucht beteiligt. Zwei Taxiunternehmen, Green und Blue, arbeiten in der Stadt.

Sie erhalten die folgenden Daten:

−85 Prozent der Taxis in der Stadt gehören der Firma Green, 15 Prozent der Firma Blue.

−Ein Zeuge hat das Taxi als eines der Firma Blue identifiziert. Das Gericht überprüfte die Zuverlässigkeit des Zeugen unter den Umständen, die in der Nacht des Unfalls herrschten, und gelangte zu dem Schluss, dass der Zeuge jede der beiden Farben in 80 Prozent der Fälle richtig und in 20 Prozent der Fälle nicht richtig erkannte.

Wie hoch ist die Wahrscheinlichkeit, dass das an dem Unfall beteiligte Taxi der Firma Blue und nicht der Firma Green gehörte?«

Kahneman weist darauf hin, dass es zwei Informationen gibt: »Eine Basisrate und die nicht gänzlich zuverlässige Aussage eines Zeugen. Ohne einen Zeugen liegt die Wahrscheinlichkeit dafür, dass das am Unfall beteiligte Taxi der Firma Blue gehört, bei 15 Prozent – was die Basisrate für dieses Ergebnis ist. Wenn die beiden Taxi-Unternehmen gleich groß wären, hätte die Basisrate keinen Informationsgehalt, und Sie würden lediglich die Zuverlässigkeit des Zeugen betrachten, sodass Sie zu dem Schluss kämen, dass die Wahrscheinlichkeit 80 Prozent beträgt.«

Die Aufgabe ist mit der Bayesschen Formel zu lösen. Sie kombiniert die Wahrscheinlichkeiten (15 Prozent und 80 Prozent). Das Resultat ist 41 Prozent. Die häufigste Antwort ist aber 80 Prozent, weil die Basisrate ignoriert und nur der Zeuge beachtet wird.

Kahneman fährt fort: »Betrachten wir nun eine Variante der gleichen Geschichte, in der nur die Präsentation der Basisrate verändert wurde.

Sie erhalten die folgenden Daten:

−Die beiden Firmen betreiben die gleiche Anzahl von Taxis, aber Green-Taxis sind an 85 Prozent der Unfälle beteiligt.

−Die Information über den Zeugen ist die gleiche wie in der vorangehenden Version.

Die beiden Versionen des Problems sind mathematisch gesehen identisch, aber psychologisch betrachtet recht unterschiedlich. Personen, die die erste Version lesen, wissen nichts mit der Basisrate anzufangen und ignorieren sie oftmals. Dagegen geben die Probanden, denen die zweite Version dargeboten wird, der Basisrate ein erhebliches Gewicht, und ihr durchschnittliches Urteil ist nicht allzu weit von der Bayesschen Lösung entfernt. Wieso?

In der ersten Version ist die Basisrate von Blue-Taxis eine statistische Tatsache über Taxis in der Stadt. Ein auf kausale Zusammenhänge erpichter Intellekt findet hier nichts zum Beißen: Wie kann die Anzahl der Green- und Blue-Taxis in der Stadt die Ursache dafür sein, dass dieser Taxifahrer Unfallflucht begeht?

In der zweiten Version dagegen verursachen die Fahrer der Green-Taxis mehr als fünfmal so viele Unfälle wie die Blue-Taxis. Daher die prompte Schlussfolgerung: Die Green-Fahrer müssen ein Verein von rücksichtslosen Irren sein! Sie haben jetzt ein Stereotyp über die Rücksichtslosigkeit von Green gebildet, das Sie auf unbekannte einzelne Fahrer im Unternehmen anwenden. Das Stereotyp lässt sich mühelos in eine kausale Geschichte einfügen, weil Rücksichtslosigkeit eine kausal relevante Information über einzelne Taxifahrer ist. Diese Version enthält zwei kausale Geschichten, die miteinander kombiniert bzw. in Einklang gebracht werden müssen. Die erste ist die Fahrerflucht, die natürlich die Vorstellung wachruft, dass ein rücksichtsloser Green-Fahrer verantwortlich war. Die zweite ist die Zeugenaussage, die entschieden darauf hindeutet, dass es ein Blue-Taxi war. Die Schlüsse aus den beiden Geschichten über die Farbe des Taxis sind widersprüchlich und heben sich annähernd gegenseitig auf. […]

Das Taxi-Beispiel veranschaulicht zwei Typen von Basisraten. ›Statistische Basisraten‹ sind Tatsachen über eine Population, zu der ein Einzelfall gehört, aber sie sind nicht relevant für den Einzelfall. ›Kausale Basisraten‹ verändern Ihre Sichtweise darüber, was einen Einzelfall hervorgebracht hat. Die beiden Typen von Informationen über Basisraten werden unterschiedlich behandelt:

−Statistische Basisraten werden im Allgemeinen untergewichtet und manchmal völlig außer Acht gelassen, wenn spezifische Informationen über den vorliegenden Fall verfügbar sind.

−Kausale Basisraten werden als Information über den Einzelfall behandelt und lassen sich leicht mit anderen fachspezifischen Informationen verknüpfen.« [4, S. 208–210]

6.2Methodische Probleme statistischer Modelle am Beispiel des Taxiproblems

Man kann sagen, ein Hauptproblem bestehe bei der einzelfallbezogenen menschlichen Analyse in der überbordenden Tendenz, zu generalisieren und Kausalitäten zu konstruieren, die subjektiv vertraut erscheinen, letztlich aber auf verzerrten Wahrnehmungen und Beurteilungen beruhen. Wir haben eine Menge möglicher Fehlerquellen für die damit verbundenen Prozesse zur Kenntnis genommen. Umgekehrt könnte man sagen, dass das Problem statistischer Zugänge genau im Gegenteil, im Fehlen von Kausalität, zu suchen ist. So sind statistische Zugänge häufig dann stark, wenn es um überschaubare Verhältnisse geht und wenn sie für eine grobe Orientierung zum Beispiel zum Screening eingesetzt werden. Hingegen sind sie oft nicht in der Lage, komplexe Phänomene mit der nötigen Differenziertheit abzubilden. Denn die Informationen, aus denen sich Statistiken entwickeln lassen, müssen (1) praktisch verfügbar (d. h. schon vorher bekannt) sein und sich (2) in Form von Zahlen abbilden lassen. Das führt zwingend zu einer enormen Reduktion von Information und einer hochgradigen Selektion potenzieller Einflussvariablen. Man kann das anhand des Taxibeispiels verdeutlichen.

Auf den ersten Blick scheint die auf dem Bayes-Theorem beruhende Berechnung einen entscheidenden Vorteil zu haben. Sie wirkt objektiv, weil sie anscheinend nicht durch kausale Annahmen mit ihren vielfachen Fehlerquellen beeinflusst ist. Die Berechnung geht allein von objektiven Zahlen wie der Verteilung der Taxis zwischen den Unternehmen Green und Blue aus.

Bei näherem Hinsehen versteckt sich aber auch in diesem scheinbar neutralen Zugang bereits eine kausale Annahme. Sie lautet: Das Unternehmen, das mehr Taxis besitzt, hat eine höhere Wahrscheinlichkeit, den Unfall verursacht zu haben, als das Taxiunternehmen, dem weniger Taxis gehören. Gemäß dieser kausalen Hypothese wird die prozentuale Verteilung der Taxis auf die beiden Unternehmen als Basisrate angesehen, mit der gerechnet wird. Es könnte aber sein, dass diese Verteilung die falsche Basisrate ist, weil die ihr zugrunde liegende kausale Hypothese falsch ist. Denn die Besitzverhältnisse sagen ja noch nichts über die Fahrtzeiten, die Auslastung oder die regionale Verteilung der Taxis aus. Das könnte aber entscheidend sein. Denn wir interessieren uns ja für die Basiswahrscheinlichkeit, mit der ein Taxi eines der beiden Unternehmen an einem bestimmten Ort anzutreffen ist.

Nehmen wir an, die Taxis haben räumliche Schwerpunkte. Da die Firma Blue weniger Taxis als die Konkurrenzfirma hat, konzentriert sie sich auf einige wenige Stadtteile. Die Wahrscheinlichkeit dafür, dass sie in diesen Stadtteilen herumfährt, ist deswegen deutlich höher als 15 Prozent. Dass blaue Taxis in anderen Stadtteilen auftauchen, ist dafür viel unwahrscheinlicher als 15 Prozent. Schließlich können die Taxis ja nicht gleichzeitig an zwei Orten sein. Es könnte sein, dass der Stadtteil, in dem der Unfall geschah, gerade ein solcher Schwerpunkt der Firma Blue ist. Nehmen wir an, die Präsenz der kleinen Firma ist hier sogar so groß, dass sie 80 Prozent der entsprechenden Aufträge bekommt. Die Basisrate für ihre Taxis wäre also in diesem Stadtteil nicht 15 Prozent, sondern praktisch 80 Prozent. Die theoretisch plausible Basisrate von 15 Prozent für das gesamte Stadtgebiet zugrunde zu legen, ist falsch und führt zu einer schweren Verzerrung des entsprechenden Ergebnisses. Die Zeugenaussage würde in diesem Fall durch die theoretische Basisrate in völlig unzulässiger Weise entwertet.

In der Praxis ist also die entscheidende Frage: Wusste der Statistiker, dass die Stadtgebiete ganz unterschiedlich befahren werden und es verschiedene Basisraten für einzelne Stadtteile gibt? Vielleicht haben sich die beiden Unternehmen abgesprochen und die Stadtteile untereinander aufgeteilt. Sie haben keinerlei Interesse, dass ihre Absprache publik wird. Dem Statistiker, der bemüht ist, die richtige Basisrate in Erfahrung zu bringen, könnten sich also Hindernisse in den Weg stellen, die er gar nicht kennen kann. Er wird also eine Basisrate nehmen, die ihm einerseits plausibel erscheint und die ihm andererseits überhaupt zugänglich ist.

Weil es für den Unfall keinen direkten Zeugen gab, muss es sich um eine Leerfahrt gehandelt haben. War es eine Suchfahrt, um einen Fahrgast zu finden? Es ist keineswegs sicher, dass die Firmen proportional zu ihrer Größe und nicht proportional zu ihrem Geschäftserfolg Suchfahrten durchführen. So könnte es sein, dass das erfolgreichere Unternehmen überproportional viele Suchfahrten unternimmt, um Gäste zu bekommen. Dann fährt eine der beiden Firmen sehr viel mehr in der Stadt herum, während die anderen Taxis an fixen Standorten warten. Es könnte aber genau umgekehrt sein. Die Firma, die viel mehr Aufträge bekommt, erreicht dies über mehr Mitarbeiter, größere Bekanntheit, bessere Standplätze oder irgendeinen anderen Faktor. Jedenfalls führt der Erfolg dazu, dass diese Firma für eine bezahlte Taxifahrt sehr viel weniger Suchfahrten unternehmen muss als die andere. In diesem Fall wäre nicht die erfolgreichere, sondern gerade die weniger erfolgreiche Firma überproportional häufiger auf Suchfahrten anzutreffen. Für die Basisrate wären jedenfalls die effektiven Fahrzeiten entscheidend. Vielleicht gibt es hierzu aber gar keine Zahlen.

Konstruieren wir einen weiteren Aspekt. Der entscheidende Punkt ist die Fahrerflucht. Aber warum ist der Fahrer geflüchtet? War er nicht versichert oder hat er einen cholerischen Chef? Oder war er unerlaubterweise privat unterwegs und ist nach Hause gefahren? In der Logik dieses Gedankens könnten Fahrer, die in der Nähe des Unfallortes wohnen, einen stärkeren Grund – und damit eine höhere Wahrscheinlichkeit – haben, Fahrerflucht zu begehen. Dann wäre die entscheidende Basisrate diejenige, die etwas über die Verteilung der Wohnorte von Fahrern der Firma Blue und Green im Umkreis des Unfalls aussagt.

Vielleicht sind Fahrer, die schon zwei Unfälle auf dem Konto haben, bei einem dritten Unfall stark gefährdet, ihre Arbeit zu verlieren. Sie haben Grund für eine Fahrerflucht. Trifft das zu, dann wären die Prozentzahlen für Fahrer mit zwei Unfällen im Unternehmen Blue und Green interessant.

Ich will es nicht ins Absurde steigern. Wir sehen aber, dass selbst in einem sehr einfachen und überschaubaren Beispiel der Teufel im Detail liegt. Der scheinbar so objektive statistische Ansatz führt uns – eh wir uns versehen – in ähnliche Probleme wie das freie Denken, das so anfällig für Fehler und Verzerrungen ist.

Gerade bei komplexen Phänomenen sind die Auswahl einer geeigneten Basisrate und das Erkennen der wichtigen Informationen oft ein großes Problem. Denn gemessen werden die Informationen, die zugänglich sind und die sich in Zahlen abbilden lassen. Das kann aber ein völlig falscher Ansatz sein. Sicher aber ist der Statistiker im Vorteil, der das Phänomen, das er untersucht, sehr gut durchdrungen hat. Nur so kann er überhaupt erkennen, wo mögliche praktische Probleme und Grenzen der Erfassung liegen. Nicht selten fehlt dieses Wissen aber. Dann greift der Wissenschaftler zu den Zahlen, die ihm zugänglich sind. Dieses Vorgehen kennen wir. Es entspricht der WYSIATI-Regel. Man erkennt das, was man sieht, und nicht das, was tatsächlich vorhanden ist. Das führt zu falschen Zahlen und falschen Schlussfolgerungen.

Empirische Methoden kämpfen mit den gleichen Problemen, die generell mit der menschlichen Vernunft und der menschlichen Natur verbunden sind. Oder wie Kant es bereits sagte: Die Empirie erkennt das, was sie zuvor als Struktur und Fragestellung in das Phänomen hineingelegt hat.

6.3Methode oder Versuchspersonen: Wer liegt hier falsch?

Ich habe Nassim Taleb als Vertreter eines mathematisch-empirischen Ansatzes vorgestellt, der die Grenzen und die inhärenten Verzerrungen dieses Ansatzes unterschätzt (Kap. 2.11).

Ich will das an einem weiteren Beispiel demonstrieren. Taleb schildert ein berühmtes psychologisches Experiment. Man bittet Versuchspersonen, etwas zu schätzen. Sie sollen einen Zahlenbereich so wählen, dass die zu schätzende Zahl sich mit einer Wahrscheinlichkeit von 98 Prozent im gewählten Zahlenbereich befindet. Den Zahlenbereich können sie frei wählen. Theoretisch müsste man erwarten, dass jeweils 98 Prozent der getesteten Personen einen Zahlenbereich angeben, in dem der gesuchte Wert enthalten ist. Bei einer vorgegebenen Fehlertoleranz von 2 Prozent sollten theoretisch also nur 2 von 100 Personen den tatsächlichen Wert verfehlen. Solche Experimente zeigen aber regelmäßig, dass der Prozentsatz von Personen, die danebenliegen, sehr viel höher ist. Das heißt, die Versuchspersonen gehen davon aus, dass sie einen Wertebereich angeben, der mit 98-prozentiger Wahrscheinlichkeit die tatsächliche Zahl trifft. In Wahrheit ist diese Wahrscheinlichkeit aber sehr viel geringer.

Taleb führt für diese Art von Experimenten beispielhaft folgende Anekdote an. Bei einem Vortrag bat er seine Zuhörer, zu schätzen, wie viele Bücher Umberto Eco in seiner Bibliothek hatte. Bei solchen Experimenten liegen immer – und so war es auch hier – sehr viele Personen daneben, obwohl sie selbst sicher sind, dass ihr Zahlenbereich die gesuchte Zahl enthält. In diesem Fall war es sogar so, dass keine Person einen Bereich nannte, der die tatsächliche Zahl von 30 000 Büchern einschloss. Manche langen viel zu tief und andere viel zu hoch. Manche gaben einen Wertebereich von 2000 bis 4000 an. Andere nannten einen Zahlenbereich von 300 000 bis 600 000 Büchern. [5, S. 176–177]

Es gibt zwei Schlussfolgerungen, die aus solchen Experimenten gezogen werden. Menschen überschätzen ihr Wissen. Anders ausgedrückt: Sie unterschätzen die Unsicherheit bzw. ihr Nichtwissen. Sie sind sich also zu 98 Prozent sicher, obwohl das Wissen im Schnitt nur zu einer zum Beispiel 50-prozentigen Trefferquote führt oder noch viel schlechter ausfällt. Die zweite Schlussfolgerung geht in die Richtung, dass Menschen schlecht darin sind, Vorhersagen zu treffen. Denn die Ausgangssituation des Experiments ist mit einer Situation vergleichbar, in der man aufgrund unvollständiger Informationen eine Prognose für die Zukunft treffen soll. Ob man etwas Vergangenes (zum Beispiel die Anzahl der Bücher in der Bibliothek von Umberto Eco) aufgrund eines nicht detaillierten Wissens schätzen oder ein zukünftiges Ereignis aufgrund ebenfalls unvollständigen Wissens einschätzen soll, ist eine ähnliche Ausgangslage. So ist es fast immer bei der Einschätzung komplexer zukünftiger Ereignisse. Man kennt nur einen Teil der maßgebenden Faktoren bzw. kann nicht genau sagen, welche Faktoren mit welcher Bedeutung für eine zukünftige Entwicklung zu werten sind.

Man kann aber nun einen fundamentalen Einwand gegen diese Experimente vorbringen. Die Versuche sind so aufgebaut, dass man das Ergebnis leicht und statistisch sauber auswerten kann. Die Teilnehmer erhalten eine präzise Zahl über die Wahrscheinlichkeit, wie zuverlässig sie ihre eigene Einschätzung bewerten sollen (98 Prozent). Das, was sie schätzen sollen, sind wiederum Zahlen. Es lässt sich also sehr einfach auswerten, ob eine Versuchsperson einen Treffer hatte oder nicht.

Wir haben bei den allgemeinen psychologischen Verzerrungen unseres Denkens gesehen, dass wir schlecht darin sind, intuitiv mit Zahlen und vor allem mit Statistiken umzugehen (vgl. Kap. 2.10). Das ist auch nicht überraschend. Denn Mathematik und der Umgang mit Zahlen sind in unserer evolutionären und über viele Hunderttausend Jahre dauernden Entwicklung ein recht modernes und erst sehr spät hinzugekommenes Phänomen. Die Urzeitmenschen beschäftigten sich nicht mit der Schätzung der Anzahl von Büchern, mit Wertebereichen, Statistik oder prozentualen Sicherheiten oder Unsicherheiten von Aussagen. Auch wenn wir heute viel mit Computern und Rechenmaschinen umgehen, funktioniert der menschliche Verstand nicht wie ein mathematisches Programm. Man könnte also sagen, dass die Versuchsanordnung unfair ist. Denn sie schafft künstliche Bedingungen. Die sind zwar optimal dafür geeignet, den Versuch später mit statistischen Methoden auszuwerten. Sie sind aber weit von einer praktischen Realität entfernt. Außer in einer Quiz-Show, in der diese Frage gestellt würde, wird es je kaum eine praktische Bedeutung haben zu wissen, wie viele Bücher Umberto Eco in seiner Bibliothek hatte. Deswegen sind solche Experimente schlecht geeignet, um die Qualität menschlicher Vorhersagefähigkeiten abzubilden. Die meisten Teilnehmer gingen wohl davon aus, dass Umberto Eco sehr viele Bücher in seiner Bibliothek hatte. Vermutlich dürften sie ihre Einschätzung darauf gestützt haben, dass er überhaupt eine Bibliothek besaß und dass sie ihn als Schriftsteller und Gelehrten kannten. Unter diesem Blickwinkel wollten sie zum Ausdruck bringen, dass es sich um überdurchschnittlich viele Bücher handeln müsse. Und damit hatten sie absolut recht. Für die einen bedeuteten überdurchschnittlich viele Bücher 2000 bis 4000, für andere 300 000 bis 600 000. Wenn man nun die hohen Fehlerquoten interpretiert, dann muss das gar nicht für schlechte Vorhersagefähigkeiten oder die Überschätzung des eigenen Wissens sprechen. Es könnte sich schlicht darum handeln, dass die eigentlich zutreffende globale Einschätzung (überdurchschnittlich viele Bücher) nicht gut in eine abstrakte mathematische Sprache übersetzt werden kann. Denn dass Menschen das intuitiv nicht gut können, ist alles andere als eine Überraschung.

Wiederum erkennt man hier ein Problem der empirisch-naturwissenschaftlichen und scheinbar objektiven Methode. Nicht selten sind die Ergebnisse der Versuchsanordnungen nichts anderes als das, was durch diese Versuchsanordnungen von Anfang an angelegt war.

6.4Irrtümer der Wissenschaft: Einige Beispiele

Nicht wenige Wissenschaftler sind blind gegenüber den Verzerrungsmechanismen, von denen die Naturwissenschaft genauso betroffen ist wie das »freihändige« Denken.

Einige weitere Schlaglichter:

John Ioannidis ist Professor an der Stanford Universität und ein Experte für die wissenschaftliche Auseinandersetzung mit Wissenschaft. Er schätzt, dass achtzig Prozent aller wissenschaftlichen Ergebnisse methodisch falsch sind. Ein wahrlich ernüchternder Wert. [23]

Vieles, was man in früheren Zeiten als wissenschaftlich unumstößliches Wissen angesehen hat, stellte sich später als falsch, grotesk oder gar verstörend heraus:

Im 18. Jahrhundert wurden mit Siegellack oder einem heißen Eisen Körperteile verbrannt, Patienten über Feuersbrünsten oder dem tobenden Meer hochgezogen oder mit Flaschenzügen aufgezogen und dann stundenlang hängen gelassen. [24]

Man spritzte kaltes Wasser in die Scheide, setzte Patienten Lehmkappen oder Eismützen auf oder kettete sie, bis zum Kinn im Wasser stehend, in einem Brunnen an. [25]

In der Psychochirurgie griff man zum Skalpell. Burckhardt behandelte Ende des 19. Jahrhunderts Halluzinationen dadurch, dass er chirurgisch äußere Gehirnschichten entfernte. [26] Bis in die 1950er-Jahre hinein durchtrennte man bei Eingriffen die weiße Substanz des Stirnhirns, um Gefühlsprozesse zu dämpfen. [27]

Zur »Behandlung« der Masturbation wurden Klitorisentfernungen vorgeschlagen. Das dunkle Kapitel der Zwangssterilisation im Nationalsozialismus sei hier nur am Rande erwähnt. [28] [Beispiele aus: 19, S. 30]

Vieles, was man vor fünfzig oder hundert Jahren glaubte, wirkt heute merkwürdig oder sogar verstörend. Machen wir uns aber nichts vor. Mit einer Vielzahl unserer heutigen Erkenntnisse wird es in fünfzig oder gar hundert Jahren nicht anders aussehen. Das ist kein Vorwurf an die damaligen Autoren und auch keine Generalkritik an der Wissenschaft schlechthin. Denn hier gilt das Gleiche, was auch für den Gebrauch unserer Vernunft im Allgemeinen zutrifft. Das Potenzial, Wichtiges und Richtiges differenziert zu erkennen und dadurch Fortschritte zu erzielen, letztlich die Welt besser zu machen, ist allgemein durch den Gebrauch der Vernunft und im Speziellen durch Wissenschaft durchaus vorhanden. Es gibt fantastische wissenschaftliche Arbeiten mit faszinierenden Ergebnissen. Aber sie sind in der Minderheit. Denn auch in der Wissenschaft ist gleichermaßen das Potenzial für Verzerrungen, Falsches, Unnützes und Absurdes vorhanden. Das wird häufig nicht erkannt.

₺811,49

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
732 s. 5 illüstrasyon
ISBN:
9783280090916
Telif hakkı:
Bookwire
İndirme biçimi: