Kitabı oku: «Allgemeine Psychologie», sayfa 4
Ihre Unfähigkeit, Bewegung wahrzunehmen, erwies sich in vielen Alltagssituationen als sehr beeinträchtigend. So konnte sie etwa beim Eingießen einer Tasse Kaffee nicht abschätzen, wann die Tasse voll war, weil sie das Steigen des Flüssigkeitsspiegels nicht wahrnehmen konnte. Stattdessen erschien ihr die Flüssigkeit wie gefroren. Bei Unterhaltungen vermied sie es, ihr Gegenüber anzuschauen, da sie die ruckhaften Lippenbewegungen irritierten. Aus Angst, dadurch unhöflich zu erscheinen, trug dies dazu bei, dass sie Treffen mit Freundinnen zunächst aus dem Weg ging.
Die Patientin beschrieb ihr Defizit selbst recht klar und attribuierte es korrekt auf ihre Erkrankung. Dennoch wurden ihre Symptome anfangs als Ausdruck einer Agoraphobie (pathologische Furcht vor offenen Plätzen) diagnostiziert, offenbar in Abwesenheit einer besseren Erklärung.
Patientin L. M. hatte bilaterale Läsionen im ventrolateralen Occipitotemporalcortex unter Beteiligung der Gyri temporales medii. Läsionen innerhalb dieses Gebiets in einem MT genannten Areal führen beim Affen zu ähnlichen Defiziten, wie sie bei L. M. beobachtet wurden. Insbesondere sind beide stark beeinträchtigt in der Fähigkeit, die Bewegungsrichtung weniger, sich kohärent bewegender Punkte in einem Zufallspunktmuster zu diskriminieren. Affen mit umschriebenen Läsionen des Areals MT zeigen jedoch eine schnelle Erholung von diesen Störungen. Die Permanenz des Defizits scheint von der Größe (oder Tiefe) der Läsion abzuhängen.
Das Areal MT
Das Areal MT befindet sich im menschlichen Gehirn im lateralen Occipitotemporalcortex. Dieses Areal ist dadurch gekennzeichnet, dass es besonders durch bewegte Reize stimuliert wird, wobei die Zellen ein hoher Grad an Selektivität für die Bewegungsrichtung auszeichnet. Ein Teil der MT-Zellen hat eine Zentrum-Umfeld-Organisation, derart, dass gleichförmig bewegte Reize, die die im Zentrum bevorzugte Bewegungsrichtung aufweisen, in der Peripherie eine Inhibition verursachen. Diese Organisation ist gut geeignet, um bewegte Objekte vor einem Hintergrund zu detektieren. Andere MT-Neurone haben jedoch im gesamten rezeptiven Feld dieselbe bevorzugte Bewegungsrichtung.
Abb. 1.3.4: Lage des humanen MT+-Komplexes
Im menschlichen Gehirn ist es schwierig, mit Hilfe funktionell bildgebender Verfahren das Areal MT von benachbarten, auch in die Verarbeitung bewegter Reize involvierten Arealen abzugrenzen (Huk et al. 2002). Deshalb wird bei diesen Studien häufig der Begriff hMT+ verwendet, um anzudeuten, dass ein aktiviertes Areal neben dem humanen (h) Areal MT auch noch weitere Areale (+) umfassen kann.
Es wäre jedoch falsch, anzunehmen, dass die Repräsentation von Bewegung erst in den Arealen des hMT+-Gebiets beginnt. Auch Neurone in V1 reagieren spezifisch auf Reize, die sich in einer bestimmten Richtung bewegen. Sogar Nervenzellen in der Retina sind schon in der Lage, zwischen verschiedenen Bewegungsrichtungen zu differenzieren. Die Details der Verschaltung, die dies ermöglicht, sind allerdings noch nicht geklärt (Masland 2003).
Ausschnitt-Problem
Die rezeptive Feldgröße bewegungssensitiver Neurone nimmt von der Retina bis hMT+ zu. Das rezeptive Feld der MT-Neuronen ist im Durchmesser etwa zehnmal so groß wie das von V1-Neuronen. Dies kann einen wesentlichen Unterschied für die Bewegungswahrnehmung machen. Abbildung 1.3.5 zeigt, warum eine Ausschnittsbegrenzung, die dem begrenzten rezeptiven Feld eines Neurons entspricht, zu einer anderen Interpretation desselben bewegten Reizes führt. Die Bewegung eines Quadrats wird nur als einheitliche Bewegung aufgefasst, wenn das gesamte Quadrat zu sehen ist. Sehen wir durch einen begrenzten Ausschnitt nur einzelne Kanten des Quadrats, so sehen wir Teilbewegungen, die senkrecht zur Ausrichtung der Kanten verlaufen. Eine eindrucksvolle Demonstration dieses Phänomens findet sich unter www.michaelbach.de/ot/mot_motionBinding/index.html.
Abb. 1.3.5: Das Ausschnitt-Problem. Neurone mit kleinen rezeptiven Feldern kodieren andere Bewegungsrichtungen als die globale Bewegungsrichtung des Objekts.
In einer klassischen Untersuchung wurde gefunden, dass etwa ein Drittel der MT-Zellen auf die integrierte Bewegungsrichtung des Musters reagierte. Dagegen reagierten bewegungssensitive V1-Neurone nur auf die Teilbewegungen der einzelnen Linien (Movshon et al. 1985). Auch wenn diese integrative Funktion später auch in anderen Gehirnarealen gefunden wurde, so bleibt doch festzuhalten, dass in MT eine komplexere Kodierung der Bewegungsrichtung möglich ist als in V1.
Selektion von Bewegung
Neurone in MT zeigen auch Tuning für räumliche Tiefe. So reagieren sie bevorzugt auf Reize, die sich in bestimmten Tiefenebenen bewegen. MT-Neurone können auch durch Aufmerksamkeitsausrichtung auf eine bestimmte Bewegungsrichtung moduliert werden. Bei zwei Punktwolken, die sich überlappend in verschiedene Richtungen bewegen, kann die Amplitude der neuronalen Reaktion um den Faktor 2 gesteigert werden, wenn eine der Bewegungsrichtungen selektiv beachtet wird (Treue / Martìnez-Trujillo 1999).
biologische Bewegung
Ein Fußgänger oder ein sich bewegendes Tier erzeugt ein komplexes Bewegungsmuster, da sich die einzelnen Körperteile unterschiedlich bewegen. Wenn man eine Anzahl von Leuchtpunkten etwa an Hand, Ellenbogen, Schulter usw. eines Fußgängers anbringt und Versuchspersonen nur die Bewegung dieser Leuchtpunkte zeigt, so fällt es leicht, die Gehbewegung zu erkennen. Dies gelingt interessanterweise auch L. M. (genauso wie einer weiteren Patientin mit cerebraler Akinetopsie; Vaina 1990). Allerdings war die Erkennung rein auf das Bewegungsmuster beschränkt. So gelang es L. M. etwa, anhand des Bewegungsmusters einen Fahrradfahrer zu erkennen. Sie konnte aber nicht angeben, in welche Richtung sich der Fahrradfahrer bewegte. Neurophysiologische Studien am Affen sowie bildgebende Studien haben gezeigt, dass ein Areal entlang des Sulcus temporalis superior durch diese „biologische Bewegung“ aktiviert wird. Die Daten deuten also darauf hin, dass die Erkennung von überlernten „biologischen“ Bewegungsmustern nicht in hMT+, sondern von Neuronen entlang des Sulcus temporalis superior analysiert werden.
Das Gangbild eines Menschen verrät eine erstaunliche Menge an Informationen, etwa sein Gewicht, Geschlecht und sogar seine Stimmung, wie auf folgender Internetseite nachgeprüft werden kann: www.biomotionlab.ca/walking.php (Labor Prof. N. Troje).
Scheinbewegung
Manchmal sehen wir Bewegung, wo objektiv gar keine ist. Eine klassische Demonstration einer solchen Scheinbewegung ist das Φ-Phänomen. Wenn zwei stationäre Lichtquellen abwechselnd aufleuchten, dann entsteht in einem bestimmten Bereich von Wechselfrequenzen, der auch von der Entfernung der Lichtquellen voneinander abhängt, der Eindruck, das Licht bewege sich zwischen den Lichtquellen hin und her. Da sich das Licht nicht zwischen den Lichtquellen bewegt, kann der Bewegungseindruck auch nicht dadurch hervorgerufen werden, dass ein Lichtreiz das rezeptive Feld eines Neurons passiert.
1.3.3Wahrnehmung räumlicher Tiefe
Um die räumliche Tiefe eines Objekts wahrzunehmen, stehen uns verschiedene Mechanismen zur Verfügung. Sie lassen sich in folgende Gruppen unterteilen.
Monokulare Tiefeninformation: Hinweise auf die räumliche Tiefe lassen sich bereits bei einäugigem Sehen (also ohne den Vergleich des Seheindrucks beider Augen, s. u.) gewinnen. Dazu gehören:
■ Verdeckung: Wenn ein Objekt ein anderes verdeckt, so muss es sich vor diesem befinden.
■ Atmosphärische Perspektive: Dunstige Luft führt dazu, dass weit entfernte Objekte verschleierter erscheinen als nahe Objekte. Dies kann auch zu Täuschungen führen: So schätzen Autofahrer im Nebel vorausfahrende Fahrzeuge als weiter entfernt ein, als diese tatsächlich sind.
■ Zentralperspektive: Fluchtlinien im Bild laufen auf einen Punkt im Unendlichen zusammen. Nahe Objekte sind größer als weiter entfernte (s. aber Größenkonstanz). Auch regelmäßige Texturen (wie etwa Bodenfliesen, Wandmuster) werden mit zunehmender Entfernung kleiner. Perspektive kann uns manchmal täuschen. Der Künstler Roy Lichtenstein hat sogar ein Haus gebaut, das sich, aus einer anderen Perspektive betrachtet, nur als gewinkelte Fassade herausstellt (Abb. 1.3.6).
Abb. 1.3.6: Perspektivische Haustäuschung (Roy Lichtenstein, House III, 1997, Woodruff Arts Center, Atlanta, Foto: Stefan Pollmann)
Binokulare Tiefeninformation: Die Anordnung unserer Augen, die weitgehend überlappende Gesichtsfelder aus einem leicht unterschiedlichen Blickwinkel sehen, gibt uns weitere wertvolle Hinweise auf die räumliche Tiefe unserer Umgebung.
■ Bewegungsinduzierte Tiefeninformation: Wenn wir uns bewegen, verändert sich die Verdeckung von Objekten im Raum und gibt uns so Tiefeninformation.
■ Bewegungsparallaxe: Auch ohne Verdeckung erhalten wir bewegungsinduzierte Tiefeninformation. Wenn Sie bei einer Zugfahrt aus dem Fenster schauen, sehen Sie, dass nahe Objekte sich sehr schnell am Fenster vorbeibewegen, während sich die Landschaft im Hintergrund kaum zu bewegen scheint. Dieser Bewegungsunterschied heißt Bewegungsparallaxe.
Okulomotorische Tiefeninformation:
■ Konvergenz: Um einen Punkt in der Nähe zu fixieren, müssen die Augen ihre Blickachsen aus der Parallelstellung, die sie beim Blick in die Ferne einnehmen, aufeinander zu bewegen. Diese Konvergenz ist umso stärker, je näher sich der Blickpunkt befindet.
Das können Sie sich leicht vor Augen führen, indem Sie die Zeigefinger der linken und rechten Hand in unterschiedlicher Entfernung vor Ihre Augen halten und abwechselnd den linken und den rechten Zeigefinger fixieren. Der jeweils nicht fixierte Finger wird als Doppelbild erscheinen.
■ Akkomodation: Gleichzeitig mit der Konvergenz stellt sich auch die Krümmung der Linse auf die Entfernung des Blickpunkts ein, um eine scharfe Abbildung zu gewährleisten.
Konvergenz und Akkomodation liefern also Informationen über die räumliche Tiefe, die unabhängig von der Art oder Bekanntheit der betrachteten Reize sind.
Horopter
■ Querdisparation: Wir können stets nur einen Punkt fixieren und damit die Konvergenz unserer Augen auf eine Tiefenebene einstellen. Wie das Beispiel mit dem Betrachten der verschieden entfernten Fingerspitzen zeigt, führt dies zu einem Doppelbild aller Objekte, die eine andere Entfernung vom Auge haben als die gerade fixierte. Man spricht auch von einer Abbildung auf nicht korrespondierenden Netzhautarealen. Wie Abbildung 1.3.7 zeigt, ist die Abbildung auf korrespondierenden Netzhautarealen nur für die Punkte gewährleistet, die auf dem Horopterkreis liegen. Der Horopter ist der Kreis, der durch den Fixationspunkt und die Linsen der beiden Augen führt. Alle anderen Punkte werden auf leicht gegeneinander versetzten Retinaorten abgebildet, man spricht von Querdisparation. Je größer die Entfernung vom Horopter, umso größer ist die Querdisparation. Es macht auch einen Unterschied, ob ein Punkt außerhalb oder innerhalb des Horopters liegt (Abb. 1.3.7). Punkte außerhalb des Horopters führen zu ungekreuzter Querdisparation, Punkte innerhalb zu gekreuzter Querdisparation.
Abb. 1.3.7: Der Horopter. P ist der Fixationspunkt der beiden Augen. Der Punkt Q auf dem Horopter wird auf korrespondierenden Netzhautarealen abgebildet, kenntlich an der gleichen Entfernung von der Fovea (F) im linken (L) und rechten (R) Auge. Der Punkt R hingegen, der innerhalb des Horopters liegt, wird auf nicht korrespondierenden Netzhautarealen abgebildet, kenntlich an der ungleichen Entfernung zu F.
Auch die Querdisparation kann unabhängig von der Gestalt der Umwelt als Entfernungsindikator genutzt werden, wie Experimente mit Zufallspunktstereogrammen (random dot stereograms) gezeigt haben. Dabei handelt es sich um, manchmal auch in populären Büchern veröffentlichte, Punktmuster, die nur dann eine Struktur erkennen lassen, wenn sie durch ein Stereoskop betrachtet werden oder wenn es dem Betrachter gelingt, seine Blickachsen parallel (in die Ferne) auszurichten. Nur dann entsteht ein Tiefeneindruck, weil ein Teil der Bildpunkte auf korrespondierenden Netzhautpunkten abgebildet wird (Hintergrund). Dagegen wird ein Teil des Bildes, dessen Bildpunkte systematisch gegeneinander versetzt gezeichnet sind und damit einer Querdisparation entsprechen, in einer anderen Tiefenebene wahrgenommen.
Die binokularen Mechanismen des Tiefensehens haben den Vorteil, dass sie unabhängig von weiteren Charakteristika der Umgebung exakte Tiefeninformation liefern. Dagegen haben sie den Nachteil, dass sie nur im relativen Nahbereich zuverlässige Informationen liefern, da sich die Blickachsen der Augen mit zunehmender Entfernung des Blickpunktes so eng an die Parallelstellung annähern, dass die Unterschiede in der Abbildung in beiden Augen verschwindend gering werden.
Neurone, die die Querdisparation kodieren, wurden bereits auf der Verarbeitungsebene von V1 gefunden. Diese Neurone, die Signale von beiden Augen erhalten müssen, reagieren nicht nur unterschiedlich stark auf verschiedene Querdisparationswinkel. Ihre Reaktion ist außerdem durch die Entfernung des jeweiligen Horopters moduliert (Trotter et al. 1992). Diese Information ist für die Tiefeneinschätzung essenziell, schließlich kann die gleiche Querdisparation bei unterschiedlichen Fixationsentfernungen auftreten und geht dann auch mit entsprechend unterschiedlichen Entfernungen einher.
Größenkonstanz
Mit zunehmender Entfernung wird das retinale Abbild eines Objekts immer kleiner. Dennoch fürchten wir nicht, wenn wir etwa eine schnurgerade Allee entlangfahren, dass wir am Ende der Allee nicht mehr zwischen den Bäumen hindurchpassen, obwohl die Alleebäume optisch so aufeinander zulaufen, dass kein Platz mehr für die Straße bleibt. Genauso wenig schätzen wir Menschen, die auf einem Platz weiter von uns entfernt stehen, als Zwerge ein, obwohl ihre retinalen Abbilder viel kleiner sind als die von Menschen in unserer Nähe. Unsere Wahrnehmung scheint, ohne dass wir darüber nachdenken müssen, räumliche Tiefe und Größe miteinander zu verrechnen, um Größenkonstanz zu erreichen. Die Berücksichtigung der angenommenen Entfernung eines Objektes erfolgt dabei automatisch, ohne dass wir darüber nachdenken müssen. Manchmal führt dies auch zu Fehleinschätzungen. So wird angenommen, dass zwei bekannte Größentäuschungen, die Müller-Lyer- und die Ponzo-Täuschung, auf einer Fehleinschätzung der Entfernung beruhen.
Größentäuschungen
Bei der Müller-Lyer-Täuschung wird die Entfernung einer Strecke zwischen zwei einwärtsgerichteten Winkeln kleiner eingeschätzt als die gleiche Strecke zwischen auswärtsgerichteten Winkeln. Eine mögliche Erklärung beruht darauf, dass diese geometrischen Konstellationen bei auf uns zustrebenden bzw. wegstrebenden Linien auftreten und so als Tiefeninformation interpretiert werden.
Ähnlich verhält es sich mit der Ponzo-Illusion. Hier werden die auf einen Fluchtpunkt zustrebenden Linien offenbar als perspektivische Tiefeninformation gewertet und damit der obere Balken als weiter entfernt eingeschätzt als der untere Balken. Da beide gleich groß sind, erscheint uns der scheinbar weiter entfernte als größer.
Abb. 1.3.8: Die Müller-Lyer-Täuschung
Abb. 1.3.9: Die Ponzo-Täuschung
Fragen zu Kapitel 1.3
Überprüfen Sie Ihr Wissen!
21. Beschreiben Sie die Reizweiterleitung über die Sehbahn. Wo wird ein Reiz im primären visuellen Cortex abgebildet, der sich im rechten oberen Quadranten des Gesichtsfeldes befindet?
22. Wie ist das Corpus geniculatum laterale gegliedert?
23. Wo befinden sich die Repräsentationsareale der oberen und unteren Gesichtsfeldhälfte des Areals V2 relativ zu V1? Fertigen Sie eine Skizze an!
24. Beschreiben Sie die tierexperimentelle Evidenz für den „Was“- und „Wo“-Pfad.
25. Wie unterscheiden sich die Konzeptionen des „Wo“- und des „Wie“-Pfades?
26. Was bedeutet Extinktion bei doppelt simultaner Stimulation?
27. Wie unterscheidet sich die Verarbeitung von Bewegung in V1 und hMT+?
28. Was ist biologische Bewegung? Wie kann man sie erfassen? Mit welchen neuronalen Korrelaten geht sie einher?
29. Nennen Sie drei monokulare Tiefenkriterien.
30. Was ist Querdisparation? Wie kann sie zur Bestimmung der räumlichen Tiefe genutzt werden?
1.4Farbwahrnehmung
Ihre Farbe ist für viele Dinge ein entscheidendes Erkennungsmerkmal: Bananen sind gelb, Kirschen rot, Gras grün. Die Assoziation zwischen Gegenstand und Farbe ist so eng, dass uns die Farbe ein dem Gegenstand innewohnendes Merkmal zu sein scheint. Die Wahrnehmung einer Farbe hängt (u. a. ) davon ab, dass ein Licht einer bestimmten spektralen Zusammensetzung auf eine Oberfläche fällt und von dieser reflektiert wird. Schon Isaac Newton hat aber, nachdem er mit einem Prisma experimentiert hatte, darauf hingewiesen, dass Lichtstrahlen selbst nicht farbig sind, sondern Farbe eine subjektive Empfindung ist, die im Betrachter entsteht:
“the rays, to speak properly, are not coloured. In them there is nothing else than a certain Power and Disposition to stir up a Sensation of this or that colour.” (Newton 1704 / 1952, zit. n. Sekuler / Blake 1994, 182)
Wem dies spitzfindig erscheint, der möge sich einmal Farbabbildung 1 anschauen. Diese Abbildung sollte wohl auch den letzten Zweifler davon überzeugen, dass es keinen einfachen Zusammenhang gibt zwischen dem Farbeindruck und der spektralen Zusammensetzung des Lichts, das auf unsere Netzhaut fällt.
Grundbegriffe zur Farbwahrnehmung
Spektrum: Zusammensetzung des (sichtbaren) Lichts aus Strahlen unterschiedlicher Wellenlänge. Weißes Licht kann mit einem Prisma in seine spektralen Komponenten zerlegt werden. Umgekehrt kann durch Lichtmischung aus verschiedenen farbigen Lichtquellen wieder weißes Licht erzeugt werden. Dies gelingt jedoch, wenn man nur zwei Wellenlängen miteinander mischt, nur mit bestimmten Farbpaaren, die deshalb Komplementärfarben heißen.
Farbton: Die Qualität einer Farbe, die die Zuordnung zu einem bestimmten Farbnamen (rot, grün etc.) möglich macht, aber auch die Differenzierung innerhalb einer Farbe (karmesinrot, purpurrot).
Helligkeit: Die Intensität eines Lichts (einer bestimmten Farbe).
Sättigung: Die Reinheit einer Farbe, die diese kräftig oder blass erscheinen lässt.
(Siehe auch Farbabbildung 2 im Farbteil.)
1.4.1Mechanismen der Farbwahrnehmung
Wenn in einem Laborversuch Licht einer bestimmten Wellenlänge, sogenanntes monochromatisches Licht, auf das Auge trifft, so hängt der Farbeindruck direkt von der Wellenlänge ab. Gleiches gilt, wenn Licht, das aus einem Gemisch von Wellenlängen besteht, auf die Netzhaut trifft. Der entstehende Farbeindruck hängt dann von dem Mischungsverhältnis der spektralen Anteile (Licht verschiedener Wellenlängen) ab.
Rezeptoren
Die Netzhaut enthält zwei Typen von Photorezeptoren: Zapfen und Stäbchen. Die Zapfen ermöglichen bei ausreichender Helligkeit (photopisches Sehen) das Farbensehen, während die Stäbchen eine höhere Lichtempfindlichkeit aufweisen und das Sehen bei Dämmerung oder allgemein niedriger Lichtempfindlichkeit (skotopisches Sehen) unterstützen. Beide Photorezeptortypen bestehen aus einem Außensegment, das den Sehfarbstoff enthält, und einem Innensegment, dem Zellkörper und dem Axon. Es gibt drei Zapfentypen:
■S-Zapfen (engl. short wavelength) mit einem Absorptionsmaximum bei einer Wellenlänge von 420 nm (blauviolett),
■M-Zapfen (medium wavelength) mit einem Absorptionsmaximum bei 534 nm (smaragdgrün) und
■L-Zapfen (long wavelength) mit einem Absorptionsmaximum bei 563 nm (gelbgrün); wird auch Rotrezeptor genannt, weil er trotz seines Maximums den Hauptbeitrag zur Rotwahrnehmung leistet.
(Siehe auch Farbabbildung 3 im Farbteil.)
Verschaltung der Zapfen
Keine der drei Zapfentypen kann für sich allein genommen eine bestimmte Farbe signalisieren. Eine Zunahme der Aktivität eines Zapfentypen kann daran liegen, dass mehr Licht der gleichen Wellenlänge den Rezeptor erreicht, oder aber, dass die Wellenlänge des Lichtes sich dem Absorptionsmaximum nähert. Damit sind Wellenlänge und Lichtintensität konfundiert. Anders sieht es jedoch aus, wenn wir Signale von zwei Zapfentypen analysieren. Langwelliges Licht, etwa im Bereich von 640 Nanometer (nm), wird sowohl L- wie M-Rezeptoren erregen, aber die Reaktion der L-Rezeptoren wird immer stärker sein (Farbabb. 3 im Farbteil). Wird die Intensität des Lichtes verändert, verändert sich auch die Reaktion der L- und M-Rezeptoren, aber das Verhältnis aus L- und M-Antwort bleibt gleich. Ändert sich jedoch die Wellenlänge des Lichts, ändert sich auch das Verhältnis aus L- und M-Antworten. Damit enthält die Summe der Rezeptoraktivität eine Information über die Lichtintensität, während die Differenz der Rezeptoraktivität eine Information über die Wellenlänge enthält. Die drei Zapfentypen sind miteinander in spezifischer Weise verschaltet.
Eine additive Verschaltung aller drei Zapfentypen signalisiert Helligkeit (S+M+L). Die Subtraktion der Erregung der M-Zapfen von der der L-Zapfen ergibt das Rot-Grün-System (L-M) . In ähnlicher Weise signalisiert die Subtraktion der M und L-Erregung von der Erregung der S-Zapfen Blau-Gelb-Kontraste (S-[M+L]).
monochromatische Beleuchtung
Wie passt nun diese scheinbar eindeutige Zuordnung von Farbeindruck und spektraler Zusammensetzung des Lichts zu der oben aufgestellten Behauptung, dass die Kenntnis der spektralen Zusammensetzung des Lichts keine Vorhersage des Farbeindrucks ermöglicht? Eindeutige Beziehungen zwischen der Wellenlänge oder spektralen Zusammensetzung des Lichts findet man unter Laborbedingungen, wenn entweder monochromatisches Licht als Beleuchtung gewählt wird oder nur eine einzelne, homogen reflektierende Oberfläche betrachtet wird. Unter den komplexeren Bedingungen des Alltags folgt unsere Farbwahrnehmung häufig nicht der vom Auge aufgenommenen Wellenlänge des Lichts, wie zu Beginn des Kapitels bereits demonstriert. Dies wird besonders deutlich im Phänomen der Farbkonstanz.
An einem typischen Tag mögen Sie bei hellem Sonnenschein zur Uni radeln, anschließend in einem fensterlosen Hörsaal mit Leuchtstoffröhren der Vorlesung lauschen, um mittags wieder nach Hause zu radeln und anschließend am heimischen Schreibtisch beim Schein einer Glühbirne das nächste Seminar vorzubereiten. In dem Beispiel sind Sie verschiedenen Lichtquellen ausgesetzt, die Licht von ganz unterschiedlicher spektraler Zusammensetzung ausstrahlen (Abb. 1.4.4). Dennoch bemerken Sie keine (oder doch kaum eine) Veränderung der Farbe Ihrer Kleider oder anderer mitgeführter Gegenstände.
Abb. 1.4.4: Spektrale Zusammensetzung verschiedener Lichtquellen
Farbkonstanz
Diese Farbkonstanz ist erstaunlich, denn wenn sich die spektrale Zusammensetzung des Lichts, mit dem eine Oberfläche beschienen wird, ändert, dann ändert sich i. d. R. auch die spektrale Zusammensetzung des von der Oberfläche reflektierten Lichts. Was sich i. d. R. nicht ändert, sind die Reflexionseigenschaften der Objektoberflächen. Was sich aber häufig ändert, ist die spektrale Zusammensetzung des Lichts, das die Oberfläche beleuchtet. Sonnenlicht am frühen Morgen enthält mehr langwelliges Licht als am Mittag, das Licht der klassischen Glühbirne weniger kurzwelliges Licht als das Sonnenlicht usw.
Illumination und Reflektanz
Wenn wir die Farbe eines Objekts wahrnehmen, stehen wir also immer vor der Unsicherheit, ob die wahrgenommene Farbe durch die Reflexionseigenschaften der Objektoberfläche entsteht oder durch die Zusammensetzung des illuminierenden Lichts. Die Erscheinung der Farben ändert sich im Alltag auch ein wenig, wenn sich die Beleuchtungsbedingungen ändern, aber viel weniger, als aufgrund der Änderungen der Beleuchtung zu erwarten wäre. Farbkonstanz bedeutet also, dass unterschiedliche Wellenlängegemische zu dem gleichen Farbeindruck führen.
Wie kommt es, dass wir trotz veränderter Beleuchtung eine mehr oder weniger konstante Farbe wahrnehmen? Die Farbkonstanz tritt nicht unter allen Beleuchtungsbedingungen auf, sondern scheint an annähernd natürliche Beleuchtungsverhältnisse gebunden zu sein, in denen die Beleuchtung aus Licht unterschiedlicher Wellenlängen besteht. Bei monochromatischer Beleuchtung dagegen hängt die wahrgenommene Farbe weitgehend von der Wellenlänge des Lichts ab. Wir scheinen dann nicht in der Lage zu sein, die Veränderung der Beleuchtung zu berücksichtigen, um die konstanten Reflexionseigenschaften einer Oberfläche einem konstanten Farbeindruck zuzuordnen.
chromatische Adaptation
Bei Beleuchtung mit einem breiten Spektrum unterschiedlicher Wellenlängen scheint Adaption der Zapfen zur Farbkonstanz beizutragen: Die Zapfen adaptieren in den Wellenlängenbereichen, die die größte Intensität haben, auch am stärksten und tragen so zu einem Ausgleich der Beleuchtungsunterscheide bei. Wie sich chromatische Adaptation auswirkt, können Sie an Farbabbildung 4 im Farbteil ausprobieren.
Kontextabhängigkeit
Farbkonstanz hängt jedoch auch stark vom Kontext ab. Bei Betrachtung einer einzelnen Oberfläche mit homogenen Reflexionseigenschaften (Farbabb. 5 im Farbteil) verändert sich die wahrgenommene Farbe, wenn sich die spektrale Zusammensetzung des Lichts verändert. Das Bild ändert sich aber, wenn wir eine komplexe Szene betrachten, die Oberflächen mit unterschiedlichen Reflexionseigenschaften enthält. Wenn Sie nun die gleiche Fläche, die Sie vorhin isoliert betrachtet haben, wiederum unter verschiedenen Beleuchtungsbedingungen betrachten, so ändert sich der Farbeindruck, wenn überhaupt, sehr viel geringer. Offensichtlich erlaubt uns die gleichzeitige Veränderung des reflektierten Lichts von Flächen mit verschiedenen Reflexionseigenschaften sehr viel besser, den Anteil der Veränderung einzuschätzen, der auf die Veränderung der Beleuchtung zurückzuführen ist. Somit können wir die „wahre“, auf die Reflexionseigenschaften der jeweiligen Oberfläche zurückgehende Farbe berechnen.
Mondrian-Reize
Zur Untersuchung dieser Zusammenhänge wurden Reize verwendet, die aus vielen verschieden-„farbigen“ Flächen bestanden und in Anlehnung an die Bilder des niederländischen Malers Piet Mondrian „Mondrian“-Reize genannt wurden. Diese Mondrian-Reize wurden von Edwin Land (1959a, b) unter verschiedenen Beleuchtungsbedingungen präsentiert, und der Farbeindruck, den eine bestimmte Fläche im Betrachter hervorrief, wurde gemessen. Weiterhin wurde dieses Vorgehen auch mit elektrophysiologischen Ableitungen kombiniert, um ein neuronales Korrelat der Farbkonstanz zu finden. Ein solches Korrelat läge vor, wenn die Feuerrate eines Neurons sich mit der Änderung der subjektiven Farbwahrnehmung änderte, nicht aber, wenn sich die auf die Retina treffende Wellenlänge änderte, der Farbeindruck aber gleich blieb.
1.4.2Cerebrale Repräsentation von Farbe
V4
Zeki (1983a, b) berichtete farbkonstante Reaktionen in Neuronen in dem Areal V4 im Gyrus fusiformis. Dagegen wurden in V1 keine Neurone gefunden, deren Aktivität mit der wahrgenommenen Farbe korrelierten, wohl aber Neurone, deren Feuerrate in Abhängigkeit von der Wellenlänge des Lichts variierten. Diese Befunde wurden später mit Hilfe bildgebender Verfahren auch im menschlichen Gehirn repliziert und führten zu der Auffassung, dass V4 ein Farbzentrum des Gehirns sei, in dem Sinne, dass nur hier neuronale Aktivität gefunden wurde, die mit dem subjektiven Farbeindruck korrelierte. Auf früheren Stufen der Wahrnehmung, wie V1, wurden dahingegen nur Aktivierungsänderungen beobachtet, die auf physikalischen Veränderungen der Wellenlänge beruhten (Zeki / Marini 1998). V4 sollte damit eine zweite Stufe der Farbverarbeitung darstellen: nach der Analyse der Wellenlänge in den Arealen V1 und V2 und vor der Verarbeitung von Objektfarben, die auch durch unser Wissen über die Farben bekannter Objekte (Gras ist immer grün) beeinflusst werden kann.
Diese Einschätzung der Rolle von V4 ist jedoch auf Kritik gestoßen. Ein Einwand gegen die Experimente war, dass die Größenunterschiede der rezeptiven Felder in V1 und V4 nur unzureichend berücksichtigt wurden. Die rezeptiven Felder der V1-Neurone sind deutlich kleiner als die der V4-Neurone. Daher mögen allein deshalb keine farbkorrelierten Aktivierungen in V1 gefunden worden sein, weil die rezeptiven Felder der V1 Neurone meist nur auf homogene Flächen fielen (Lennie / D’Zmura 1988).
Andere Kritik an der Vorstellung, V4 sei das Farbzentrum des Gehirns, beruhte auf Befunden, dass Läsionen dieses Areals im Tierversuch nicht zu einer dauernden Achromatopsie (Farbsehschwäche) führten. Diese wurden eher nach Läsionen des inferotemporalen Cortex beobachtet (Heywood et al. 1995). Weiter kompliziert wird die Lage dadurch, dass über die genaue Lage des dem V4-Areal im Affen äquivalenten Areals im menschlichen Gehirn keine Einigkeit besteht (Bartels / Zeki 2000; Hadjikhani et al. 1998). Zurzeit herrscht die Auffassung vor, dass es kein einzelnes Farbareal gibt, sondern Farbe in verschiedenen Hirnarealen auf unterschiedliche (allerdings häufig noch unbekannte) Weise verarbeitet wird (Gegenfurtner / Kiper 2003).
cerebrale Achromatopsie
Die cerebrale Achromatopsie ist durch den Verlust der Farbwahrnehmung infolge Hirnschädigung gekennzeichnet. Manche Patienten berichten spontan, dass ihnen die Welt nur noch grau in grau erscheint. Den Patienten gelingt es nicht mehr, Farbtafeln entsprechend ihrer Farbtöne anzuordnen. Diese Farbdifferenzierung wird standardisiert mit dem Farnsworth-Munsell 100-Hue Test geprüft, der Tafeln unterschiedlicher Farbigkeit enthält. Diese Tafeln sind isoluminant, d. h. sie unterscheiden sich in der Farbe, aber nicht in der Helligkeit, so dass die Unterscheidung nur aufgrund der Farbe getroffen werden kann (hierbei ist allerdings zu berücksichtigen, dass sich individuell Abweichungen ergeben können). Der Schweregrad der Achromatopsie kann variieren, wobei oft grün und blau stärker als rot betroffen ist. Im Kontrast zu ihrer fehlenden Fähigkeit, Farben zu unterscheiden oder zu benennen, gelingt es den Patienten durchaus, graue Tafeln unterschiedlicher Helligkeit gemäß ihrer Helligkeit zu sortieren. Die Achromatopsie unterscheidet sich durch die grundsätzliche Störung der Farbwahrnehmung von der Farbanomie, bei der die Benennung von Farben gestört ist, aber verschiedene Farben mühelos unterschieden werden können. Achromatopsie-Patienten können auch mühelos Begriffen den korrekten Farbnamen zuordnen (z. B. Banane – gelb).