Kitabı oku: «Begriffe der Psychologie», sayfa 5

Yazı tipi:

F

Begriffe im Überblick

Facial-Feedback-Hypothese • Fähigkeit • Fairness • Faktoren • Faktorenanalyse • Fall • Fallstudien • falscher Konsensuseffekt • Falsifikation • Farbenblindheit • Farbenfehlsichtigkeit • farbige Nachbilder • Farbwahrnehmung • Fehleinschätzung • Fehlerstreuung • Fehlerüberlagerung • Fehlerwert • Feldforschung • Fertigkeiten • Festigung von Wissen • Figur-Grund-Relationen • Fixierung • Flow • fluide Intelligenz • Flynn-Effekt • Formen der Intelligenz • Forschungsablauf • Forschungsdesign • Forschungsmethoden • Forschungsperspektiven • fotografisches Gedächtnis • freier Wille • Fremdbeobachtung • Fresszentrum • Frontalkortex • Funktion • Funktion von Emotionen • funktionale Gebundenheit

Facial-Feedback-Hypothese siehe S. 309 f.

Bei der Facial-Feedback-Hypothese geht man davon aus, dass das Erleben von Gefühlen auch wesentlich durch Rückmeldungen aus dem Körper beeinflusst wird und dass daher Körperhaltungen und Grimassen, die normalerweise mit bestimmten Gefühlsausprägungen auftreten, einen gefühlsverstärkenden oder gefühlsschwächenden Effekt haben, und zwar auch dann, wenn sie künstlich herbeigeführt werden. Zum Beispiel kann ein momentanes Gefühl von Selbstbewusstsein nachweislich dadurch verstärkt werden, dass man sich aufrichtet und einen ernsten Gesichtsausdruck zeigt. Schlechte Laune lässt sich durch »Aufsetzen« eines freundlichen Gesichts etwas verbessern, und ein sehr zorniger Gesichtsausdruck kann aggressive Gefühle noch weiter steigern (s. Duclos et al., 1989).

Fähigkeit siehe S. 323

Personeninterne Ursache für den Erfolg oder Misserfolg von Leistungen.

Fairness siehe S. 89

Fairness (Chancengleichheit für alle Bevölkerungsgruppen) ist ein Gütekriterium für → Tests.

Faktoren siehe S. 76

Eine Besonderheit der geometrischen Betrachtungsweise von Variablen besteht darin, dass das Ausmaß ihrer linearen Beziehung (Korrelation) durch den Winkel ihrer Vektordarstellungen im Variablenbzw. Merkmalsraum dargestellt werden kann (Andres, 1996). Da jeder Vektor eine variablenspezifische Eigenschaft symbolisiert und gleichgerichtete Bündelungen von Vektoren somit auf Eigenschaftsüberlappungen der entsprechenden Variablen hinweisen, können für solche Variablencluster gewissermaßen »Schwerpunktvektoren« berechnet werden, die man Faktoren nennt und die als oberbegriffliche Beschreibungen der durch die Variablen symbolisierten Eigenschaften aufzufassen sind. Mittels solcher faktorieller Beschreibungen kann man nicht nur komplexe Variablensysteme auf ihre »Hauptkomponenten« reduzieren, sondern auch den korrelativen Zusammenhang zwischen verschiedenen Gruppen von Variablen (mit ähnlicher Eigenschaftsbedeutung) bestimmen. (Statistische Verfahren, die auf diesem Prinzip basieren, sind etwa die → Faktorenanalyse, die Multivariate Varianzanalyse, die Kanonische Korrelation oder die Diskriminanzanalyse.)

Faktorenanalyse siehe S. 76 f.

Statistisches Verfahren, mit dem komplexe Variablensysteme auf ihre »Hauptkomponenten« reduziert werden können und der korrelative Zusammenhang von verschiedenen Gruppen von Variablen (mit ähnlicher Eigenschaftsbedeutung) bestimmt werden kann.

Fall siehe S. 58

Zu einem Fall des theoretischen Systems wird eine Tatsache dann, wenn die erfassten Eigenschaften der Indikatoren in Ausprägungen von → Variablen umgewandelt werden. Ein Fall ist somit durch eine bestimmte Konfiguration von (empirischen) Variablen, genauer durch deren jeweilige Ausprägungen, definiert. Mittels statistischer Auswertungsverfahren werden auf Basis der zur Verfügung stehenden Fälle zwischen den Variablen entweder hypothetische → Relationen (Funktionen, Beziehungen etc.) geprüft oder unbekannte Relationen gesucht.

Fallstudien siehe S. 85

Eine Fallstudie ist eine Methode der Feldforschung. Fallstudien (»single case studies«) sind häufig erste Erfahrungsquellen und als solche nur Anregungen für weitere Forschungstätigkeiten. Obwohl Forschungsphänomene durch Fallstudien hervorragend konkretisiert und plastisch vorstellbar gemacht werden können, mangelt es ihren Ergebnissen logischerweise an Verallgemeinerbarkeit.

falscher Konsensuseffekt siehe S. 336

Da die eigene Meinung bei Übereinstimmung mit anderen (sachkundigen) Personen besser abgesichert erscheint, überschätzen wir häufig den Bevölkerungsanteil, von dem wir glauben, dass er mit uns gleicher Meinung ist, was als falscher Konsensuseffekt bezeichnet wird (Ross, Greene & House, 1977).

Falsifikation siehe S. 34

Stimmen empirisch gefundene Zusammenhänge nicht mit den erwarteten überein, dann spricht man von einer Falsifikation der Hypothesen.

Farbenblindheit siehe S. 153

Farbenblindheit (korrekter: → Farbenfehlsichtigkeit) ist die mangelnde Unterscheidungsfähigkeit zwischen Rot und Grün oder Gelb und Blau (betrifft ca. 1 bis 8 % der männlichen Bevölkerung, ca. 0,01 % der Frauen).

Farbenfehlsichtigkeit siehe S. 153

Farbenfehlsichtigkeit ist die mangelnde Unterscheidungsfähigkeit zwischen Rot und Grün oder Gelb und Blau (betrifft ca. 1 bis 8 % der männlichen Bevölkerung, ca. 0,01 % der Frauen).

farbige Nachbilder siehe S. 154

Die Farbwahrnehmung des Menschen basiert auf drei Rezeptortypen, deren spezifische Erregungen die Farbeindrücke Blau, Grün und Rot auslösen und deren Informationsanteile in nachgeschalteten Gehirnregionen so verrechnet werden, dass sich daraus Zweifarbenfehlsichtigkeit und gegenfarbige Nachbilder erklären lassen. Nach Betrachten einer roten Fläche oder Figur für die Dauer etwa einer Minute erscheint auf weißem Untergrund ein grünes Nachbild.

Farbwahrnehmung siehe S. 153

Die Lichtsensitivität des Menschen erlaubt die Wahrnehmung von Farbunterschieden in der Umwelt, was im Laufe der phylogenetischen Entwicklung vermutlich Selektionsvorteile mit sich brachte (z. B. bei der Einschätzung des Reifegrades von Früchten). Dementsprechend sind im Auge neben den Fotorezeptoren für Helligkeiten, den Stäbchen, auch solche für Farbe vorhanden, die Zapfen, die sich in der Fovea centralis (Stelle des schärfsten Sehens) konzentrieren.

Fehleinschätzung siehe S. 261

In vielen Problemsituationen des täglichen Lebens müssen zeitliche Abläufe richtig eingeschätzt werden, ob dies die Bremsdauer eines Autos, der Ausbruch einer Krankheit oder die benötigte Zeit zur Fertigstellung von Projekten ist. Im Allgemeinen sind linear verlaufende Prozesse einfacher einzuschätzen, während nicht-lineare Entwicklungen (z. B. Ausbreitung von Krankheiten, Zinseszinszuwächse, radioaktive Kettenrektionen) meist in ihrer Geschwindigkeit unterschätzt werden. Dörner (1989, 163) erinnert in diesem Zusammenhang an die Anekdote über den Erfinder des Schachspiels, der sich als Belohnung »nur« jene Menge Reis wünschte, die – beim ersten Feld des Brettes mit einem Reiskorn beginnend – durch jeweilige Verdoppelung der Reiskörner bis zum letzten Feld entsteht: 1 + (1+1) + (22) + (23) + … + 262 + 263. Allein die Menge des Reises auf dem letzten Feld (9,223.372,036.854,775.808 Körner) würde bei einem Gewicht von 0,015 g pro Korn etwa 138 Milliarden Tonnen Reis ausmachen, wozu noch die Reismengen der anderen Felder kämen. Dass sogar Expertinnen und Experten manchmal exponentielle Entwicklungen unterschätzen, zeigte die Atomreaktorexplosion in Tschernobyl 1986, bei der neben einer Reihe von Bedienungsfehlern auch eine Fehleinschätzung der Geschwindigkeit von Kettenreaktionen vorlag (Reason, 1994). Ein Beispiel aus der heutigen Zeit ist die von Laien unterschätzte Ausbreitungsgeschwindigkeit von Infektionen (z. B. Covid19), was sich allerdings durch die unermüdliche Aufklärungsarbeit von Infektiologen wesentlich verbessert haben dürfte.

Fehlerstreuung siehe S. 79

Es ist leicht einzusehen, dass der → Schätzfehler für einen statistischen Kennwert (z. B. Mittelwert) mit zunehmender Größe der Stichprobe immer kleiner wird und schließlich gegen Null geht, wenn alle möglichen Fälle in die Berechnung einbezogen sind.

Fehlerüberlagerung siehe S. 67

Bei den meisten psychologischen Subdisziplinen ist für die Bestätigung von Gesetzen die Heranziehung wahrscheinlichkeitstheoretischer Überlegungen bzw. der Einsatz von Statistik notwendig. Neben der Multikausalität, die zu → Effektüberlagerungen bei den untersuchten Phänomenen führt, ist hierfür noch ein weiterer Grund zu nennen (Steyer, 2003): die oft erhebliche Fehlerüberlagerung von Daten und Messwerten (Messfehler). Denn man ist in der Psychologie oft damit konfrontiert, dass Phänomene nur vage, verschwommen oder verzerrt registrierbar sind, und somit gezwungen, mittels statistischer Methoden die Messfehler oder Effektüberlagerungen auszufiltern und für Kennwerte oder Variablenbeziehungen Schätzwerte zu berechnen.

Fehlerwert siehe S. 71

Die (klassische) → Testtheorie postuliert, dass sich jeder → Messwert (z. B. eine physiologische Ableitung, eine Fragebogenantwort, eine Prozentschätzung) aus einem → wahren Wert und einem zufälligen Fehlerwert zusammensetzt und dass sich Fehlerüberlagerungen durch Heranziehung mehrerer Messwerte des gleichen Ereignisses »ausmitteln« lassen.

Feldforschung siehe S. 85

Im Gegensatz zum Experiment versucht man in der Feldforschung, Phänomene unter möglichst natürlichen Bedingungen zu beobachten und zu erklären. Dem Vorteil der Natürlichkeit steht hier der Nachteil gegenüber, dass Störvariablen weniger gut kontrolliert werden können. Da Forschungsphänomene »im Feld« wesentlich komplexer in Erscheinung treten als im Labor, kommt bei der Feldforschung der Entwicklung von genauen und effizienten Beschreibungsmethoden sowie der Ausarbeitung von Verhaltensregeln zur optimalen Datengewinnung besondere Bedeutung zu (s. Flick et al., 1995).

Fertigkeiten siehe S. 195

Sprechen, Laufen, Radfahren, Autofahren, Klavierspielen, Turnen, Balletttanzen und Operngesang sind Beispiele für komplexe Fertigkeiten, die durch Übung erworben werden.

Festigung von Wissen siehe S. 234

Nach der Aufnahme von Informationen werden diese in den Speichersystemen meist noch nachverarbeitet und umstrukturiert (Meeter & Murre, 2004; Nadel et al., 2012). Erlebnisse werden durch Erzählen sprachlich nachformuliert und geistig nachgeformt, neues Wissen in vorhandenes Wissen eingepasst, logische Zusammenhänge werden hergestellt und Widersprüche geglättet, verbale Nachrichten in Vorstellungen transformiert usw.

Figur-Grund-Relationen siehe S. 144

Figur-Grund-Relationen sind Charakteristika von Linien, Konturen und Flächen, die eine räumliche Schichtung nach Vordergrund und Hintergrund erlauben: Umschlossenheit von Flächen, Symmetrie von Elementen, Ausbauchungen gegenüberliegender Konturen, Querschraffuren oder Helligkeitsunterschiede tragen dazu bei, dass solche Strukturen perzeptiv als potenzielle »Objekte« aus einem »Hintergrund« herausgelöst werden.

Fixierung siehe S. 257

Wenn sich für einen Aufgabentyp eine Lösung bereits bewährt hat, dann tendieren wir dazu, in ähnlichen Situationen wieder die gleiche Strategie zu verwenden. Dies oft sogar dann, wenn sich kein Erfolg damit einstellt oder wenn es einfachere erfolgreiche Vorgangsweisen gibt. Diese funktionale Gebundenheit oder Fixierung an einen bestimmten Lösungsvorgang ergibt sich durch die Gebundenheit an eine spezielle Sichtweise der Problemsituation, bei der sich bestimmte Lösungsmethoden entweder sichtbar anbieten oder als bewährte Lösungsmethoden automatisiert sind. So beeindruckend manche Denkfehler auch sein mögen, die aus dieser → Analogietendenz (funktionale Gebundenheit) resultieren, so erspart doch immerhin die Bevorzugung bereits bewährter Problemlösestrategien unnötigen Aufwand und entspricht somit dem psychischen Ökonomieprinzip.

Flow siehe S. 126, 324

Je höher die → intrinsische Motivation einer Person für eine Tätigkeit ist und wenn es sich auch noch um wichtige Bedürfnisse der Person handelt, entsteht nach Csikszentmihalyi (1996) ein Glücksgefühl, ein sogenanntes Flow-Erlebnis (engl. »flow«: fließen), welches durch totales Engagement für die Aufgabe, durch Selbstvergessenheit und durch das Gefühl, volle Kontrolle über die Tätigkeit und die Begleitumstände der Situation zu haben, gekennzeichnet ist.

fluide Intelligenz siehe S. 286

Die fluide Intelligenz (»fluid intelligence«) bezieht sich auf die weitgehend kulturunabhängige kognitive Grundausstattung der geistigen Leistungsfähigkeit (z. B. induktives, kombinatorisches und figurales Denken).

Flynn-Effekt siehe S. 281

Der Flynn-Effekt ist der lineare Anstieg in den Intelligenzleistungen seit Beginn der Intelligenzmessung in mindestens 14 Ländern, der bis zu 25 IQ-Punkte von einer Generation zur anderen (30 Jahre) beträgt. Dieser Trend zeigt sich besonders bei kulturunabhängigen Intelligenzleistungen (z. B. »fluid intelligence«) und wird teilweise mit der Verbesserung der Ernährung, der Hebung der Schulbildung, mit zunehmender Umweltkomplexität und Urbanisierung sowie mit ansteigender Testvertrautheit erklärt (Flynn, 1987; Pietschnig, Tran & Voracek, 2013; Pietschnig et al., 2019). In neueren Veröffentlichungen wird auch ein inverser Flynn-Effekt diskutiert (Dutton et al., 2016).

Formen der Intelligenz siehe S. 283–387

Die vollständige Erfassung aller intellektuellen Qualitäten eines Menschen ist weder theoretisch noch praktisch möglich. Die bis heute psychologisch analysierten Intelligenzformen sind äußerst vielfältig und reichen von einem durch Charles Spearman (1863–1945) postulierten »Generalfaktor« bis zum »Intelligenzstrukturmodell« von Guilford (1897–1988) mit 120 Intelligenzaspekten. Für viele solcher Intelligenzbereiche existieren auch psychometrisch entwickelte Testverfahren mit statistisch begründeten → Intelligenzdimensionen. Eine bereits in den Dreißigerjahren entwickelte, statistisch fundierte Intelligenzkonzeption beruht auf der Idee sogenannter → Primärfähigkeiten oder → Primärfaktoren der Intelligenz (»primary mental abilities«). Bis zu 20 und mehr solcher Primärfähigkeiten wurden postuliert und – ausgehend von ihren internen Korrelationen – zu Fähigkeitsdimensionen höherer Ordnung zusammengefasst (»Comprehensive Ability Battery«; Hakstian & Cattell, 1978). Zwei Arten von Faktoren fanden in der Intelligenzforschung besondere Beachtung: die → kristalline Intelligenz und die → fluide Intelligenz. Eine Ausweitung dieses Konzepts unabhängiger Intelligenzdimensionen stellt die Theorie der → multiplen Intelligenzen von Gardner (2000; 2006) dar, bei der auch Fähigkeitsbereiche einbezogen wurden, die bisher in Intelligenztests kaum als solche Berücksichtigung fanden (z. B. Musikverständnis, Selbstkenntnis, Geschicklichkeit). Ein häufig geäußerter Kritikpunkt an klassischen Intelligenztests war ihre relativ geringe Prognoseleistung (ca. 25 %) für schulischen oder beruflichen Erfolg (Neisser et al., 1996) und ihre geringe Korrelation mit komplexen Problemlöseleistungen (z. B. Dörner, 1989; Salthouse, 2012). Eine besondere Annäherung der Intelligenzmessung an Alltagserfordernisse bezweckt das Konzept der → Erfolgsintelligenz (»Theory of Successful Intelligence«) von Sternberg (1997). Einen ebenfalls lebensnahen, in klassischen Intelligenztests kaum berücksichtigten Aspekt beschreibt der Begriff der → emotionalen Intelligenz (Goleman, 1996). Dass bisher kaum Formen emotionaler, sozialer oder praktischer Intelligenz in gängigen Intelligenztests vorkamen, lag wohl weniger an der Unterschätzung ihrer Alltagsrelevanz durch die Psychologen, sondern eher an den Schwierigkeiten ihrer Erhebung. Die in den entsprechenden Tests verwendeten Aufgaben (z. B. Erkennen von Stimmungen, Einfühlung in andere, Bewältigung sozialer Konfliktsituationen) lassen oft keine eindeutige Bewertung der Antworten zu und verursachen damit Probleme der Objektivität, Reliabilität und Validität.

Forschungsablauf siehe S. 96

Der Forschungsablauf empirischer Untersuchungen lässt sich in verschiedene Stadien gliedern: Den Ausgangspunkt liefert die Fragestellung, die theoretisch oder praktisch begründet sein kann. Für die ausgewählte Thematik wird der bisherige wissenschaftliche Erkenntnisstand festgestellt und eine theoretische Basis in Form relevanter psychologischer Gesetze oder Theorien gesucht. Danach wird ein Forschungsdesign entworfen, indem für die theoretisch untermauerte Fragestellung empirisch überprüfbare Hypothesen, eine geeignete Untersuchungsform, konzeptspezifische Operationalisierungen, eine sinnvolle Fallstichprobe sowie eine datenadäquate Datenauswertungsmethode gefunden werden. In einem Vortest wird das Forschungsdesign auf Tauglichkeit überprüft und danach zumeist einer Revision unterzogen. Nun erst erfolgen die Durchführung der Untersuchung, die Datensammlung, die Datenauswertung, die Diskussion und die Interpretation der Ergebnisse. Den Abschluss bildet die zusammenfassende Präsentation der Forschungsresultate in einer prägnanten und theoriebezogenen Form.

Forschungsdesign siehe S. 96

Bei der Entwicklung eines Forschungsprojektes sollen in der Phase des »Begründungszusammenhanges« die in der Fragestellung angesprochenen Gesetzmäßigkeiten einer empirischen Untermauerung zugeführt werden. Dabei geht man von bereits bewährten psychologischen Theorien und Gesetzmäßigkeiten aus, um für die Fragestellung ein solides theoretisches Konzept zu entwerfen, welches widerspruchsfrei (konsistent), empirisch prüfbar (verifizierbar oder falsifizierbar) und sparsam in der Erklärung (effizient) zu sein hat. Aufgrund fachwissenschaftlicher Erfahrungswerte über die Zweckentsprechung spezieller wissenschaftlicher Forschungsansätze und Forschungsmethoden wird sodann für die Fragestellung ein Forschungsdesign entworfen, welches die Hypothesenformulierung, die Wahl der Untersuchungsmethode, die Ausarbeitung der Operationalisierungen und die Stichprobenselektion inkludiert. Nachdem das Forschungsdesign in Voruntersuchungen auf seine Eignung getestet wurde, kommt es zur Durchführung der Untersuchung und zur (meist statistischen) Auswertung der gewonnenen Daten, wobei insbesondere auf Verteilung und Skalenqualität der Variablen zu achten ist. Nach der Interpretation der Auswertungsergebnisse sowie nach deren theoriebezogener Diskussion (z. B. über Widersprüche zu Annahmen, Verallgemeinerbarkeit der Ergebnisse, Gefahr von Artefakten) werden die wichtigsten Schlussfolgerungen aus der Untersuchung in theoretisch-abstrakter Form zusammengefasst.

Forschungsmethoden siehe S. 81–95

Die wichtigsten Forschungsmethoden in der Psychologie sind das Experiment, das Quasiexperiment, die Feldforschung, Testverfahren, Ratings, die Beobachtung, die Befragung, die Textanalyse und die Computersimulation. Allen Datenerhebungsinstrumenten der Psychologie ist gemeinsam, dass sie wissenschaftlichen Gütekriterien genügen müssen (Objektivität, Reliabilität, Validität usw.).

Forschungsperspektiven siehe S. 50

Die Erforschung eines psychischen Phänomens kann aus verschiedenen Perspektiven erfolgen, die sich hinsichtlich der theoretischen Annahmen, der verwendeten Untersuchungsmethoden und der bevorzugten Erklärungsmodelle unterscheiden. Die häufigsten in der Fachliteratur genannten Forschungsperspektiven sind die biologische, die psychodynamische, die behavioristische, die humanistische, die kognitive, die evolutionäre und die kulturvergleichende Perspektive.

fotografisches Gedächtnis siehe S. 217

Fotografisches Gedächtnis oder Eidetik nennt man die Sonderbegabung weniger Personen, optische Wahrnehmungseindrücke auch noch nach vielen Sekunden detailreich aus der Vorstellung wiedergeben zu können. Untersuchungen aus der Frühzeit der Psychologie lassen vermuten, dass diese Fähigkeit bei Kleinkindern stärker ausgeprägt ist als bei Erwachsenen und mit der Zunahme des begrifflichen Denkens verloren geht.

freier Wille siehe S. 43

Der Widerspruch zwischen der Annahme einer kausal determinierten Welt und dem subjektiven Empfinden eines freien Willens kann gelöst werden, indem Letzterer als Ausmaß der Einsicht in kognitiv begründete Entscheidungsalternativen und damit partieller Unabhängigkeit von situativen Zwängen interpretiert wird.

Fremdbeobachtung siehe S. 90

Die Selbst- und Fremdbeobachtung zählt zu den ältesten Forschungsinstrumenten der Psychologie. Die wissenschaftliche Beobachtung unterscheidet sich von jener des Alltags durch ihre Theoriegeleitetheit und Systematik. »Unter Beobachtung versteht man das systematische Erfassen von wahrnehmbaren Verhaltensweisen, Handlungen oder Interaktionen einer Person oder Personengruppe zum Zeitpunkt ihres Auftretens« (Ebster & Stalzer, 2003, 221). Grundsätzlich sollte die Beobachtung als Mittel der Informationsgewinnung in allen Untersuchungen zumindest begleitend eingesetzt werden, und auch die Gütekriterien von Tests sollten für alle Datengewinnungsverfahren in der Psychologie gelten. So sind auch Beobachtungen einer Objektivitätsprüfung zu unterziehen, indem die Übereinstimmung verschiedener, unabhängiger Beobachterinnen oder Beobachter festgestellt wird.

Fresszentrum siehe S. 314

Der Trieb, dem Körper Nahrung zuzuführen, wird beim Menschen und bei vielen Tieren über zwei Areale des Hypothalamus reguliert, über das sogenannte Fresszentrum (lateraler Hypothalamus) und das → Sättigungszentrum (ventromedialer Kern). Wenn bei Versuchstieren das Fresszentrum elektrisch gereizt wird, regt dies das Essverhalten dramatisch an und das Tier wird bald übergewichtig, während eine Zerstörung dieses Areals zu einem Appetitverlust und infolgedessen zu rapidem Gewichtsverlust führt.

Frontalkortex siehe S. 302

Laut Damasio (1999) sind die → Amygdala und der vorderen Teile des Frontalkortex (ventromedialer und orbitofrontaler Kortex) für die Emotionsentstehung bedeutsam. Sie prüfen gemeinsam die aktuellen Situationen in der Weise, dass unter Einbeziehung angeborener oder erlernter Assoziationen die zu erwartenden Konsequenzen prognostiziert und Entwürfe von situationsangepassten Handlungsalternativen erstellt werden. Wenn Hirnschädigungen in den erwähnten Arealen auftreten, kommt es daher bei den betroffenen Personen zu massiven Einbußen ihrer Emotional- und Sozialintelligenz (Bar-On et al., 2003).

Funktion siehe S. 68

Als Funktion bezeichnet man eine → Relation dann, wenn jeder Ausprägung einer Variablen (»Definitionsmenge«) nur genau eine Ausprägung einer anderen Variablen (»Funktionsmenge«) zugeordnet ist. Viele quantitative Funktionen, d. h. Funktionen zwischen Zahlenmengen, können durch einfache Formeln beschrieben werden. Da man in der Psychologie aber neben quantitativen häufig auch nichtquantitative (»qualitative«) Merkmale berücksichtigen muss (z. B. Geschlecht, Beruf, Stimmung), werden Variablenbeziehungen im Bedarfsfall auch aussagenlogisch, mengentheoretisch oder tabellarisch dargestellt.

Funktion von Emotionen siehe S. 301

Für die Emotionsentstehung und Emotionsregulierung wird in der modernen Forschung das → limbische System – populärwissenschaftlich auch »Emotionalgehirn« – als hauptverantwortlich angesehen (Roth, 2003). Da eine wichtige Funktion von Emotionen in der Bewertung von Situationen und in der Handlungsvorbereitung liegt, überrascht es nicht, dass den limbischen Strukturen auch bei der Einspeicherung von episodischem und semantischem Gedächtnismaterial eine entscheidende Rolle zugesprochen wird (s. Pritzel et al., 2003; Roth, 2001, 2003).

funktionale Gebundenheit siehe S. 257

Wenn sich für einen Aufgabentyp eine Lösung bereits bewährt hat, dann tendieren wir dazu, in ähnlichen Situationen wieder die gleiche Strategie zu verwenden. Dies oft sogar dann, wenn sich kein Erfolg damit einstellt oder wenn es einfachere erfolgreiche Vorgangsweisen gibt. Diese funktionale Gebundenheit an einen bestimmten Lösungsvorgang ergibt sich durch die Gebundenheit an eine spezielle Sichtweise der Problemsituation, bei der sich bestimmte Lösungsmethoden entweder sichtbar anbieten oder als bewährte Lösungsmethoden automatisiert sind (→ Fixierung, → Analogietendenz).

Ücretsiz ön izlemeyi tamamladınız.

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
346 s. 11 illüstrasyon
ISBN:
9783846357156
Yayıncı:
Telif hakkı:
Bookwire
İndirme biçimi:
Metin
Средний рейтинг 0 на основе 0 оценок
Metin
Средний рейтинг 0 на основе 0 оценок