Lade Inhalt...

Einfluss von Aufmerksamkeitsprozessen auf In- und Outputprozesse bei der seriellen Wiedergabe

Diplomarbeit 2005 92 Seiten

Psychologie - Allgemeine Psychologie

Leseprobe

INHALT

1. EINLEITUNG

2. THEORETISCHER HINTERGRUND
2.1. WAS IST GEDÄCHTNIS?
2.1.1. Welche Arten von Gedächtnis gibt es?
2.2. ZWEI PIONIERE DER EXPERIMENTELLEN GEDÄCHTNISFORSCHUNG
2.2.1. Hermann Ebbinghaus
2.2.2. William James Moderne
2.3. GEDÄCHTNISMODELLE
2.3.1. Das Mehrspeicher-Modell (MSP) von Atkinson & Shiffrin (1968)
2.2.1.1. Sensory memory
2.2.1.2. Short term memory
2.2.1.3. Long term memory
2.3.2. Die Levels of processing Theorie
2.3.3. Das Working memory Modell von Alan Baddeley
2.3.3.1. Die phonologische Schleife
2.3.3.2. Der visuell-räumlicher Notizblock
2.3.3.3. Die zentrale Exekutive
2.3.3.4. Der episodische Puffer
2.3.4. Das Feauture Modell
2.3.5. Das Primacy Modell
2.3.6. Das ACT-R Modell
2.3.7. Das SAS Modell von Norman & Shallice (1986)
2.3.8. Das Embedded Processes Modell

3. DAS PARADIGMA DER SERIELLEN WIEDERGABE
3.1 Serielles Lernen und serielle Wiedergabe
3.2 Strukturelle Faktoren bei der seriellen Wiedergabe
3.2.1. Inputposition und Enkodiersalienz
3.2.2. Outputposition und Interferenz
3.2.3. Response set size und Inhibition
3.3. Dekonfundierung der seriellen Wiedergabe

4. AUFMERKSAMKEIT UND SERIELLES LERNEN
4.1. Aufmerksamkeit
4.2. Aufmerksamkeit und die serielle Wiedergabe
4.3. Aufmerksamkeit innerhalb des working memory Modell
4.3.1. Manipulation der Aufmerksamkeit nach Baddeley & Hitch
4.4. Aufmerksamkeit bei Cowan
4.5. SAS Modell (Norman & Shallice)
4.6. Lexikalitätseffekt, auch Aufmerksamkeitseffekt?
4.6.1. Was ist Lexikalität
4.6.2. Lexikalität und working memory
4.6.3. Lexikalitätseffekt be idem Atomic component of tought Modell (ACT-R)
4.6.4. Feature Modell (Neath & Nairne) und Lexikalität

5. EXPERIMENTELLE UNTERSUCHUNG
5.1. Anliegen der Arbeit
5.2. Methodik
5.2.1. Teilnehmer
5.2.2. Versuchsdesign
5.2.2.1. Test zur Erfassung der AG- Spanne (Hamm, 2002)
5.2.2.2. Modifizierte serielle Wiedergabe nach Cowan (2002)
5.2.2.3. Random-Interval-Repetition-Task
5.2.3. Untersuchende Variablen
5.2.4. Durchführung des Experiments
5.2.4.1. Stimulusmaterial
5.2.4.2. Durchführung
5.2.4.3. Präsentation
5.2.4.4. Reproduktion
5.3. Hypothesen
5.3.1. Zusammenfassung der Hypothesen

6. AUSWERTUNG UND ERGEBNISSE
6.1. Ergebnisse
6.2. AG-Spanne
6.3. Typikalitätsanalyse
6.4. Auswertung Gedächtnisspanne
6.5. Inputposition
6.6. Outputposition
6.7. Response Set Size

7. DISKUSSION

LITERATUR

DANKSAGUNG

Herzlich danken möchte ich der Betreuerin dieser Arbeit, Frau Dr. Hamm-Eder, ohne deren Hilfe und Unterstützung diese Arbeit in dieser Form nicht möglich gewesen wäre.

Ebenfalls danke ich ganz herzlich Frau Ana Aceval-Küpper und Herrn Rainer Küpper. Sie haben mich stets unterstütz und oft auf Samuel und Sara aufgepasst, so dass ich die knappe Momente der Ruhe dieser Arbeit widmen konnte. Meine Freunde Dirk M. Bielz, Elke Heidkamp, Toni von Tiedemann und Stephanie Stein danke für ihre ständige Unterstützung sei es durch Probandenrekrutierung, Korrekturlesen oder Kaffee kochen, insbesondere aber danke ich sie für ihre mir so wertvolle Freundschaft. Herrn Stephan Stegt und Frau Marite Wahrlich danke ich für ihre hilfreichen Tipps, welche für das Design dieser Studie sehr wichtig wurden. Letztendlich möchte ich mich insbesondere bei meinem Sohn Samuel bedanken, für seine albernen Witze, die häufige Ablenkung und seine Geduld mit einem gestressten und oft ungeduldigen Vater.

1 EINLEITUNG

Sie fangen gerade jetzt an, eine enorme Leistung zu vollbringen. Sie sitzen bequem, Sie haben vielleicht gerade den Fernseher oder das Radio ausgemacht, um sich besser zu konzentrieren und mit mehr oder weniger Aufmerksamkeit diese Arbeit zu lesen. Wie tun Sie das? Sie nehmen kleine Einheiten wahr, Buchstaben, und addieren diese zu größeren semantischen Einheiten, Silben bzw. Wörtern. Sie machen jetzt weiter, indem sie diese größeren Einheiten eine nach der anderen im Kopf behalten, so dass Sie in der Lage sind, nach ein paar Wörtern ganze Sätze zu bilden und die Aussagen dieses Textes zu verstehen.

Sie haben sich vielleicht zuerst dafür vorbereitet, indem Sie den Titel gelesen und dann einen Blick auf den Inhalt geworfen haben. Ein paar Begriffe haben Sie sich dann gemerkt, so dass Sie jetzt ungefähr eine Ahnung haben, wovon diese Arbeit handelt. Sie werden die Begriffe Gedächtnis, Aufmerksamkeit, serielle Wiedergabe, die Sie schon aus dem Titel und Inhalt dieser Arbeit kennen, jetzt wieder erkennen. Und wenn Sie diesen Punkt erreicht haben, kann es sein, wenn Sie aufmerksam genug gelesen haben, dass Sie sich immer noch an die ersten Sätze erinnern. Wodurch das, was ich bis geschrieben habe, an Sinn gewinnt.

Sie begegnen somit die scheinbare Gegenwart der Sprache. Warum scheinbare Gegenwart? Weil es unzutreffend ist, dass uns Anfang und Ende eines Wortes oder eines kurzen Satzes zur gleichen Zeit gegenwärtig sind. Wie bereits 1740 Segner für visuelle Phänomene zeigen konnte (Baddeley, 1988), sind wir imstande, einzelne hintereinander auftretende Stimuli zu addieren und als ein Ganzes wahrzunehmen. Ein glühendes Stück Kohle an einem rotierenden Rad befestigt wird, in Abhängigkeit von der Rotationsgeschwindigkeit, als ein vollständiger Kreis wahrgenommen. Das erklärt sich dadurch, dass die am Anfang der Drehung entstandene visuelle Spur noch nicht verblasst ist, wenn das Kohlestück wieder am Startpunkt ankommt. Was für das glühende Stück Kohle gilt, gilt auch, bedingt durch andere Mechanismen, für die Sprache.

Wenn wir das Lesen lernen, sammeln wir zunächst Buchstaben, um Wörter zu bilden. Danach sind wir in der Lage, einzelne Einheiten zu immer größeren Einheiten zusammen zu fügen, so dass wir zunächst Silben und dann Wörter als Einheiten betrachten und dadurch unsere Aufnahmekapazität scheinbar vergrößern können.

Auch hier wieder scheinbar, weil sich unsere Aufnahmekapazität tatsächlich nicht geändert hat. Egal ob Buchstaben, Silben oder ganze Wörter, eine sog. „magische Zahl“ (Miller, 1956; Kaarev, 2000) von 7+- 2 Einheiten oder chunks (Miller, 1956) werden wir kaum überschreiten können. Diese Zahl verfolgt uns, manchmal offensichtlich andermal ein bisschen maskiert, so dass wir glauben könnten, sie überlistet zu haben. Letztendlich haben wir nichts anderes als größere Einheiten gebildet, chunks eben. Dadurch aber haben sich unsere Grenzen nicht geändert. Sehr zutreffend schrieb Miller 1956 in The Psychological Review:

My problem is that I have been persecuted by an integer. For seven years this number has followed me around, has intruded in my most private data, and has assaulted me from the pages of our most public journals. This number assumes a variety of disguises, being sometimes a little larger and sometimes a little smaller than usual, but never changing so much as to be unrecognizable. The persistence with which this number plagues me is far more than a random accident. There is … a design behind it, some pattern governing its appearances. Either there really is something unusual about the number or else I am suffering from delusions of persecution.”

G.A. Miller. The Psychological Review, 1956, vol. 63, pp. 81-97 Wie ich bereits erwähnt habe, spielt nicht nur die Anzahl an Informationseinheiten, sondern auch die Aufmerksamkeitsressourcen, über die wir verfügen, eine wichtige Rolle. Um die Natur des Kurzzeitgedächtnisses, welches solche Leistungen, wie das Lesen dieser Arbeit ermöglicht, erklären zu können, reicht die „Magie“ einer Zahl nicht aus. Diese Art von Gedächtnisleistungen setzt in erster Linie die bewusste Richtung der Aufmerksamkeit voraus. Die Aufmerksamkeit wiederum, bzw. Ihre Ressourcen, sind begrenzt. Wie diese Ressourcen verteilt werden, entscheidet letztendlich, was behalten wird und was nicht. Die zugrunde liegenden Aufmerksamkeitsprozesse steuern somit die Inhalte, die in unser Kurzzeitgedächtnis gelangen. Der Untersuchung einiger dieser Aufmerksamkeitsprozesse in Zusammenhang mit dem Kurzzeitgedächtnis, bzw. dem Arbeitsgedächtnis (working memory im Sinne von Baddeley, 1974), widmet sich diese Arbeit.

In dieser Studie wird ein in der Gedächtnisforschung häufig benutzter Ansatz angewendet: Das Paradigma der seriellen Wiedergabe.

Seit den ersten Selbstversuchen von Ebbinghaus (1885) spielt das Paradigma des seriellen Lernens bzw. der seriellen Wiedergabe eine zentrale Rolle in der Erforschung des Kurzzeitgedächtnisses. Das Paradigma der seriellen Wiedergabe liegt noch immer den meisten deskriptiven und computationalen Gedächtnismodellen zugrunde (z.B. Baddeley, 1986; Burgess & Hitch, 1999; Hulme, Newton, Cowan, Stuart, & Brown, 1999; Page & Norris, 1998; Schweickert, 1993) und ist als Instrument zu Genüge validiert.

Bei der seriellen Wiedergabe wird eine Liste von Items gelernt, die unmittelbar nach der Präsentation in der dargebotenen Reihenfolge reproduziert werden soll. Dabei zeigen sich bestimmte Effekte, welche oft repliziert wurden und die sich als Charakteristikum der seriellen Wiedergabe darstellen. Dies sind der P rimacy- und der Recency- Effekt. Die Effekte bestehen darin, dass sich bei der Reproduktion einer zuvor dargebotenen Itemliste sowohl ein starker Abfall über die seriellen Positionen hinweg zeigt (d.h. die ersten Items der Liste werden besser erinnert als die Nachfolgenden) als auch ein leichter Anstieg am Ende der Liste. (e.g. Jahnke, 1963; Madigan, 1971).

Ein Problem bei der seriellen Wiedergabe ist die sog. Konfundierung der Inputposition und Outputposition eines Items während der Reproduktion. Was ist damit gemeint? Das zuerst präsentierte Item wird als erstes Item reproduziert. Dabei gibt es keine zeitliche Verzögerung und keine Anhäufung von Interferenz während der Wiedergabe. Allerdings ist die Anzahl der noch zu reproduzierenden Items, die im Gedächtnis aktiv gehalten werden müssen, hoch. Das ist die sog. Response Set Size (RSS). Bei den letzten Items dagegen ist diese Response St Size deutlich kleiner, zugleich aber müssen die früher reproduzierten Items inhibiert werden. Das ist die r esponse Suppression. Bei den letzten Items vergeht mehr Zeit bis sie reproduziert werden, und dadurch entsteht mehr Interferenz. Dieses wird als Outputpositions- Effekt bezeichnet.

Um diese Faktoren, die serielle Inputposition (SIP), die serielle Outputposition (SOP) und die Response Set Size zu isolieren, wird für diese Arbeit eine modifizierte Form der seriellen Wiedergabe angewendet: Die Dekonfundierungsmethode nach Cowan, Saults, Elliott, & Moreno (2002). Mit Hilfe dieser Methode wird die Konfundierung zwischen Input und Outputposition und zwischen Response Set Size und Response Suppression aufgelöst. Die drei isolierten Faktoren werden dann, mit Bezug auf die Aufmerksamkeit und die Lexikalität des Stimulusmaterials (Wörter vs. Non-Wörter), auf ihre Wirkung hin untersucht.

Von den mehreren zu Verfügung stehenden Gedächtnismodellen dienen dieser Arbeit in erster Linie das Working-Memory Modell nach Baddeley & Hitch (1974) und das Embedded-Processes Modell nach Cowan (1995) als theoretischer Rahmen. Dabei wird die Lexikalität grundsätzlich im Sinne von Baddeley angenommen, d.h. als eine Art der Aufmerksamkeitsmanipulation.

Aufgrund der direkten Relevanz des Konzepts der zentralen Exekutive des Baddeley Modells wird das Konzept von Aufmerksamkeit als attentional control of action nach dem SAS -Modell von Norman & Shallice (1986) gegenüber anderen Konzepten (vigilance, perceptual selection, awareness) bevorzugt. Diesem stimmt auch mit dem Aufmerksamkeitskonzept von Cowan im Sinne der focus of attention in gewisser Hinsicht überein.

Obwohl die Aufmerksamkeit offensichtlich eine zentrale Rolle bei der seriellen Wiedergabe spielt, wird ihre Rolle in den bekanntesten deskriptiven und computationalen Gedächtnismodellen (z.B. Baddeley, 1986; Burgess & Hitch, 1999; Hulme, Newton, Cowan, Stuart, & Brown, 1999; Page & Norris, 1998; Schweickert, 1993) nicht explizit modelliert. Mit Ausnahmen des Embedded-Processes Modells (Cowan, 1995), des Inihibiton-Resource-Ansatzes (Engle, 1996) und der aktuellen Version des Featur e-Modells (Neath, 2000). Trotzdem wird von diesen Ansätzen nur ein globaler, wenig elaborierter Einfluss der Aufmerksamkeit auf exekutive Funktionen postuliert.

Diese Vernachlässigung der Modellierung der Aufmerksamkeit wirkt überraschend. Insbesondere wenn man die verschiedenen Funktionen betrachtet, die ihr bei der seriellen Wiedergabe zugeschrieben werden. Von der Aufmerksamkeit hängen viele Prozesse ab. Die Verbindung des Kurzzeitgedächtnisses zum Langzeitgedächtnis durch die zentrale Exekutive (Baddeley, 1996), die Unterdrückung bereits wiedergegebener Items (Response Suppression, z.B. Page & Norris, 1998), die Aufrechterhaltung der noch wiederzugebenden Items (Response seit sieze, Cowan, Saults, Elliott, & Moreno, 2002), die Ausblendung von Störvariablen (Kane, Bleckley, Conway & Engle, 2001), die Minimierung von Interferenz (Kane &Engle, 2000; Rosen & Engle, 1998) und die Erhaltung abrufbarer Gedächtnisrepräsentationen (Engle, 2002).

Nach Baddeley und Hitch (1974) kann die Aufmerksamkeit auf zwei unterschiedliche Arten manipuliert werden. Zum einen durch die Variation der Lexikalität des Stimulusmaterials (Wörter versus Non-Wörter) und zum anderen auch durch die Vorgabe einer aufmerksamkeitsbelastenden Zusatzaufgabe. Diese Manipulation sollte zwei Effekte auf die serielle Wiedergabe mit sich bringen. Einerseits einen Lexikalitätseffekt, andererseits einen reinen Aufmerksamkeitseffekt.

Der Lexikalitätseffekt besagt, dass die Gedächtnisspanne für Wörter höher ist als für Non-Wörter (z.B. Hulme, Maughan, & Brown, 1991; Saint-Aubin & Poirier, 2000). Neuere Studien zeigen aber, dass die Verbindung zum Langzeitgedächtnis auch für Non-Wörter besteht (Gathercole, Frankish, Pickering, & Peaker, 1999; Roodenrys & Hinton, 2002). Es ist daher noch unklar, ob die Aufmerksamkeitsressourcen im Sinne von Baddeley und Hitch (1974) wirklich für den Lexikalitätseffekt verantwortlich sind. Hier stellt sich die Frage, ob der Lexikalitätseffekt tatsächlich ein reiner Aufmerksamkeitseffekt ist oder nicht.

Bezüglich der Vorgabe einer aufmerksamkeitsbelastenden Zweitaufgabe gibt es widersprüchliche Befunde. Während einigen Studien eine Reduktion in der seriellen Wiedergabeleistung (z.B. Baddeley, Emslie, Kolodny, & Duncan, 1998; Bredenkamp & Hamm, 2001) zeigen, fand sich in anderen Studien kein Effekt (z.B. Baddeley, 1986; Vandierendonck, deVooght, & van der Goten, 1998). Man muss anmerken, dass diese Studien jedoch erheblich hinsichtlich der Prozessreinheit der Aufmerksamkeitsbelastung und der möglichen Variabilität in der Sekundäraufgabe sowie in der Schwierigkeit der seriellen Gedächtnisaufgabe variieren. Schon Baddeley & Hitch (1974) fanden nur einen Effekt der Aufmerksamkeit, wenn der memory load sehr hoch war.

Innerhalb der dargebotene Forschungsrichtungen und Theorien verfolgt diese Arbeit nun mehrere Ziele. Als erstes wird die Rolle von Input- und Outputprozessen untersucht und zwar mit Bezug auf die Lexikalität und auf die Belastung der Aufmerksamkeit durch eine Sekundäraufgabe. Zweites Ziel ist es, durch den Vergleich zwischen Lexikalitätseffekt und aufmerksamkeitsbelastender Zusatzaufgabe Aufschluss darüber zu bekommen, ob der Lexikalitätseffekt ein Aufmerksamkeitseffekt ist. Drittes Ziel ist eine Gegenüberstellung einiger Gedächtnismodelle mit und ohne explizite Modellierung der Aufmerksamkeit. Im Falle des Auftretens von Aufmerksamkeitseffekten, können diese auf Input- und Outputprozesse lokalisiert werden und erlauben somit auch einen Vergleich der Modelle, die bereits eine Rolle der Aufmerksamkeit integriert haben. Viertens soll diese Arbeit durch die Anwendung der modifizierten seriellen Wiedergabe nach Cowan (2002) und der a posteriori Typikalitätsanalyse der Ergebnisse der Etablierung eines neuen Paradigmas zur serieller Wiedergabe (Cowan, et al., 2002) dienen.

Die Leistung, die Sie bis hierher vollbracht haben, nämlich das Lesen dieser Einleitung, genauso wie vergleichbare Leistungen, die wir jeden Tag ohne uns dessen bewusst zu sein erbringen, sind von der Zusammenarbeit komplizierter mentaler Prozesse abhängig. Prozesse, welche uns einerseits eine scheinbare Gegenwart „vorgaukeln“, so dass unser working memory überhaupt able to work ist, und andererseits, durch die Verbindung mit unseren Langzeitgedächtnis, uns ein Gefühl der Kontinuität und Identität geben. Eine zentrale Rolle innerhalb dieser komplexen Prozesse spielen die Aufmerksamkeitsprozesse, welche hier mit Bezug auf das Kurzzeitgedächtnis am Beispiel der seriellen Wiedergabe untersucht werden.

Erst wenn diese Prozesse nicht richtig funktionieren, wie es bei vielen neurodegenerativen Erkrankungen der Fall ist, wird uns bewusst, was für eine unglaubliche Leistung es bedeutet, etwas ganz Alltägliches zu tun, wie ein paar Zeilen zu lesen, sich eine Telefonnummer zu merken, der Handlung eines Filmes zu folgen. Der Filmregisseur, Autor, Schriftsteller, Surrealist und Salvador Dali Freund Luis Buñuel hat es auf den Punkt gebracht. In seinem letzten Buch, Mein letzter Seufzer, welches er im Jahr seines Todes, kurz davor zu Ende brachte, klagte er: Ein Leben ohne Ged Ächtnis w Äre kein Leben … Ohne Ged Ächtnis sind wir nichts. Im Sinne dieser Arbeit und ohne den Anspruch eine große Wahrheit kund zu tun, bleibt mir nur noch hinzufügen, dass ohne (bewusste Richtung der) Aufmerksamkeit kein Kurzzeitgedächtnis, ohne Kurzzeitgedächtnis kein Gedächtnis, ohne Gedächtnis sind wir nichts.

2. THEORETISCHER HINTERGRUND

2.1 Was ist Gedächtnis?

Die verschiedenen Theorien über das Gedächtnis und deren Funktion beziehen sich auf zwei grundlegende Aspekte:

- Auf die zugrundeliegende Struktur des Gedächtnissystems - d.h. wie das Gedächtnis organisiert ist
- Auf die Prozesse, die innerhalb dieser Struktur ablaufen - d.h. die laufenden Aktivitäten innerhalb des Gedächtnissystems Was ist aber das Gedächtnis? Das Gedächtnis ist in erster Linie eine Fähigkeit, welche uns erlaubt Informationen zu speichern und abzurufen. Baddeley formulierte es 1988 auf eine ähnliche Art wie Buñuel, als er schrieb:

„ Ohne Ged Ächtnis können wir weder sehen noch hören oder denken. Wir h Ätten keine Sprache, um unsere Anliegen auszudrücken, und wir w Ären uns nicht einmal unserer persönlichen Identit Ät bewusst. Kurzum, ohne das Ged Ächtnis w Ären wir nur biologische Hüllen und in intellektueller Hinsicht tot. “

Baddeley, A. (1988). So denkt der Mensch Für Scaruffi (2003) ist Gedächtnis auch mehr als Speicherung, es ist re-cognition. Was auch mehr ist als nur Wiedererkennen.

Memory is more than storage. Memory is also re-cognition. We are capable of recognizing a tree as a tree even if we have never seen that specific tree before. Not two trees are alike. And even a specific tree never appears the same to us, as the perspective, the wind, the lighting can all dramatically change its appearance. In order to recognize a tree as a tree, and as a specific tree, we use our "memory". Whenever we see something, we ransack our memory looking for "similar" information. Without memory we would not see trees, but only patches of green.

Scaruffi, P. (2003). Thinking about Thouhgt.

Gedächtnis ist also, unsere Fähigkeit Information zu verarbeiten und anzuwenden, zu verknüpfen, oder, wenn es sein muss, zu unterdrücken, zu inhibieren. Dieser Prozess der Informationsverarbeitung durchläuft mehrere Stadien:

1. “encoding “ (Enkodierung)
2. “storage “ (Speicherung)
3. “retrieval “ (Dekodierung, „Herausholung”; Abruf)

Unabhängig der Unterschiede zwischen der Struktur, dem Prozess und den verschiedenen Stadien, aus dem Gedächtnis kann man nur das herausholen, abrufen, was vorher im Gedächtnis gespeichert worden ist.

2.1.1 Welche Arten von Gedächtnis gibt es?

Nach heutiger Erkenntnis kann man das Gedächtnis hauptsächlich in drei breit gefasste Hauptsysteme einteilen. Diese drei Hauptsysteme sind in erster Linie theoretische Kategorien und keine physiologischen bzw. neuroanatomischen fest korrelierten Einteilungen.

Die drei Hauptsysteme sind das Langzeitgedächtnis, das Kurzzeitgedächtnis und das sensorische Gedächtnis. Diese Systeme lassen sich folgendermaßen darstellen (Abbildung 2.1.)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.1. Informationsfluss durch das Gedächtnissystem.

Von den drei Hauptsystemen ist das Kurzzeitgedächtnis bzw. das Arbeitsgedächtnis für diese Studie in erster Linie von Interesse. Dieses System dient der kurzfristigen Speicherung von Informationen, welche danach entweder zum Langzeitgedächtnis überführt oder vergessen werden. Das Arbeitsgedächtnis erlaubt uns dadurch neue Sachverhalte aus verschiedenen kognitiven Prozessen vorübergehend zu speichern und zu handhaben.

Die Erforschung des Kurzzeitgedächtnisses hat schon eine lange Geschichte. Die heutigen Ansätze zeigen einen sehr großen Einfluss durch das Modell von Alan Baddeley (1974) Working Memory Modell, welchem die meisten Kognitivpsychologen und Neurobiologen zustimmen und auf das in dieser Arbeit eingegangen wird.

2.2 Zwei Pioniere der experimentellen Gedächtnisforschung

2.2.1 Hermann Ebbinghaus:

Obwohl mindestens seit Aristoteles ein methodisches Interesse für die Studie des menschlichen Gedächtnisses existiert, mussten wir bis Ende des neunzehnten Jahrhunderts warten, um über eine Psychologie des Gedächtnisses sprechen zu können. Die Selbstversuche von Ebbinghaus (1885) stellen die Geburtsstunde der modernen Gedächtnisforschung dar.

Angespornt von der Arbeit des deutschen Physikers und Philosophen Gustav Theodor Fechner „ Elemente der Psychophysik “ (1860; 1962), versucht der Berliner Psychologe Hermann Ebbinghaus die Methode der Psychophysik auf die Erforschung des menschlichen Gedächtnisses anzuwenden. Mit sich selbst als Proband führt Ebbinghaus die ersten systematischen Untersuchungen des Gedächtnisses durch. Als Anhänger des psychologischen Atomismus galt seine Überzeugung der Zerlegung des Bewusstseins in seine strukturellen Elemente. Eines dieser Elemente sei das Gedächtnis. Der Einfluss von Fechners Arbeit zeichnete sich durch sein Bestreben aus, ähnlich wie in der Psychophysik, allgemeingültige Gesetze für das Erinnern und Vergessen zu finden. Die Ergebnisse seiner Forschung fasste Ebbinghaus (1885) zusammen als eine Gesetzmäßigkeit für die Beziehung zwischen was behalten und was vergessen wird.

„ Die Quotienten aus Behaltenem und Vergessenem verhalten sich etwa umgekehrt wie die Logarithmen der verstrichenen Zeit. “ (Ebbinghaus, 1885)

Ebbinghaus war der Meinung, dass alltägliche Gedächtnisleistungen stets von externen Faktoren beeinflusst wären. Der Einfluss des vorhandenen Wissens, der unterschiedlichen Aufmerksamkeitsniveaus und der unterschiedlichen interindividuellen Erfahrungen und Interessen sollte erst ausgeschaltet werden, um überhaupt mit der Untersuchung des Gedächtnisses anfangen zu können. Um diese Störfaktoren auszuschalten und eine kontrollierte experimentelle Studie durchführen zu können, entwickelte Ebbinghaus eine Lernaufgabe, welche aus dem (seriellen) Lernen von sinnlosen Silben bestand. In „ A contribuition to experimental psychology “ (1885) betont Ebbinghaus die Vorteile von nonsense Silben für die experimentelle Gedächtniserforschung. Anders als Wörter oder andere komplizierte Stimuli verringern sie extraexperimentelle Effekte. Außerdem, da alle Items aus derselben Kombination, Konsonant-Vokal-Konsonant, bestehen, besitzen alle Items eine ähnliche Qualität. Die Stimuli sind ähnlich genug, um eine „Gleichberechtigung“ innerhalb des Lernprozesses anzustreben, zugleich aber unterschiedlich genug, um nicht verwechselt zu werden.

Nach unterschiedlichen Zeitspannen überprüfte er immer wieder wie gut er die Itemliste wiedergeben konnte. Das Ziel dabei war eine genaue Messung der Zeit, die er brauchte, um die Items fehlerfrei zu reproduzieren.

Seine Methode kennzeichnete sich durch ein strikt experimentelles Vorgehen, in dem er sowohl die Lernbedingungen als auch die Abrufintervalle variierte. Störvariablen sollten durch die Art der Stimuli in voraus ausgeschlossen sein. Auch die genaue Quantifizierung der Gedächtnisleistung zeichnete seine Arbeit aus. Dabei machte er den Unterschied zwischen Erlernungsmethode und Ersparnismethode. Unter Erlernungsmethode verstand Ebbinghaus die Anzahl an Wiederholungen bis zur fehlerfreien Wiedergabe der Silbenreihe. Mit Ersparnismethode bezeichnete er die Ersparnis an Lerndurchgängen beim Wiedererlernen einer Silbenreihe, die bereits reproduziert wurde.

Die Ergebnisse dieses Versuches lassen sich folgendermaßen zusammenfassen:

1) Bei einmaligem Lesen werden ca. 6-7 Silben richtig reproduziert. Die Addition von mehreren Items steigert aber unverhältnismäßig den Lernaufwand. So dass bereits bei 15 Silben, 30 Lerndurchgänge notwendig waren bis zur vollständigen Reproduktion.
2) Die Anzahl der Wiederholungen verhalten sich proportional zu den Behaltensleistungen.
3) Bei verteiltem Lernen ist der Lernaufwand, gemessen an Wiederholungen, deutlich geringer als bei massiertem Lernen.

Darüber hinaus erhielt Ebbinghaus bei der Ersparnismethode eine sog. Behaltensbzw. Vergessenskurve (Abb. 2.2). Nach unterschiedlichen Behaltensintervallen wurden die Silbenreihen immer wieder überprüft.

Abb. 2.2. Die Vergessenskurve von Ebbinghaus (1885) (Nach Anderson, J., 2001)

Abbildung in dieser Leseprobe nicht enthalten

Zu Beginn der Kurve wird sehr rasch wieder vergessen, im Verlauf sinkt aber die Kurve langsamer ab. Nach 30 Tage setzt sich das Vergessen immer noch fort, aber stark abgeschwächt.

Die von Ebbinghaus postulierten Gesetzmäßigkeiten des Erinnerns und Vergessens sind im Laufe der Gedächtnisforschung immer wieder reproduziert worden. Seine Versuche zeigten schon einen seriellen Positionseffekt. Die Items wurden, in Abhängigkeit von der Reihenposition in der zu lernenden Liste, unterschiedlich gelernt und wiedergegeben. Diese Positionseffekte gelten als typisch für serielles Lernen und werden später ausführlich behandelt.

Die Anzahl an richtig reproduzierten Items nach einem Lernvorgang, 6-7 Silben, ist mehrmals reproduziert worden und bestätigt die Annahmen von Ebbinghaus. George Miller (1956) fand, dass die Anzahl an reproduzierten Items bei ummittelbarer Wiedergabe stark von der Itemart abhängig war. Bei sinnlosen Silben blieb die Anzahl richtig reproduzierter Items bei 7 ± 2. Wenn die Silben die Bildung von Wörtern ermöglichten, erhöhte sich die Anzahl an richtig reproduzierten Silben erheblich. Die Anzahl der richtig reproduzierten Wörter blieb aber bei 7 ± 2 Wörter. Diese Lerneinheiten, seien es sinnlose Silben, Wörter oder andere Stimuli, von Miller als „ chunks “ bezeichnet, bleiben stets konstant. Die Zahl 7 ± 2 wird in der Regel nicht überschritten.

2.2.2. William James:

Für den amerikanischen Psychologen und Philosophen William James gleicht das Erinnern „ dem Durchsuchen des ganzen Hauses nach einem verlorenem Gegenstand “. Als Pragmatiker, noch von einer räumlichen Vorstellung des Gedächtnisses beeinflusst, postuliert er in seinem Werk „ Principles of psychology “ (1890) die sogenannte „ storage metapher “ .

Sein wichtigster Beitrag zur Gedächtnisforschung war seine Beobachtung, dass Stimuli auf der Ebene der Sinneseindrücke für eine kurze Zeitspanne (>30 Sekunden) in dem Bewusstsein erhalten bleiben, bevor sie verschwinden. Dieses kurzfristige Behalten von Information bezeichnete James als das primäre Gedächtnis. Die Hauptfunktion des primären Gedächtnisses wäre dann die Zwischenspeicherung von Information als Teil einer Gesamtheit. Das wiederum würde komplizierte Leistungen wie das Lesen oder Kopfrechnen überhaupt erst möglich machen.

Die Rolle der Aufmerksamkeit, welche für diese Studie ein zentrales Konzept ist, wird bereit von James betont. Ohne ein bewusstes Richten der Aufmerksamkeit auf die ankommenden Stimuli würde diese Zwischenspeicherung nicht zustande kommen.

„ This primary memory-image is … an extremely lively one, but is subjectively quite distinct from every sort of after-image or hallucination … It vanishes, if not caught by attention, in the course of a few seconds. Even when the original impression is attended to, the liveliness of its image in memory fades fast." (James, W. 1890)

James primäres Gedächtnis, obwohl nicht durch eine Anzahl an Items definiert, sondern eher durch die Zeitbegrenzung, stellt eine der ersten brauchbaren Definitionen von dem dar, was wir heute als Arbeitsgedächtnis bezeichnen. Die Inhalte dieser Zwischenspeicher müssen dann in einen zweiten, größeren (bezüglich der Kapazität), dauerhaften Speicher überführt werden, bevor sie unvermeidbar verloren gehen. Diesen zweiten dauerhaften Speicher bezeichnet James als sekundäres Gedächtnis. Anders als die Inhalte des primäres Gedächtnisses, welche sich stets im Bewusstsein befinden solange sie zwischengespeichert werden, bleiben die Inhalte des sekundären Gedächtnisses unbewusst. Erst wenn sie „verarbeitet“ werden, gelangen sie ins Bewusstsein, wovon sie abgerufen werden. Erst dieses bewusste Richten der Aufmerksamkeit auf die bereits gespeicherten Inhalte ermöglicht deren Einbindung in bewusste Prozesse.

Erstaunlicherweise zeichnen sich schon in James Theorie die Konzepte ab, die fast 80 Jahre später in der modernen Gedächtnisforschung eine zentrale Rolle spielen werden. Das working memory (Baddeley, 1974) als dieser Zwischenspeicher oder primäres Gedächtnis und der focus of attention (Cowan, 1988) als bewusstes Richten der Aufmerksamkeit. In Abbildung 2.3 wird das storage-model von James schematisch dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.3. Die storage metapher nach James Modell (1890)

Das James Modell konnte aber innerhalb der behavioristischen Tradition keinen Platz finden. Bis in die 50’ - 60’ Jahre des zwanzigsten Jahrhundert wurde es von der experimentellen Psychologie wenig beachtet.

Nach dem behavioristischen Paradigma sind der Lernprozess und die damit verbundenen Gedächtnisleistungen nichts anderes als die Bildung von Assoziationen zwischen Stimuli und Antworten. Das Gedächtnis, das Erinnern wäre in dieser Hinsicht bloß eine adäquate Antwort auf einen bestimmten Reiz. Nicht die funktionelle Struktur oder die zugrunde liegenden Prozesse bildeten die zentrale Frage des Behaviorismus, sondern die Qualität der Stimuli, bzw. die der hervorgerufenen Assoziationen und die daraus resultierenden Antworten. Erst die Trennung der kognitiven Psychologie von dem behavioristischen Paradigma gab der Erforschung des menschlichen Gedächtnisses einen neunen Aufschwung.

Die neue Forschungsrichtung setzte den Akzent in den Prozessen, die dem Erinnern und Lernen zugrunde liegen. Die Frage nach der Enkodierung, Speicherung und dem Abruf von Gedächtnisinhalten nahm einen sehr wichtigen Platz ein. Es ist klar, dass die Methode eine ganz andere war als die von Ebbinghaus bzw. von James. Ungeachtet davon setzte die Arbeit dieser zwei Pioniere der experimentellen Gedächtnisforschung vielleicht nicht das Fundament, wiesen sie aber wohl mindestens in die Richtung der modernen Erforschung des Gedächtnisses. Die später postulierten Gedächtnismodelle, wie das Mehrspeichermodell von Atkinson & Shiffrin (1968) sind nichts anderes als die Weiterentwicklung der storage metapher von James.

2.3 Moderne Gedächtnismodelle

2.3.1 Das Mehrspeicher-Modell (MSP) von Atkinson & Shiffrin (1968)

Die Idee eines räumlichen Gedächtnismodells finden wir wieder, obwohl erweitert und funktionell grundlegend geändert im Vergleich zum James Modell, 1968 in Form eines Mehrspeichermodells bei Atkinson und Shiffrin.

Sie postulieren ein Mehrspeicher Modell (MPS), welches auch eine räumliche Analogie nutzt, um den Vorgang des Erinnerns und Vergessens zu beschreiben. Anders als James fügen Atkinson und Shiffrin (1968) ein unterschiedliches Informationsverarbeitungsniveau für jeden Speicher hinzu. Das spiegelte einen Trend wieder, welcher sich die Organisation von Informationsprozessen in der beginnenden Wissenschaft der Informatik als Beispiel für die Organisation des menschlichen Denkens, zu Nutze machte.

Am Anfang bestand das MSP aus zwei unterschiedlichen Speichern. Ein Kurzzeitspeicher, welcher hier treu der englischen, genaueren Bezeichnung als Short Term-Memory (STM) definiert wird und ein Langzeitspeicher, Long-Term-Memory (LTM ). Später wurde ein dritter, im Schema vorderster Gedächtnisspeicher dazu addiert, welcher als erster Landepunkt für ankommende Informationen fungiert. Das sensorische Gedächtnis, Sensory-Memory (SM).

Die Informationen gelangen durch sensorische Kanäle in erster Linie in das SM . Nach einem unbewussten Identifikationsprozess werden die wahrgenommenen Informationen in das STM überführt. Von da an haben die angekommenen bewusst gewordenen Informationen zwei mögliche Wege. Sie werden entweder in das LTM weitergeleitet oder sie werden vergessen. Analog zum James sekundären Gedächtnisspeicher wird dem LTM eine große und dauerhafte Aufnahmekapazität zugeschrieben.

Eine schematische Darstellung des MSP von Atkinson & Shiffrin zeigt Abbildung 2.4

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.4. Das Mehrspeichermodell nach Atkinson & Shiffrin (1968) Sensory memory

Angehende Informationen erreichen das sensory memory (SM, sensorischer Speicher) durch die Sinnesorgane oder durch verschiedene sensorische Kanäle. Die im sensorischen Gedächtnis angekommenen Informationen bzw. Reize, müssen sog. Identifikationsprozesse durchlaufen, bevor sie wahrgenommen werden. Die Hauptrolle des sensorischen Speichers ist die Filtration und Identifikation von ankommenden Reizen, um eine Wahrnehmung zu erzeugen. Erst das wahrnehmbare wird durch die Aufmerksamkeit in das STM, das Kurzzeitgedächtnis, überführt.

Der sensorische Speicher ist keine einheitliche Struktur, sondern mehr eine Ansammlung an getrennten Subsystemen. Für jeden sensorischen Kanal einzeln. Jedes einzelne dieser Systeme hat seine eigene Speicherkapazität. Das führt dazu, dass es für jede Sinnesmodalität eine unterschiedliche Speicherdauer gibt. Ein Beispiel stellt das ikonische Gedächtnis dar, welches den visuellen sensorischen Speicher bezeichnet.

Short term memory

Das short term memory (STM), auch Kurzzeitspeicher (KZP), ist eine Art Fortschreibung des primären Gedächtnisses von James. Erst hier wird entschieden welche Informationen unsere Aufmerksamkeit erhalten und welche nicht. Es ist, sozusagen, der erste „bewusste“ Speicher. Er verteilt unsere Aufmerksamkeit, bestimmt welche Informationen verarbeitet werden, reguliert den Abruf bereits existierender Informationen aus dem LTM, dem Langzeitspeicher. Zahlreiche Versuche haben bereits gezeigt, dass die Menge der gleichzeitig repräsentierten Informationen in dem KZP sehr begrenzt ist. Diese Menge, wird als Gedächtnisspane definiert und besagt die Anzahl der unmittelbar nach Darbietung erinnerten Items. Es geht oft um willkürlich angeordnete Zahlen oder sinnlose Silben. In „ The Magical Number Seven, Plus or Minus Two “ (1956) setzte George Miller diese Grenze der KZG Kapazität auf sieben (±2) Einheiten, sog. „ chunks “, Informationseinheiten. Die millersche Definition für chunk besagt, dass diese unabhängige Informationsitems sind, welche bei ihrer Wiedergabe nicht in der Lage wären die Reproduktion weiterer Items, bzw. Informationseinheiten, behilflich zu sein. Beispielsweise die seriell dargebotenen Buchstaben R, T, X sind nicht in der Lage ein chunk zu bilden und werden jeder einzeln als eine zu reproduzierende Informationseinheit aufgefasst.

Anders würde es in unserem Fall bei der Buchstabenreihe K, Z, G. Sie bilden zwar nicht unbedingt ein Wort, welches wir uns merken könnten, aber in unserem Informationsniveau können wir sie trotzdem als eine Einheit erfassen und uns dabei an das Wort „Kurzzeitgedächtnis“ erinnern, welches KZG abgekürzt wird. Eine achtstellige Zahl, wie z.B. „24121783“, lässt sich so, durch „ chunking “ , von acht in nur drei Informationseinheiten, „24. 12. 1783.“, „schrumpfen“ und dadurch in dieser Form enkodieren. So dass wir uns bei Abruf an „24. 12. 1783.“ statt an „24121783“ erinnern werden.

Die im KZG aufgenommen Information hat ab dann zwei mögliche Wege. Entweder gelangt sie in das Langzeitgedächtnis (LZG, long term memory) oder sie geht verloren, vergessen.

Die Speicherdauer innerhalb des KZG beträgt ungefähr 18 bis 20 Sekunden (Peterson & Peterson, 1959). Wenn innerhalb dieser Zeitspanne die Information nicht aktiv „eingespielt“ wird (rehearsed), dann geht sie verloren. Warum das geschieht ist noch nicht klar, d.h. die genauen Mechanismen für dieses Vergessen der Information innerhalb des KZG nach einer gewisser Zeitspanne. Ein Ansatz wäre, dass die ankommende Information das vorläufig behaltene Informationsmaterial von seinem Platz im KZG verdrängt, so dass eine Art Konkurrenz zwischen bereits angekommenen und ankommenden Information entsteht (Galotti, 1999). Der Abruf von Information aus dem KZG erfolgt anhand einer erschöpfenden, exhaustiven seriellen Suche, welche auch begrenzt ist (Sternberg, 1966). Diese sowohl theoretischen als auch empirischen Grenzen zeigen sich nicht nur bei dem Abruf von Informationseinheiten aus dem KZG, sondern bei jedem Fall von Begrenzung der Gedächtniskapazität (Cowan, 2001). Eine mögliche Erklärung für die Begrenzung der Speicherung und Abrufkapazität innerhalb des KZG kann auch Produkt von adaptiven Evolutionsprozessen sein (Cowan, 2001). In diesem Sinne wäre die Begrenzung ein Vorteil, für die Detektion von Korrelationen (Kareev, 2000).

Die Tatsache, dass die innerhalb des KZG erhaltene Information in zweierlei Hinsicht begrenzt ist, sowohl in der Menge (7 ±2 chunks) als auch in der Zeitdauer, bis die Aufmerksamkeit abgelenkt wird, macht aus dem KZG eine Art Flaschenhals oder besser gesagt, Engpass innerhalb des menschlichen Informations- verarbeitungssystems.

Nicht nur die Informationsverarbeitungsprozesse spielen eine große Rolle, um das Vergessen innerhalb des KZG im Sinne von Verlust von Information bevor sie das Langzeitgedächtnis erreicht, zu erklären. Auch andere Störungsanfälligkeiten sind in diesem Sinne nennenswert, welche sich eher auf eine rein physiologische bzw. biologische Grundlage beziehen (Trepel, 1999; Lanz & Wachsmuth, 2004): Kopfverletzungen, Gehirnerschütterungen, Epilepsieanfälle, Drogenabusus (Hartje & Poeck, 2002).

Long term memory

Genauso wie das KZG von Atkinson & Shiffrin (1968) analog zu James primärem Gedächtnis konzipiert wurde, lehnt sich das Konzept des long term memory (LTM, Langzeitgedächtnis, LZG) an das sekundäre Gedächtnis des James Ansatzes. Hier wird ein Speicher postuliert, welchem eine enorme Kapazität, sowohl quantitativ als auch zeitlich zugeschrieben wird. Ein, relativ gesehen, stabiles Gedächtnis, welches in der Lage ist Information dauerhaft und beständig zu Speichern (Weiten, 1998). Es ist so, dass diese Beständigkeit des LZG theoretischerweise ein Leben lang reichen sollte, außer im Falle von schweren retrograden Amnesien (Hartje & Poeck, 2002) oder degenerativen Erkrankungen des Gehirns, insbesondere des Hippocampus und anderen Komponenten des limbischen Systems (Poeck & Hacke, 1998).

Während die im KZG ankommende Information in der Form von neurologischen Aktivitätsmustern zu beobachten ist, scheint für das LZG keine beobachtbare neurologische Aktivität vorhanden zu sein. Dafür aber, werden dem LZG Änderungen der Synapsisschaltungen zugeschrieben. Neue Synapsen werden gebildet, andere werden verstärkt und wiederum andere getrennt (Kandel, 2000; Schmidt, Thews & Lang, 2000).

Die Gedächtniskonsolidierung, d.h. die Überführung von Gedächtnisinhalten aus dem KZG in das LZG wird in erster Linie dem Hippocampus zugeschrieben. Bei Menschen, deren Hippocampus zerstört oder operativ entfernt wurde, ist die Fähigkeit neue Erinnerungen zu bilden nicht mehr vorhanden. Sie weisen eine anterograde Amnesie auf, alte gespeicherte Erinnerungen können zwar abgerufen werden, neues Informationsmaterial dagegen kann keinen Zugang zum LZG finden.

Die Informationskodierung innerhalb des LZG erfolgt semantisch (Baddeley, 1988). Die Information wird mittels Einspielung und Organisation bzw. durch Verbindung mit älterem beständigem Informationsmaterial verknüpft; im LZG gespeichert. Die Informationsabfrage kommt zustande durch die gezielte Suche nach Abrufsignalen innerhalb des LZG.

Das MSP-Modell wurde 1972 von E. Tulving (1972, 1985) modifiziert und das LZG in Teilbereiche geteilt: In ein episodisches, ein semantisches und ein prozedurales Gedächtnis. Squire (1987) hatte das LZG schon in ein prozedurales und ein deklaratives Gedächtnis unterteilt, was durch Tulving vervollständigt wurde.

Das episodische Ged Ächtnis:

Bezeichnet wird damit eine Art Speicher, welcher hauptsächlich autobiographische Ereignisse beinhaltet. Die alltägliche Sensation des etwas „wieder zu erleben“, beim Erinnern an eine bestimmte Situation, verweist auf diese Gedächtnisform.

Das semantische Ged Ächtnis:

Dieser Speicher beinhaltet das individuelle Wissen über (arithmetische, sprachliche) Regeln und wird auch als implizites Gedächtnis betrachtet (Squire, 1987). Die unbewussten Effekte des Lernens werden hier gespeichert und als Strategien angewendet. Man muss nicht wissen wann und wie man die Lösungskompetenz für arithmetische Aufgaben erworben hat. Man löst sie einfach.

Dass es eine deutliche Trennung zwischen episodischem und semantischem Gedächtnis gibt, zeigt die Tatsache, dass im Alltag für den Abruf von Inhalten aus diesen Speichern unterschiedlicher Sprachgebrauch angewendet wird. An die Inhalte aus dem episodischen Gedächtnisses erinnert man sich, die aus dem semantischen weiß man. Ein anderes Beispiel liefert Lefrancois (2000), der Fall KC, welcher zwar in der Lage ist Schach zu spielen, er weiß wie es geht, sich aber nicht erinnern kann jemals gespielt zu haben.

Das prozedurale Ged Ächtnis:

Die Konzeption des LZG wird 1985 von Tulving wieder präzisiert und um einen weiteren Speicher erweitert. Wie auch Anderson (1995) postuliert Tulving einen dritten Speicher, das prozedurale Gedächtnis. Anders als die Inhalte des episodischen, bzw. semantischen Gedächtnisses entziehen sich die im prozeduralen Gedächtnis gespeicherten Informationen einer bewussten Beschreibung. Dieses Informationsmaterial erlaubt wiederum die Durchführung von hochautomatisierten Vorgängen, wie Lesen, Fahrradfahren, usw.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5 zeigt die modifizierte Version des Mehrspeicher Modells nach Tulving (1985)

Abb. 2.5 Modifiziertes MSP nach Tulving (1985)

2.3.2 Die “Levels of processing” Theorie.

Kernaussage des Levels of Processing Ansatzes nach Craik & Lockhart (1972, 1978). ist, dass verschiedene Verarbeitungsprozesse, verschiedene Gedächtniscodes unterschiedlicher Dauerhaftigkeit kreieren. Aufgabe dieser Verarbeitungsprozesse ist die Enkodierung von eingehender Information. Sie lehnten die Idee eines reinen Speicher Modells, wie es der Atkinson & Shiffrin Ansatz postulierte, ab. Für sie war nicht die Dauer des Memorierens bzw. der Speicherort innerhalb eines Speichermodells der entscheidende Faktor, sondern viel mehr die Verarbeitungstiefe des ankommenden Informationsmaterials.

Ein Stimulus wird prozessiert, also verarbeitet, indem es verschiedene hierarchische Verarbeitungsebenen durchlaufen muss. Es fängt bei relativ oberflächlicher Verarbeitungsebene an und endet bei einer tiefen semantischen Verarbeitung. Die Gedächtnisspur wird dauerhafter, je tiefer die Verarbeitung für diese Information war. Der Unterschied zwischen oberflächlicher und tiefer Verarbeitung stellt sich exemplarisch beim Lernen von wörtlichem Stimulusmaterial dar.

[...]

Details

Seiten
92
Jahr
2005
ISBN (eBook)
9783638583831
Dateigröße
999 KB
Sprache
Deutsch
Katalognummer
v65994
Institution / Hochschule
Rheinische Friedrich-Wilhelms-Universität Bonn – Psychologisches Institut
Note
2,4
Schlagworte
Einfluss Aufmerksamkeitsprozessen Outputprozesse Wiedergabe

Autor

Zurück

Titel: Einfluss von Aufmerksamkeitsprozessen auf In- und Outputprozesse bei der seriellen Wiedergabe