Textverstehen und Textverständlichkeit - Übersicht zur Textverstehensforschung


Term Paper, 2006

32 Pages, Grade: 1.7


Excerpt


Inhaltsverzeichnis

1. Einleitung

2. Theoretischer Teil
2.1 Übersicht zur Textverstehensforschung
2.2 Verständlichkeitsforschung und Lesbarkeitsforschung
2.3 Textverständnis: Text-Leser-Interaktion in der Text- und Kognitionspsychologie
2.3.1 Subsemantische Prozesse
2.3.2 Schema, Frame, Script
2.3.3 Semantisch-syntaktische Verarbeitung
2.4 Textverständlichkeit

3. Empirischer Teil: Optimierung der Geschäftsbedingungen einer Volkshochschule

4. Fazit

1. Einleitung

Diese Arbeit beschäftigt sich mit der Frage, wie Texte formuliert werden sollten, damit sie vom Rezipienten optimal verstanden werden. Maßgebend für die Textverständlichkeit sind jedoch nicht nur Merkmale des Textes, sondern auch Lesermerkmale, denn Verstehen ist ein psychologischer Akt, woraus folgt, dass Lesen ein durchaus aktiver, gestaltender Prozess ist. In diesem Sinne kann man von einer Text-Leser-Interaktion reden. Der Autor hat also nicht nur die Aufgabe, die Informationen, die er vermitteln möchte, sprachlich so zu formulieren, dass sie seiner Zielgruppe gerecht werden, sondern er sollte auch seinen Text derart gestalten und gliedern, dass er dem Rezeptionsverhalten seines Lesers entgegen kommt und dadurch das Verstehen unterstützt.

Nachfolgend wird nun ein kurzer Überblick über die Textverstehensforschung gegeben. Als zweites wird Verständlichkeit aus zwei Perspektiven diskutiert: Zum einen unter dem Aspekt textseitig orientierter Verständlichkeitsmodelle und zum anderen hinsichtlich leserseitig orientierter Textverstehensmodelle. Schließlich wird im praktischen Teil versucht, die dadurch resultierenden Konsequenzen auf die Geschäftsbedingungen einer Volkshochschule zu übertragen und diesen Text entsprechend zu optimieren.

2. Theoretischer Teil

2.1 Übersicht zur Textverstehensforschung

Die Textverstehensforschung lässt sich in zwei Gruppen unterteilen. Auf der einen Seite stehen instruktionspsychologische Ansätze, die eher anwendungsorientiert sind. Dies ist zum einen die Lesbarkeitsforschung und das Hamburger Verständlichkeitsmodell, die sich beide der behavioristischen Schule zuordnen lassen. Beide Konzeptionen berücksichtigen deshalb beim Textverstehen noch keine Lesermerkmale, sondern konzentrieren sich lediglich auf sprachlich-stilistische und drucktechnische Dimensionen. Instruktionspsychologische Konzeptionen, die im Sinne des Kognitiven Konstruktivismus verstärkt Lesermerkmale bei dem Verstehen von Texten berücksichtigen, sind vor allem die psycholinguistische Syntaxforschung von Noam Chomsky und die Kognitive Lerntheorie von Ausubel. Konzepte in diesem Bereich, die die Eigenschaften des Lesers noch stärker akzentuieren, sind das Konzept der Mathemagenen Motivierung sowie die Neugierpsychologie. Da sich diese beiden Ansätze jedoch zu sehr im Bereich der Motivationspsychologie bewegen, werden sie in dieser Arbeit nicht behandelt und sind damit auszugrenzen.

Auf den instruktionspsychologischen Ansätzen aufbauend entwickelte sich auf der anderen Seite die eher grundlagenorientierte Text- und Kognitionspsychologie. Maßgebend hierfür waren gedächtnis- und sprachpsychologische Forschungen, insbesondere die von Miller, der erstmals auf das sog. Recodierprinzip hinwies. Des weiteren spielen noch der propositionale Ansatz nach Kintsch (1974) sowie die Konstruktivitätshypothese nach Bartlett und Hörmann eine gewichtige Rolle, da gerade diese Konzepte die Basis für die moderne kognitionspsychologische Textverarbeitungsforschung bilden, welche auch Grundlage der vorliegenden Arbeit ist.

Wichtige Modelle für die Text- und Kognitionspsychologie sind das propositionale Textverarbeitungsmodell nach Kintsch, das Modell der zyklischen Textverarbeitung nach Kintsch & van Dijk, das Makropropositionsmodell nach van Dijk sowie schematheoretische Ansätze und letztendlich die Theorie der Mentalen Modelle nach Johnson-Laird (vgl. Christmann 1996: 165 ff.). Auf die für diese Arbeit relevanten Modelle soll weiter unten näher eingegangen werden. Zunächst einmal werden die Richtlinien und Ergebnisse der älteren Instruktionspsychologie kurz dargestellt.

2.2 Verständlichkeitsforschung und Lesbarkeitsforschung

Laut Ballstaedt (1981) sehen die lesbarkeits- und verständlichkeitsorientierten Ansätze Verständlichkeit als ein textimmanentes Merkmal. Es werden hier Textmerkmale der Wortschwierigkeit und Satzkomplexität untersucht, also lexikalische und syntaktische Texteigenschaften. Die Lesbarkeitsforschung hat einige mathematische Lesbarkeitsformeln herausgearbeitet, mit deren Hilfe die Verständlichkeit eines Textes objektiv beurteilt werden kann. In diesen Ansätzen werden Lesermerkmale also noch nicht berücksichtigt. Zur Textoptimierung werden z.B. die Verwendung kurzer Sätze und kurzer, bekannter Wörter empfohlen (vgl. ebd., S. 212 ff.). Das Hamburger Verständlichkeitsmodell geht wie die Lesbarkeitsforschung ebenfalls induktiv vor. Die Verständlichkeit von Texten wird hier aufgrund eines ein Ratingverfahrens durch Experten erhoben, indem Textmerkmale faktorenanalytisch zu vier Dimensionen der Verständlichkeit zusammengefasst werden. Diese Dimensionen sind der Grad der Kompliziertheit, der Gliederung / Ordnung, der Kürze / Prägnanz und schließlich der Grad der zusätzlichen Stimulanz eines Textes. Diese Dimensionen werden als weitgehend unabhängig voneinander betrachtet. Die größte Wichtigkeit für die Verständlichkeit von Texten bilden dabei die Dimensionen „Einfachheit“ und „Gliederung / Ordnung“ (vgl. Groeben 1982: 188 ff.). Auch hier finden nur Eigenschaften des Textes, aber noch keine Lesermerkmale Berücksichtigung.

Laut Groeben (1982) konzentriert sich die Lesbarkeitsforschung im Sinne der Objektivität nur auf bestimmte Aspekte der sprachlichen Oberflächenstruktur, da nur diese zu intersubjektiv übereinstimmenden Ergebnissen führen. Es werden also „jene Merkmale der sprachlichen Oberflächenstruktur, die zur Leichtigkeit und Schnelligkeit des Textverstehens (...) beitragen“, untersucht (Groeben 1982: 174). Dazu gehören sowohl drucktechnische Faktoren[1] als auch sprachlich-stilistische Textmerkmale[2]. Allerdings berücksichtigen laut Groeben Lesbarkeitsformeln nur unzureichend die Textsemantik. So könnten z.B. lyrische Texte durch eine Lesbarkeitsformel als gut verständlich bewertet werden, obwohl sie manchmal aufgrund lyrischer Mittel wie Metaphorik oder Aufhebung räumlicher bzw. zeitlicher Kontinuität faktisch sehr schwer zu verstehen seien (vgl. ebd., S. 180). Das Hamburger Verständlichkeitsmodell kritisiert Groeben u.a. dahingehend, dass dieses Modell aufgrund der Messung der Verständlichkeitsdimensionen durch Experten zu subjektiv sei, „insofern als die Experten intuitiv auf ihre eigene Rezeption zurückgreifen und diese (...) beurteilen“ (ebd., S. 197 f.). Außerdem bezweifelt Groeben die Nützlichkeit dieses Ansatzes für die praktische Textoptimierung. Die im Experten-Rating verwendeten Eindrucksmerkmale seien zu unpräzise, um davon auf konkrete Textmerkmale zu schließen, die für die Textoptimierung von Bedeutung sind (vgl. ebd., S. 197 ff.). Während sich die Lesbarkeitsforschung bzw. das Hamburger Verständlichkeitsmodell ausschließlich auf der Textoberfläche bewegen, müsse eine umfassendere Verständlichkeitsforschung über diese rein formal-sprachlichen Stilaspekte von Texten hinausgehen, indem sie sowohl die semantische Struktur eines Textes als auch Leservariablen wie vor allem kognitive Voraussetzungen mit einbezieht (vgl. ebd., S. 186).

Bereits Chomsky berücksichtigte in der GT Lesermerkmale bei der Textrezeption. Demnach wirkt ein Satz umso schwieriger, je mehr Transformationen ein Leser durchführen muss, um zu einem Kern-Satz zu gelangen – das ist ein einfacher, aktiv-, affirmativ- und deklarativ-formulierter Satz, nach Chomsky der tiefenstrukturelle Ausgangspunkt für einen Satz an der konkreten Oberflächenstruktur. Als Konsequenz daraus ergibt sich, dass man Nominalisierungen durch Verbalphrasen auflösen, statt Hypotaxe eher Parataxe gebrauchen, doppelte Negationen vermeiden und möglichst Aktivkonstruktionen verwenden sollte[3] (vgl. Ballstaedt 1981: 64 ff.).

Eine weitere wichtige Grundlage für die Textrezeption kommt aus dem Bereich der Gedächtnis- und Sprachpsychologie Millers (1956). Hier werden ebenfalls Eigenschaften des Lesers bei der Rezeption von Texten einbezogen. Da die Kapazität des Arbeitsgedächtnis laut Groeben Millers Untersuchungen gemäß auf 7±2 Einheiten beschränkt sei, finde bei Behaltensvorgängen (und damit auch beim Rezeptionsprozess) eine aktive kognitive Organisation statt, bei der einzelne Elemente zu sog. „chunks“ zusammengefasst werden. Es werden also semantische Beziehungen zwischen den einzelnen Elementen hergestellt (vgl. Groeben 1982: 26 f.). Durch Integrations-, Gruppierungs- und Zusammenfassungsprozesse lasse sich also die „Informationshaltigkeit der Einheiten“ (Christmann 1989: 40) erhöhen und so das Arbeitsgedächtnis entlasten. Die „Organisation und Integration sprachlicher Items zu umfassenderen übergeordneten Einheiten“ stelle ein „fundamentales Verarbeitungsprinzip“ dar, und dabei spiele die „Herstellung semantischer Relationen zwischen den Wörtern eine dominierende Rolle“ (ebd., S. 40 f.) – damit steht der Recodiervorgang in einem engen Zusammenhang bei der Bildung von Propositionen, indem die Satzelemente zu einer propositionalen Einheit integriert werden, welche „zugleich die grundlegende Einheit des semantischen Gedächtnisses darstellt“ (ebd., S. 44).

2.3 Textverständnis: Text-Leser-Interaktion in der Text- und Kognitionspsychologie

Groeben unterscheidet bei dem Verstehen von Texten zwischen Textverständnis und Textverständlichkeit. Der Begriff „Textverständnis“ betrachtet Verständlichkeit hauptsächlich aus der Leserperspektive, wobei die Leserinstanz als variabel betrachtet wird. D.h., dass von der Sichtweise des Textverstehens her sich der Leser sozusagen an den Text anpasst, wohingegen bei dem Begriff der „Textverständlichkeit“ der Text durch den Autor an den Leser angepasst wird. Die Leserinstanz wird in der Textverständnisforschung insofern als variabel aufgefasst, da völlig offen bleibt, „ob und gegebenenfalls wie stark der Leser beim Prozeß der Sinnaneignung kognitiv aktiv ist oder sein muss“ (Groeben 1982: 15). Für das Textverständnis führt Groeben folgende Teilfähigkeiten an, die ein Leser beherrschen muss, um einen Text zu verstehen: Der Leser müsse erstens in der Lage sein, linguistische Informationen zu dekodieren. Zweitens müsse er die so gewonnene sprachlich-semantische Information in einen weiteren Kontext bzw. sein bestehendes Kognitionssystem einordnen. Dann müsse er mit Hilfe von Inferenzen und Elaborationen Sinnaspekte ergänzen und Schlussfolgerungen ziehen können. Schließlich sei für das Verstehen eines Textes natürlich noch das erfolgreiche Behalten der wichtigsten Aussagen notwendig. Im Vordergrund für das Textversstehen stehen also rein semantisch-kognitive Prozesse, wobei der Syntax eher eine Hilfsfunktion zukomme (vgl. ebd., S. 15 ff.).

2.3.1 Subsemantische Prozesse

Wie geht nun das Dekodieren linguistischer Informationen leserseitig von statten? Wie der subsemantische Leseprozess auf der untersten Ebene abläuft, soll in dieser Arbeit nicht diskutiert werden – für eine kurze Übersicht sei auf Pöppel (2000: 11-17) verwiesen. Interessanter für diese Arbeit ist das schematheoretische Lesemodell. Hier geschieht die Worterkennung durch die „Verbindung eines visuellen graphischen Gebildes mit einer Einheit im Lexikon des Lesers und dann einem Konzept im semantischen Gedächtnis“ (Ballstaedt 1981: 41). Es stellen also visuelle Prozesse aufsteigend Informationen bereit, die dann absteigend mit Bedeutung angereichert werden.[4] Auf der untersten Ebene regen grafische Hinweisreize Buchstabenschemata an, die es dem Leser erlauben, einen Buchstaben bereits aufgrund einiger wenig signifikanter Merkmale zu erkennen. Geübtere Leser verfügen über Schemata für Buchstabengruppen, Silben und sogar für ganze Wörter (vgl. ebd., 41 ff.). Durch Buchstaben-, Silben- und Wortschemata können demnach Texte schneller gelesen werden, indem der optische Input nicht in seinen Einzelteilen, sondern, je nach Geübtheit des Lesers, in seiner Gesamtheit verarbeitet wird.[5] Da sich der Schemabegriff für die Erklärung kognitiver Prozesse beim Lesen und Verstehen von Texten gut bewährt hat, soll er im nächsten Abschnitt näher erläutert werden.

2.3.2 Schema, Frame, Script

Die Definition dieser Begriffe erweist sich als einigermaßen schwierig, denn ihre Verwendung ist theorie- und schulenabhängig. Hier soll nun kurz eine historische Nachzeichnung nach Konerding (1993) versucht werden, um dann die maßgebenden Begriffe innerhalb des verständnistheoretischen Ansatzes näher zu bestimmen.

Der Ursprung des Frame-Begriffs ist laut Konerding in der Gestaltpsychologie zu finden; Ansätze dazu seien aber auch schon in der Entwicklungspsychologie Piagets und der Gedächtnispsychologie nach Bartlett zu finden.[6] Der Frame-Begriff wurde seitdem speziell in der KI-Forschung verwendet und fand erst später Einzug in die Kognitive Linguistik. Gestaltpsychologischen Ansätzen gemäß vollziehe sich die menschliche Wahrnehmung als „Perzeption strukturierter Gesamtheiten“ (Konerding 1993:8): Im Akt der Wahrnehmung werden keine einzelnen Elemente, sondern Gesamtheiten – eben Gestalten wahrgenommen. In der Sichtweise des Konstruktivismus ist die menschliche Wahrnehmung demnach im Gegensatz zu der behavioristischen Tradition nicht nur durch (aufsteigende) Bottom-up-Prozesse charakterisiert, sondern auch durch ein aktives (absteigendes) Top-down-Moment. Die Gestaltpsychologie arbeitete daraufhin zwei grundlegende Mechanismen der Wahrnehmung bzw. des Erkennens heraus. Einerseits würden Sinneseindrücke durch das Individuum im Sinne einer Figur-Hintergund-Dichotomie zusammengefasst zu einer bestimmten Gestalt generiert. Zum anderen fasse das Individuum ungeordnete Sinnesreize zu geschlossenen Wahrnehmungseinheiten zusammen. Wahrnehmung vollziehe sich also stets in einem konstruktiven bzw. strukturstiftenden Moment, wodurch sich der aktive und organisierende Charakter der Wahrnehmung offenbare.[7] Allerdings sei eine solche aktiv-organisierende Beteiligung nur unter Bezug auf bereits vorhandenes Wissen möglich, in welches neue Informationen integriert werden können – es müssen also bereits Organisationsstrukturen vorhanden sein. Die Annahme, dass es höhere Wissenseinheiten geben muss, sei nämlich laut Konerding deswegen unumgänglich, weil es in Betracht der „Geschwindigkeit und Sicherheit des menschlichen Verhaltens und Handelns in alltäglichen, gewohnten Situationen“ (ebd., S. 6) eher unwahrscheinlich erscheine, dass einzelne, unzusammenhängende Fakten jeweils aktuell und situationsspezifisch zu einem thematisch passenden Ganzen zusammengefasst werden (vgl. ebd., S. 6 ff.).

[...]


[1] z.B. Drucktype, Zeichenlänge, Zeichenabstand, Farbe und Kontrast, Druckanordnung etc. Die Lesbarkeitsforschung empfiehlt dabei, sich an eingeführte Drucktypen zu orientieren (vgl. Groeben 1982: 174 ff.).

[2] Man sollte im Sinne der Lesbarkeitsforschung auf geläufige und gebräuchliche Wörter zurückgreifen (Wörter, die früh im Spracherwerb gelernt wurden, kurze Wörter, keine Fachwörter, Wörter aus der Schriftsprache, konkrete Wörter und Wörter in eingeführter und gebräuchlicher Bedeutung) und auf der Satzebene die Satzkomplexität reduzieren, indem man kurze und grammatisch einfache Sätze verwendet (vgl. ebd., S. 184 f.).

[3] Allerdings empfiehlt es sich nicht immer, Passivkonstruktionen zu vermeiden. Passivkonstruktionen sollte man dann beibehalten, wenn es sich um semantisch reversible Relationen zwischen Subjekt und Objekt handelt, da bei einem reversiblen Satz nach dessen Transformation in das Aktiv der Satz auch dann potenziell sinnvoll bleibt, auch wenn man Subjekt und Objekt vertauscht (vgl. Ballstaedt 1981: 207).

[4] Diese Bottom-up und Top-down Prozesse sind Begriffe aus der Gestaltpsychologie. Durch einen Sinnesreiz werden aufsteigend Informationen an das Gehirn übertragen, das im Gegenzug absteigend die erhaltenen Sinnesinformationen im Sinne der Gestaltgesetzte modifiziert. Diese Modifikationen sind dem Leser nicht bewusst. Beispiele, in denen diese Prozesse offenbar werden, sind optische Täuschungen – auch das Rekodierprinzip nach Miller (s.o.) stellt die Wirkungsweise dieser Prozesse dar.

[5] Texte wirken dementsprechend verständlich, wenn im besten Falle Wortschemata beim Leser aktiviert werden. Dies geschieht dann, wenn der Autor dem Leser geläufige Wörter verwendet bzw. wenn der Leser ein geübter Leser ist und auch über Schemata weniger geläufigere Wörter verfügt.

[6] Piaget postulierte bereits 1937 sensomotorische Handlungs- und Assimilationsschemata, Bartlett verwandte 1932 den Begriff des Erinnerungsschemas, und schon 1913 ist bei Selz von Antizipationsschemata für die menschliche Wahrnehmungs- und Erinnerungsleistung die Rede (vgl. Konerding 1993: 8 f.).

[7] Gestaltgesetze beziehen sich nicht nur auf den visuellen Akt der Wahrnehmung, sondern auf alle Sinnesmodalitäten, sowie „physikalisch und psychisch konstatierbare Phänomene in ihrem wechselseitigen Zusammenspiel“ (Konerding 1993: 9).

Excerpt out of 32 pages

Details

Title
Textverstehen und Textverständlichkeit - Übersicht zur Textverstehensforschung
College
University of Siegen
Course
Verständlichkeit von Fachtexten
Grade
1.7
Author
Year
2006
Pages
32
Catalog Number
V86774
ISBN (eBook)
9783638021807
ISBN (Book)
9783638925143
File size
557 KB
Language
German
Keywords
Textverstehen, Textverständlichkeit, Textverstehensforschung, Verständlichkeit, Fachtexten
Quote paper
M. A. Stefan Ludwig (Author), 2006, Textverstehen und Textverständlichkeit - Übersicht zur Textverstehensforschung, Munich, GRIN Verlag, https://www.grin.com/document/86774

Comments

  • No comments yet.
Look inside the ebook
Title: Textverstehen und Textverständlichkeit - Übersicht zur Textverstehensforschung



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free