Lade Inhalt...

Das Gewicht der PISA-Studie

Hausarbeit (Hauptseminar) 2006 26 Seiten

Didaktik - Germanistik

Leseprobe

Inhalt

1. Einleitung

2. Das Gewicht der PISA-Studie
2.1 Die Vorgeschichte der Studie und die Effekte der Vorgeschichte
2.2 Durchführung und Wirkungen der Studie
2.2.1 Technische Daten und organisatorische Aspekte der Studie
2.2.2 Die Reaktionen von Öffentlichkeit und Fachwelt
2.2.3 Zur Ernsthaftigkeit bei den Getesteten
2.3 Exemplarische Untersuchung: Studieren der Studie im Auszug

3. Zusammenfassung

4. Literaturverzeichnis

1. Einleitung

Die internationale Vergleichsstudie hat in den teilnehmenden Industrienationen für einen erheblichen Gesprächsbedarf gesorgt; dies vor allem in den Ländern, deren Ergebnisse nicht im Bereich des Erwarteten bzw. Erhofften lagen. Das Interesse an den Resultaten beschränkte sich nicht allein auf die international angelegte PISA-Studie, die im Jahr 2000 begonnen wurde und von diesem Zeitpunkt an im Drei-Jahres-Zyklus insgesamt dreimal durchgeführt werden sollte. (So erfolgte bereits im Jahr 2003 der zweite Teil der internationalen Erhebung und der dritte findet derzeit statt.) Auch die national begleitenden Testverfahren (in Deutschland etwa ‚PISA-E’, in Österreich: ‚PISA Plus’) fanden starke Beachtung, wobei zwischen den Reaktionen der öffentlichen Meinung und denen der Fachwelt zu unterscheiden ist und wiederum in den Ländern mit den schlechteren Ergebnissen die stärkeren Auseinandersetzungen um diese Thematik zu verzeichnen sind.

In der vorliegenden Arbeit soll zunächst einmal auf die Geschichte internationaler Bildungstests geblickt werden, um in Abgrenzung zu früheren Erhebungen einige Besonderheiten der PISA-Studie herauszuheben. Auch die Gemeinsamkeiten sollen unter diesem Aspekt eine Rolle spielen, lässt sich doch eine gewisse ‚Erhebungstradition’ seit den 60-er Jahren ausmachen, in der bestimmte Eigenheiten der PISA-Studie zu dem geworden sind, was sie heute sind.

Der Mittelteil dieser Untersuchung konzentriert sich auf die Durchführung und Wirkung der Studie. Zum einen werden die technischen Merkmale und die Vielfältigkeit der organisatorischen Aspekte in einer groben Darstellung betrachtet, wobei auch auf die Inhalte und Ziele der Erhebung eingegangen werden soll. Zum anderen geht es in einem weiteren Punkt um die Reaktionen, die durch die Testergebnisse hervorgerufen wurden. Bei dieser Darstellung soll zwischen den Reaktionen der Öffentlichkeit und denen der Fachwelt unterschieden werden. Es scheint, als ob die ersten Wirkungen in Fachwelt und öffentlicher Wahrnehmung nicht allzu weit auseinander gingen und die Studie selbst oft für ein unhinterfragbares Medium genommen wurde, so dass sich zunächst bezüglich des Stellenwerts der Studie keine kritischen Stimmen geäußert haben. Es soll untersucht werden, wieweit eine Kritik an den wesentlichen Merkmalen des Tests, die in der jüngsten Literatur aufgekommen ist, zutreffend ist und inwiefern etwaige Rechtfertigungsversuche für schlechtes Abschneiden Halt finden oder zu verwerfen sind. Im dritten Abschnitt des Hauptteils, der sich der exemplarischen Auseinandersetzung mit einer der im Test befindlichen Aufgaben zu einem literarischen Text widmet, soll unter literaturdidaktischer Perspektive ein kleiner Ausschnitt der Aufgabenstellung kritisch beleuchtet werden, um ein Bild der differenzierteren Verhandlung des Testverfahrens im Bereich der Lesekompetenz zu ermöglichen.

Das Resümee schließlich stellt die Hauptaspekte der vorliegenden Arbeit zusammen und versucht vor dem Hintergrund der erarbeiteten Komplexe, eine zutreffende Einschätzung darüber zu geben, welches Gewicht der Studie zuzusprechen ist.

2. Der Stellenwert der PISA-Studie

2.1 Die Vorgeschichte der Studie und die Effekte der Vorgeschichte

Internationale Vergleichsstudien gibt es nicht erst seit PISA. Bereits 1959-1960 hat die IEA (Internation Association for the Evaluation of Educational Achievement) eine erste Vergleichsstudie auf internationaler Ebene durchgeführt, an der insgesamt zwölf Staaten beteiligt waren. Es handelt sich hierbei um „The Pilot Twelve-Country Study.“ Hier wurden fünf Bildungsbereiche untersucht und die Zielgruppe waren 13-jährige Schülerinnen und Schüler.

The study was conducted in order to investigate the feasibility of undertaking more extensive investigations of educational achievement. Testing was carried out in the five areas of mathematics, reading comprehension, geography, science, and non-verbal ability.[1]

Es folgten 1963-1967 bzw. 1977-1981 die Studien FIMS (First International Mathematics Study) und SIMS (Second International Mathematics Study) für den Mathematikbereich sowie die beiden Naturwissenschaftsstudien FISS (First International Science Study) und SISS (Second International Science Study) in den Zeiträumen 1968-1972 und 1982-1986. Eine Studie, die die beiden Erhebungsbereiche Mathematik und Naturwissenschaften vereint, fand mit TIMSS 1994/95 statt. Sie war, betreffend der einbezogenen Staaten, mit Abstand die umfangreichste und umfasste mit über 40 Ländern allein für die Untersuchung der Mittelstufe die größte Anzahl der teilnehmenden Staaten vor der PISA 2000-Erhebung.[2]

Der allgemeine Zweck von Schulleistungsstudien wird hierin gesehen:

Internationale, nationale und regionale Schulleistungsmessungen geben Hinweise über die Leistungen der Schülerinnen und Schüler und ermöglichen Rückschlüsse auf die Effektivität [des] Schulsystems. Die öffentliche Aufmerksamkeit kann eine Neuorientierung des Bildungssystems bewirken, mit dem Ziel, offensichtliche Mängel zu beseitigen.[3]

Worin äußert sich die Effektivität eines Schulsystems? Ausgehend von einer der sog. Basiskompetenzen, die der PISA-Studie zugrunde liegen, dem Konzept der Lesekompetenz, stellt Ina Karg den Zusammenhang mit nationalen Erhebungen in den USA her, die bereits in den 80-er Jahren stattgefunden haben.[4] Sie beruft sich dabei zunächst auf Kirsch und Jungblut (1986), die in ihrem Bericht „Profiles of America’s Young Adults“ über Textverstehensleistungen von jungen US-Amerikanern im Alter von 21-25 Jahren informieren:

The investigators in this study have produced a “profile of adult literacy” that provides four perspectives on how well young adults aged 21 through 25 years perform literacy tasks involving the use of prose materials (which predominate in home and school settings), documents (like forms, procedural guides, manuals, and so forth that are widely used in commercial and civil life in the United States), quantitative literacy materials (in which reading and mathematics are intertwined, as in reading a menu and calculating the cost of a meal), and materials used by fourth, eighth, and eleventh grade students in school.[5]

Für die Formulierung des literacy -Konzepts macht Karg geltend, dass sie in diesem Bericht identisch ist mit der in einem späteren Bericht derselben Autoren („Adult Literacy in America“) zu einer weiteren Erhebung:[6]

Using printed and written information to function in society, to achieve one’s goals, and to develop one’s knowledge and potential.[7]

Der Terminus “function in society” fällt in der Berichterstattung IALS 2000 (International Adult Literacy Survey) weg und im Haupttest Englisch findet sich folgende Definition:

Reading literacy is defined as the ability to understand, use, and reflect on written texts in order to achieve one’s goals, to develop one’s knowledge and potential, and to participate effectively in society.[8]

Der Nützlichkeitsaspekt erhält bei PISA Deutschland ebenfalls einen prominenten Stellenwert:

Lesekompetenz ist mehr als nur lesen zu können. Unter Lesekompetenz versteht PISA die Fähigkeit, geschriebene Texte unterschiedlicher Art in ihren Aussagen, ihren Absichten und ihrer formalen Struktur zu verstehen und in einen größeren Zusammenhang einordnen zu können, sowie in der Lage zu sein, Texte für verschiedene Zwecke sachgerecht zu nutzen.[9]

Karl Holle bestätigt den Zweckcharakter der deutschen Definition von Leseverständnis:

Die deutschen Autoren verstehen ‚Lesekompetenz’ nicht nur als eine bestimmte Fähigkeit als solche, sondern auch als ‚Hilfsmittel’, eine ‚Bedingung’ und eine ‚Voraussetzung’ für etwas anderes.[10]

Als Fähigkeit „für das Erreichen persönlicher Ziele“ stehe auch die englische Variante der Definition von reading literacy. Hier jedoch schränkt Holle, im Gegensatz zu Karg, ein:

Reading literacy ist [...] nicht wie in der deutschen Konzeptualisierung eine kognitive Fähigkeit, im engeren Sinne, die als abstrakte Möglichkeit für das Erreichen bestimmter Ziele instrumentalisiert werden kann, sondern eine bestimmte sozio-kognitive Handlungsfähigkeit, die sich mehr oder weniger gut und effektiv praktizieren lässt.[11]

Laut Kark jedoch fungiere Nützlichkeit, und zwar in den Definitionen beider Sprachen, als wesentliches Element eines Bildungsbegriffs und manifestiere sich in der Testkonstruktion.[12] Sich auf diese Feststellung stützend entwickelt sie eine dezidierte Kritik an den einzelnen Aufgaben des Tests, mit dessen Hilfe „Rückschlüsse auf die Effektivität“ des jeweilig untersuchten Schulsystems ermöglicht werden sollen. Wichtig an ihrer (zutreffenden) Darstellung ist, dass eine bestimmte Entwicklung des literacy -Konzepts den Definitionen von Lesekompetenz, wie sie in PISA 2000 vorgefunden werden, vorausgeht, die ihre Ursprünge „im amerikanischen Pragmatismus“ haben könnte. Die Rückführung auf diese Wurzeln unternehme sie allerdings nicht, versucht aber einen Abgleich mit dem Leseverstehensbegriff und (u.a.) der Umsetzung im PISA-Aufgabenkatalog.[13] Das Hauptaugenmerk der vorliegenden Untersuchung wird auf dem Bereich der Lesekompetenz liegen; mit dieser Zielsetzung wird die Kritik Kargs an den Aufgabenstellungen in Kapitel 2.3 wieder aufgegriffen.

Dass in der Konzeption des PISA-Tests auf Textsorten zurückgegriffen wird, die nicht den Gegenständen des in Deutschland üblichen Deutschunterrichts entsprechen, meint Wolfgang Eichler:

Die Schülerinnen und Schüler werden in den Tests von PISA praktisch ausschließlich mit sogenannten Sachtexten konfrontiert und dabei zu 38 % mit einem Texttyp, den wir im Deutschunterricht so gut wie gar nicht unterrichten [...] und den die Autoren der PISA-Studie als „nichtkontinuierlichen“ Texttyp bezeichnen.[14]

Ähnlich äußert sich Konrad Adam: Was zähle, sei abfragbares, praktisch anwendbares, fachlich isoliertes Wissen: also gerade das nicht, was nach deutscher Tradition als Merkmal für Bildung gelte.

Originalität und Kombinationsvermögen, der Rückgriff auf Abgelegenes, das Denken in Zusammenhängen und Strukturen, all das kommt in der Studie kaum vor.[15]

Derlei Befunde werden in Abschnitt 2.2.2 weiterverfolgt.

2.2 Durchführung und Wirkungen der Studie

2.2.1 Technische Daten und organisatorische Aspekte der Studie

Um zu einer Basis für die Hauptaspekte der vorliegenden Schrift zu gelangen, werden in diesem Kapitel die methodischen Grundlagen der Testdurchführung in einem Aufriss behandelt. Zunächst ist eine deskriptive Darstellung notwendig, um von hieraus eine kritische Haltung zum Untersuchungsgegenstand selbst zu ermöglichen, die in den nachfolgenden Abschnitten des Hauptteils entwickelt werden soll.

In der von der OECD initiierten PISA-Studie (Programme for International Student Assessment) geht es darum, sog. ‚Basiskompetenzen’ bei einer exemplarischen Auswahl von 15-jährigen Schülerinnen und Schülern zu testen, um den OECD-Mitgliedstaaten Daten zur Verfügung zu stellen, die Aussagen über die „Funktions- und Leistungsfähigkeit“ ihrer jeweiligen Bildungssysteme zulassen. Bei den zu ermittelnden Basiskompetenzen handelt es sich um den Bereich der „Lesekompetenz“ (Reading Literacy), der in Abschnitt 2.1 bereits angesprochen wurde und das Hauptuntersuchungsfeld der vorliegenden Arbeit darstellt, und als weitere Bereiche „Mathematische Grundbildung“ (Mathematical Literacy) und „Naturwissenschaftliche Grundbildung“ (Scientific Literacy). Als integraler Bestandteil von PISA wird die Untersuchung fächerübergreifender Kompetenzen bezeichnet.[16]

Die PISA-Studie wurde

im Auftrag der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und der Kultusminister der Länder sowie in Zusammenarbeit mit dem Bundesbildungsministerium durchgeführt.[17]

Sie ist der erste Teil eines umfangreicheren Programms, das neben der Schwerpunktsetzung Lesekompetenz (PISA 2000) auch die Bereiche mathematische Grundbildung (2003) und naturwissenschaftliche Grundbildung (2006) ins Zentrum der Beobachtungen stellt.

Das PISA-Konsortium veröffentlicht folgende Zahlen über die teilnehmenden Staaten, Schulen und Schulen:

Weltweit nahmen im Frühsommer 2000 rund 180.000 Schülerinnen und Schüler aus 32 Staaten an der PISA-Untersuchung teil. In jedem Teilnehmerstaat [...]wurde eine repräsentative Stichprobe gezogen, mit der die Schulbevölkerung der 15-Jährigen abgebildet wird. In der Bundesrepublik besteht diese Stichprobe aus etwa 5.000 Schülerinnen und Schülern aus insgesamt 219 Schulen, wobei im Durchschnitt 23 15-Jährige pro Schule untersucht wurden.[18]

Karg weist darauf hin, dass die berichteten Zahlen in den Veröffentlichungen variieren. So ist beispielsweise im Technical Report einmal von 265.000 teilnehmenden SchülerInnen die Rede, im selben Bericht weiter unten von 174.896.[19]

Im nationalen Bericht Österreichs werden nur 31 Teilnehmerstaaten angegeben.[20] In anderen Publikationen sind meist 32 Staaten angeben; dies ist etwa auch in der Einleitung des englischen Berichts der Fall.[21] Bei einer internationalen Studie mit dem Anspruch empirischer Wissenschaftlichkeit sind solche Widersprüche in den begleitenden Veröffentlichungen irritierend, gerade mit Blick auf die Darstellungsweise in Form von Ranglisten und Punktwerten für die Teilnehmerstaaten, die eine eindeutige Interpretation der Ergebnisse suggerieren.

Der innerdeutsche Vergleich der Länder wird durch eine Vergrößerung der Stichprobe in einer Erweiterungsstudie ermöglicht (PISA-E), an der 45.899 15-jährige Schülerinnen und Schüler und Neuntklässler, deren Gruppen dabei überlappend definiert sind, aus 1.466 Schulen teilgenommen haben. Die Hinzunahme der Gruppe der Neuntklässler zu der Gruppe der 15-Jährigen verbessere die innerdeutsche Vergleichmöglichkeit:

Für die Zwecke des Vergleichs der Länder der Bundesrepublik Deutschland schien insbesondere die Gruppe der Neuntklässler interessant, da es sich hierbei in vielen Aspekten um eine homogene Gruppe handelt.[22]

Die Verantwortung für die Durchführung der Studie lag bei den Ländern selbst, wobei in jedem Land zuständige PISA-Beauftragte und -Koordinatoren benannt wurden. Nach erfolgter Stichprobenziehung benachrichtigten die zuständigen Ministerien die ausgewählten Schulen und die Schulleitungen erhielten eine Beschreibung der „Inhalte und Ziele der Studie“ und eine Erklärung über den „Ablauf der Erhebung“.[23] Des Weiteren wurden Aufklärungsveranstaltungen für die Schulleitungen der Länder durch das Konsortium durchgeführt.

In den Schulen zeichneten sich vier Personengruppen für den Ablauf der Testdurchführung verantwortlich:

(1) die Mitarbeiterinnen und Mitarbeiter des DPC, (2) die Projektkoordinatoren und PISA-Beauftragte der Länder, (3) die Testleiterinnen und Testleiter sowie (4) die von den Schulleitungen benannten Schulkoordinatorinnen und –koordinatoren in den einzelnen Schulen.[24]

Die TestleiterInnen waren Studierende höherer Semester eines Lehramtsstudiums, der Erziehungswissenschaften oder der Psychologie und wurden von Mitarbeitern des DPC (IEA Data Processing Center, Hamburg) in einer halbtägigen Sitzung geschult. Die Tests wurden „im Zeitraum Mai bis Juni 2000 jeweils an zwei Testtagen“ durchgeführt. Dabei dauerte je eine Erhebung ca. drei Stunden.[25]

Über die Zahl der Aufgaben bzw. Fragen findet man unterschiedliche Angaben. Dazu muss man wissen, dass zwischen unit und item zu unterscheiden ist.[26]

Karg zeigt, dass die Zahlen nicht nur von Bericht zu Bericht variieren, sondern sich wiederum (s.o.) gar innerhalb des Technical Report widersprechen.[27] Diese Verwirrung beruhe oftmals auf der Verwechslung von unit und item, wobei unit den Aufgabenkomplex und item eine einzelne, dort untergeordnete Aufgabe meine.[28] Der Fehler setzt sich bis in die Fachliteratur, die sich mit dem Thema PISA auseinandersetzt, fort.[29]

Die Organisation der Erhebung wurde vom Hamburger IEA Data Processing Center übernommen.[30]

2.2.2 Die Reaktionen von Öffentlichkeit und Fachwelt

Hinsichtlich des programmatischen Ausschlusses bestimmter kultureller Güter, über die jedes der getesteten Länder individuell verfügt und die normalerweise über die Institution der Schule von Generation zu Generation weitervermittelt werden, mahnt Adam, die Ergebnisse des PISA-Komplexes nicht überzubewerten. Der international angelegte Vergleich müsse „kulturell fair“ sein, und das schließe mit der Konzentration auf Basiskompetenzen all

die vielen schönen Dinge, die man genießen, aber nur selten anwenden und nie verkaufen kann und die man deshalb als Kultur bezeichnet, definitionsgemäß aus.[31]

Männer wie „Mozart und Vivaldi, Shakespeare und Kleist, Euripides und Tolstoi, Vermeer und Cézanne“ seien unter diesem Aspekt „nichts anderes als tote, weiße Männer“.[32]

Und damit eben nichts für PISA, wo alle Kulturen gleiche Chancen haben müssen. Schon das sollte davor bewahren, das Untersuchungsergebnis zu hoch einzuschätzen.[33]

Aber genau das scheint, zunächst auf die Öffentlichkeit bezogen, der Fall zu sein. Auch Eichler, der nichts dagegen hätte, wenn im Deutschunterricht, in einem vernünftigen Maß, vermehrt die Auseinandersetzung mit Aufgaben des in PISA 2000 befindlichen Typs (Sach-und Gebrauchstexte) stattfinden würde[34], empfindet die Aussagekraft der PISA-Ergebnisse bezüglich der eigentlich im Deutschunterricht vermittelten Fähigkeiten und Fertigkeiten nicht als Katastrophe in dem Sinne, wie sie in der öffentlichen Diskussion verhandelt wird. Man müsse – was in seinem Aufsatz irgendwie ironisch klingt, nachdem er die auffällige Abwesenheit der großen „Bandbreite von literarischen Genres und Texten“ in den Aufgaben des Tests bemerkt -, „erkennen, dass wir das globale Literacy-Konzept übersehen haben“.[35]

An dieser Stelle wäre zu differenzieren zwischen nationalem kulturellen Bildungsgut als Testgegenstand, dessen Ausschluss vor dem Hintergrund internationaler ‚Fairness im Wettbewerb’ (um es mit den eigenartigen Vokabeln Adams zu sagen, auf die weiter unten noch einzugehen sein wird) plausibel scheint, und der Abwesenheit von Aufgaben zu poetischen Gattungen und Texten, bei denen es dann nicht um die Abfrage von kulturellem Wissen, sondern um Fertigkeiten der Handhabe solcher Unterrichtsgegenstände gehen muss. Mit dem - wenn auch geringen -, Anteil der Aufgaben zu literarischem Text im PISA-Test (die Aufgaben GESCHENK, AMANDA) ist das versucht worden, wenngleich nicht in dem Umfang, der wünschenswert scheint.

Diese Überlegungen sind einer Öffentlichkeit, die sich allein mit Hilfe vermeintlich unmissverständlicher Tabellendarstellungen der Testergebnisse ein Bild dieses internationalen Vergleichs macht, eher fremd.

Karg zeigt, wie der Wettbewerbscharakter des Tests, in dem es, wie bei jedem sportlichen Kräftemessen, um Gewinner und Verlierer geht, die öffentliche Meinungsbildung prägt. Blickt man auf ihre diesbezüglichen Feststellungen im Zusammenhang mit der oben (vgl. Abschnitt 2.1) aufgezeigten Tendenz des PISA-Tests zum Pragmatismus mit seinen Ursprüngen in der amerikanischen Testpraxis und dem dort zugrunde liegenden literacy -Konzept, entsteht der Verdacht, dass kulturelles Gut im internationalen Testverfahren eine geringe Rolle spielt, weil eine der maßgebenden Nationen dieses Konzepts selbst kaum über solches verfügt.

Die PISA-Initiatoren nehmen Abstand vom Vergleichstest als „Bildungsolympiade“[36]. Die öffentliche Verhandlung der Ergebnisse hat aber eben diesen Charakter, wenn man auf das metaphorische Inventar der Publikationen zur Studie schaut.

Am häufigsten ist die Rede vom „schlechten Abschneiden“. Daneben findet sich „das schlechte Mittelmaß“. Im Einzelnen trifft man auf: abgeschlagen; knappes Mittelfeld; siegreiche finnische Schüler; Rangplätze: Mathe 17, Lesen 20. Rangfolge; Ranglisten; auf den hinteren Rängen [...] disqualifiziert wurde Großbritannien [...] Auf- und Abstiege in der Länderliste; Durchschnittsplatz nicht ausreichend.[37]

Wie kommt es zu dieser in den Medien verbreiteten Diskussion der Ergebnisse in dieser Form? Erich Fromm sieht in der Faszination für sportliche Wettkämpfe, und zwar auf die Zuschauerposition bezogen, eine Reduktion der Möglichkeiten menschlichen Lebens:

Diese ganze Faszination durch Sportwettkämpfe [...] zeugt von dem Bedürfnis, die routinemäßige Oberfläche zu durchbrechen, aber aus der Art, wie dies geschieht, spricht die klägliche Armut unserer Lösungen.[38]

[...]


[1] Homepage der IEA: The Pilot Twelve-Country Study. URL: http://www.iea.nl/pilot_twelve-country.html

[2] Homepage der IEA. TIMSS1995. URL: http://www.iea.nl/timss1995.html

[3] Hanna Kiper, Ulrich Kattmann: Basiskompetenzen im Vergleich- Übersicht über Ergebnisse der PISA-Studie 2000. In: PISA 2000 als Herausforderung. Perspektiven für Lehren und Lernen. Hrsg. v. B. Moschner u. denselben. Baltmannsweiler 2003, S.15.

[4] Ina Karg: Mythos PISA. Vermeintliche Vergleichbarkeit und die Wirklichkeit eines Vergleichs. Göttingen 2005, S. 103f.

[5] Thomas G. Sticht. Foreword. In: Literacy. Profiles of America’s Young Adults. Irwin S. Kirsch, Ann Jungeblut. (NAEP, 1986) URL: http://www.ets.org/Media/Research/pdf/LITERACY_PROFILES.pdf - Download v. 15.04.06, S. V.

[6] Karg, S. 104.

[7] Irwin S. Kirsch, Ann Jungeblut: Literacy. Profiles of America’s Young Adults. Hrsg. v. NAEP. Princeton 1986. URL: http://www.ets.org/Media/Research/pdf/LITERACY_PROFILES.pdf - Download v. 15.04.06, S. 3; und: Irwin S. Kirsch, Ann Jungeblut u. a.: Adult Literacy in America. A First Look at the Findings of the National Adult Literacy Survey. (NCES, 1993) URL: http://nces.ed.gov/pubs93/93275.pdf - Download v. 15.04.06, S. 2.

[8] Baljit Gill, Mark Dunn, Eileen Goddard: Student achievement in England. Results in reading, mathematical and scientific literacy among 15-year-olds from OECD PISA 2000 study. London 2002. URL:

http://www.statistics.gov.uk/downloads/theme_education/PISA_2000.pdf - Download v. 15.04.06, S. 160.

[9] C. Artelt, J. Baumert, E. Klieme u. a.: PISA 2000. Zusammenfassung zentraler Befunde. Hrsg. v. denselben. Max-Planck-Institut für Bildungsforschung. Berlin 2001. URL:

http://www.mpib-berlin.mpg.de/pisa/ergebnisse.pdf - Download v. 15.04.06, S. 11.

[10] Karl Holle: Prävention von Leseschwierigkeiten oder wieso das Lesen lernen nicht nur ein grundschuldidaktisches Problem ist. In: Deutschdidaktik nach der PISA-Studie. Hrsg. v. M. Kämper-van den Boogaart. Frankfurt, Berlin u. a. 2004 (Beiträge zur Literatur- und Mediendidaktik, Bd. 6), S. 19.

[11] Holle, S. 19.

[12] Sie ist nicht die einzige: „In kaum einer Reaktion von Seiten der Deutsch-, insbesondere der Literaturdidaktik fehlt der Hinweis auf das mit dieser Definition vorgegebene pragmatisch eingegrenzte Verständnis von Lesekompetenz, welches vornehmlich auf den kognitiven Prozess der Informationsentnahme ausgerichtet sei, die motivational-emotionale Dimension des Lesens hingegen außer Acht lasse [...]“ Wieler bezieht sich u. a. auf Spinner, der sich in der Tat ähnlich in seinem Beitrag derselben Publikation äußert (S. 240). Petra Wieler: Varianten des Literacy-Konzepts und ihre Bedeutung für die Deutschdidaktik. In: Deutschdidaktik nach PISA. Hrsg. v. Ulf Abraham, Albert Bremerich-Vos u.a. Freiburg im Breisgau 2003, S. 47.

[13] Karg, S. 105. (FN 182)

[14] Wolfgang Eichler: „Mit Goethe hab ich keinen Plan“ - Bildungstraditionen im Deutschunterricht. In: PISA 2000 als Herausforderung. Perspektiven für Lehren und Lernen. Hrsg. v. B. Moschner u. a. Baltmannsweiler 2003, S. 91.

[15] Konrad Adam: Die deutsche Bildungsmisere. PISA und die Folgen. Berlin, München 2002, S. 9.

[16] Jürgen Baumert, Cordula Artelt: Konzeption und technische Grundlagen der Studie. In: PISA 2000 - Ein differenzierter Blick auf die Länder der Bundesrepublik Deutschland. Hrsg. v. Deutschen PISA-Konsortium. Opladen 2003, S. 13.

[17] Kiper, Kattmann, S. 16.

[18] Baumert, Artelt: Konzeption, S. 14.

[19] Ray Adams, Margaret Wu: PISA 2000. Technical Report. Hrgs. v. denselben. OECD 2002. URL:

http://www.pisa.oecd.org/dataoecd/53/19/33688233.pdf - Download v. 16.04.06, S. 16; S. 149.

[20] Günter Haider, Claudia Reiter: PISA 2000. Nationaler Bericht. Hrsg. v. denselben. Innsbruck, Wien u. a. 2001 (Beiträge zur vergleichenden Schulforschung, Bd. 3), S. 45.

[21] Gill, Dunn, Goddard, S. xii.

[22] Baumert, Artelt: Konzeption, S. 38.

[23] Ebd., S. 40.

[24] Baumert, Artelt: Konzeption, S. 41.

[25] Ebd., S. 41.

[26] Karg, S. 53.

[27] Technical Report, S. 21; S. 27.

[28] Karg, S. 53.

[29] z. B. bei Michael Kämper-van den Boogaart: PISA und die Interpretationsrituale des Deutschunterrichts. Als PISA noch eine Stadt war. Ein Blick zurück. In: Deutschdidaktik nach der PISA-Studie. Hrsg. v. demselben. Frankfurt, Berlin u. a. 2004 (Beiträge zur Literatur- und Mediendidaktik, Bd. 6), S. 76.

[30] Vgl. homepage der IEA. URL: http://www.iea.nl/search_results.html?&no_cache=1

[31] Adam, S. 10.

[32] Wer aber ist dann Anouilh (s. AMANDA-Testaufgabe)? Ein nicht-weißer Untoter? Was heißt, der Test ‚schließt aus’?

[33] Adam, S. 10.

[34] Eichler, S. 98.

[35] Ebd.

[36] Baumert, Artelt: Konzeption, S. 19.

[37] Karg, S. 31.

[38] Erich Fromm: Wege aus einer kranken Gesellschaft. Eine sozialpsychologische Untersuchung. Übers. v. L. u. E. Mickel. 4. Auflage. München 2004, S. 128.

Details

Seiten
26
Jahr
2006
ISBN (eBook)
9783640793303
ISBN (Buch)
9783640793143
Dateigröße
526 KB
Sprache
Deutsch
Katalognummer
v163997
Institution / Hochschule
Humboldt-Universität zu Berlin – Philosophische Fakultät II
Note
1,0
Schlagworte
Didaktik Deutsch PISA Literatur Noten Test Bildung Studie Vergleichssstudie PISA-Studie Erhebung Schule Schulsystem Textverstehen Literacy Leseverständnis Aufgabenkatalog Textsorten Unterricht Unterrichtsgegenstand Kompetenzen Basiskompetenzen literarisch Testverfahren Vergleichstest Testbericht Bildungsstudie Bildungstheorie Bildungsforschung Chancengleichheit Bildungslandschaft Schulfragebogen Lernprozesse Lesekompetenz

Autor

Teilen

Zurück

Titel: Das Gewicht der PISA-Studie