Zu den Möglichkeiten und Grenzen studentischer Lehrevaluation an Universitäten


Seminararbeit, 2003

23 Seiten, Note: 1


Leseprobe


Inhalt

1. Einleitung

2. Was ist Lehrevaluation?
2.1. Zur Lehrwirksamkeit

3. Rahmenbedingungen

4. Geschichte der universitaren Lehrevaluation im deutschsprachigen Raum

5. Evaluationsmodelle
5.1. Formative und summative Lehrevaluation
5.2. Evaluationsansatze nach Gralki und Hecht
5.2.1. Das Qualifikationsmodell
5.2.2. Das Transparenzmodell
5.2.3. Das Kommunikationsmodell
5.2.4. Das Steuerungsmodell
5.2.5. Das Forschungsmodell
5.2.6. Zur didaktischen Funktion
5.2.7. Zur Taktik- und Ablenkfunktion
5.3. Zur Vereinbarkeit der Evaluationsmodelle
5.4. Methoden
5.4.1. Methoden der formativen Evaluation
5.4.1.1. Schriftliche RUckmeldeverfahren
5.4.1.2. MUndliche RUckmeldeverfahren
5.4.1.3. Selbstevaluation
5.4.1.4. Peer- review- Kollegen und Experten als Beobachter
5.4.2. Methoden der summativen Evaluation
5.4.3. Verfahren auf Studienrichtungs-, Fakultats- oder Universitatsebene
5.4.3.1. Leistungsorientierte Kennzahlen
5.4.3.2. Peer- review
5.4.3.3. Metaevaluation

6. Kriterien von Lehrwirksamkeit

7. Validitat studentischer Urteile

8. Bibliographie

1. Einleitung

Lehrevaluation ist seit Beginn der neunziger Jahre zu einem zentralen Leitwort und Reizthema in der Diskussion um die Qualitat universitarer Leistungen avanciert. Brisant wurde das Thema hierzulande durch das Universitatsgesetz 1993, welches eine regelmaBige Evaluierung von Pflichtlehrveranstaltungen vorschreibt. Unklar aber ist, wie eine regelmaBige Evaluation universitarer Lehre angesichts der auBerst heterogenen Bedingungen in verschiedenen Wissenschaftsdisziplinen oder Lehrveranstaltungstypen moglich ist.

Evaluation universitarer Lehre geht uber eine professionell gekonnte Anwendung sozialwissenschaftlicher Methoden hinaus- sie beeinflusst politische Entscheidungen, sie bewegt sich in einem Feld von divergenten Interessen und ist auch als Intervention in ein komplexes soziales System zu verstehen. Jenseits einer empirischen Fundierung bedarf es also auch eines grundlichen Verstandnisses der politischen und organisationskulturellen Zusammenhange und Rahmenbedingungen.

2. Was ist Lehrevaluation?

Danzinger definiert Lehrevaluation als ,,eine Sammlung und Verwendung von Daten zur Beschreibung und Beurteilung von Lehre und Unterricht und zwar in Hinblick auf gesetzte Standards, die Kriterien fur den Wert, Nutzen des Beurteilungsgegenstands bilden“\ In diesem Definitionsversuch wird Evaluation als datensammelnder und beurteilender Vorgang gesehen. Lehrevaluation geht damit uber eine quasi- wertfrei beschreibende Vorgehensweise hinaus und impliziert die Setzung von MaBstaben als Unterlage. Wenn aber unterstellt wird, dass Danzinger mit ,,Setzen von Standards“ einen expliziten Vorgang meint- was anzunehmen ist, weil sich anderenfalls jedes Urteil an bestimmten, zumindest implizit vorhandenen, MaBstaben, Kriterien oder Werten orientiert- scheint dieser Definitionsversuch als zu eng. Denn es finden sich in der Literatur zahlreiche Beispiele von Evaluationsansatzen, bei denen nicht eine beurteilende und mit bestimmten Standards vergleichende Vorgehensweise im Vordergrund steht. Danzinger bringt selbst viele Beispiele, in denen eine prozesshafte Reflexion und Verbesserung des Lehr- Lerngeschehens angestrebt wird. Das Setzen von expliziten Standards ist dabei von sekundarer Bedeutung. Webler versteht unter Lehrevaluation die spezifischen Verfahren zur Ruckmeldung des Lehrerfolgs, ,,in denen empirisch Informationen uber Bedingungen, Systeme, Konzepte, Verlaufe und Wirkungen von Lehr- und Lernprozessen gewonnen werden (...) und mit der expliziten Aus- und Bewertung der Informationen verbunden sind“ . Diese Definition setzt eine ,,empirische1 2

Informationssammlung“ voraus. Das kann sehr unterschiedlich aufgefasst werden: Im engeren Sinn bezeichnet empirisches Vorgehen systematische Beobachtung, im weitesten Sinne ist dieser Begriff eine „Bezeichnung fur den Bezug auf Erfahrung“3. Wenn eine enge Fassung des Begriffs bevorzugt und damit die Anwendung sozialwissenschaftlicher Methoden vorausgesetzt wird, kann eingewandt werden, dass damit viele, in der gangigen Diskussion aus als „Evaluation“ etikettierte Vorgehensweisen und Methoden ausgeschlossen werden. Weiters weist Webler auf die Breite des Evaluationsfeldes hin. SchlieBlich ist fur ihn ,,eine explizite Aus- und Bewertung der Informationen“4 ein Charakteristikum von Lehrevaluation. Evaluation setzt damit einen von der Informationssammlung abgehobenen Vorgang der Aus- und Bewertung voraus und unterscheidet sich damit beispielsweise von bloBen Diskussionen.

2.1. Zur Lehrwirksamkeit

Lehrevaluation beschaftigt sich, zumindest in seiner an quantitativer Empirie orientierten Variante, mit der Messung des latenten und nicht beobachtbaren Konstrukts „Lehrwirksamkeit“. Bei der Suche nach einer tragfahigen Definition dieses Begriffs lassen sich uberraschenderweise keine prazise gefassten Definitionsvorschlage finden. Die meisten recherchierten Arbeiten ubergehen das Problem der exakten Bestimmung dessen, was mit dem jeweiligen Erhebungsinstrument zu messen beansprucht wird. Dies ist auch ein Indiz fur das weitgehend theorielose Vorgehen der vorherrschenden Lehrevaluation. Diese verzichtet oft auf eine theoretische Herleitung von Hypothesen und generiert ihre Fragestellungen eher aus dem alltaglichen Lehr- und Lerngeschehen.5 Lehrwirksamkeit wird eng mit dem Terminus Lehrziel verknupft: „Ein Lehrziel beschreibt Einstellungen und Verhaltensweisen, die dem Lernenden am Ende eines Lernprozesses zu eigen sein sollten. Ein Lehrziel hat Aufforderungscharakter und intendiert die Uberfuhrung eines derzeitigen Zustandes in einen zukunftigen Zustand“6 Auch Einstellungs-, Interessens- und Motivationsanderungen sind als Ergebnisse des Lehr- Lernprozesses anzusehen und werden auch von vielen Lehrenden als Ziel ihrer Tatigkeit gesehen.7

3. Rahmenbedingungen

„Evaluation ist nie Selbstzweck. Die Bewertung von MaBnahmen, Organisationsformen oder Einzelpersonen macht nur dann Sinn, wenn auf Grundlage dieser Ergebnisse praktische Konsequenzen eingeleitet werden.“ Mit dieser Feststellung leiten Wottowa und Thierau das Thema „Zielexplikation“ ihres Evaluationslehrbuches ein. Gerade aber die Konsequenzlosigkeit universitarer Evaluationsprojekte wird beklagt. Sohr bezieht sich auf dreiBig Evaluationsprojekte in Deutschland und stellt resumierend fest, dass festgestellte Mangel kaum zu Veranderungen gefuhrt hatten. Die Betreiber dieser Evaluationsvorhaben resignierten mehrheitlich und die Projekte wurden meist eingestellt. Es entsteht der Eindruck, dass die Diskussion vor allem um das „Wie“ von Lehrevaluation kreist, das „Wozu“- also die Frage nach den Entwicklungen, Verbesserungen und Konsequenzen zu denen Evaluationsergebnisse fuhren sollen- aber noch weitgehend ungeklart ist. Altrichter und Schratz8gehen in ihren theoretischen Ausfuhrungen auf das „Wozu“ von Lehrevaluation ein und fragen nach den notwendigen Voraussetzungen fur eine sinnhafte Lehrevaluation: es mussten (1) die Ziele der Institutionen und Qualitatskriterien bekannt sein und (2) mussen Evaluationsergebnisse auch in Entwicklungen ubergefuhrt werden konnen.9

Ad 1) Nach ihrer Einschatzung verfugen Osterreichs Universitaten uber keine expliziten Zielformulierungen- woraus folgt, dass keine Qualitatskriterien, an denen beispielsweise zwischen „guter“ und“ schlechter“ Lehre differenziert werden kann, aus diesen Zielformulierungen ableitbar sind. Daraus folgt, dass die Austragung des Zielkonflikts „Praxisrelevanz versus wissenschaftliche Ausbildung“10 einer Lehrevaluation vorgeschaltet sein musste. Erst dann macht die Vorgabe von Items wie ,,Das Thema hat praktische Bedeutung“ Sinn- ansonsten ,,schiebt Evaluation einen Prozess institutioneller Zieldiskussion gleichsam vor sich her“n Hier konnte eingewandt werden, dass Zielvorgaben dem Universitatsorganisationsgesetz oder dem Allgemeinen Hochschul- Studiengesetz entnommen werden konnen- diese sind aber angesichts ihrer Diffusitat dafur nicht oder nur bedingt geeignet.11 Weiters mussten diese Ziele und Kriterien im wesentlichen auch auBer Streit stehen- was aber nicht der Fall ist, wie auch aus den divergenten Meinungen hinsichtlich der Zielsetzung von Evaluationsprojekten ablesbar ist. Ob sie als Steuerungsinstrumente,12 Selbstreflexionsinstrumente oder als Orientierungshilfe fur Studierende verwendet werden sollen- daruber herrscht weitgehende Uneinigkeit.

Ad 2) Auch in der Einschatzung des Umsetzungspotentials von Evaluationsergebnissen kommen sie zu einem pessimistischen Ergebnis. Universitaten mangle es zwar nicht an Entwicklungskonzepten, aber an Ressourcen, Strategien, Mechanismen und organisationskulturellen Voraussetzungen um Entwicklungsprozesse in Gang zu bringen. Selbst wenn Defizite lokalisiert werden, fehlt es an der notigen administrativen, finanziellen und moglicherweise auch geistigen Flexibilitat, um auf Probleme sinnvoll reagieren zu konnen.13

Als ein besonders relevanter Mangel bezuglich der Voraussetzungen von Lehrevaluation kann die fehlende Professionalisierung von Managementfunktionen im Universitatssystem angesehen werden, da Personen in Leitungsfunktionen eine zentrale Funktion in Veranderungsprozessen von Organisationen oder Organisationseinheiten zukommt. Fur komplexe Fuhrungsaufgaben von Institutsvorstanden, Dekanen, Rektoren gibt es keine oder kaum vorhandene Qualifizierungserfordernisse und -programme jenseits der wissenschaftlichen Kompetenz. SchlieBlich wird oft auch eine mangelnde Veranderungsbereitschaft der Hochschullehrer selbst geortet. Diese muss aber auch vor dem Hintergrund des traditionell hohen Stellenwerts von Autonomie und der Beurteilung durch „Peers“ verstanden werden.

4. Geschichte der universitaren Lehrevaluation im deutschsprachigen Raum

Die Forschungs- und Anwendungsgeschichte universitarer Lehrevaluation reicht bis in die dreiBiger Jahre dieses Jahrhunderts zuruck. 1926 wurde in den USA der erste standardisierte Fragebogen, die “Purdue Rating Scale for Instructors^ veroffentlicht. 14 Verbreitung fanden standardisierte ,,student ratings“ in den USA allerdings erst in den funfziger und besonders in den sechziger Jahren, wo in circa einem Drittel der amerikanischen Colleges und Universitaten entsprechende Instrumente Anwendung fanden.15 Inzwischen ist dieses Forschungsgebiet in den USA durch die weitgehende Integrierung von Lehrevaluation in das amerikanische Hochschulsystem zu einem schier unuberschaubaren Forschungs- und Anwendungsfeld gewachsen. Bereits 1984 spricht Marsh von weit uber 1000 einschlagigen Studien.16

Die deutschsprachige Forschung hat eine relativ junge Geschichte. Als Ausloser fur die Auseinandersetzung mit Inhalt und Qualitat der Lehre kann die Studentenbewegung der sechziger Jahre mit ihren Unterrichtsrezensionen gesehen werden.17 Gegenstand dieser Unterrichtsrezensionen war die gesellschaftskritische Auseinandersetzung mit Wissenschaft und hierarchischer Hochschulordnung. Diese teilweise sehr heftig gefuhrten Debatten sind fur heutige Evaluationsprojekte nicht nur von historisch- anekdotischem Charakter.18 Neben der zum Teil auffallenden Parallelitat von thematisierten Problemstellungen haben diese Auseinandersetzungen vermutlich auch Spuren in der Kommunikationskultur der Universitaten hinterlassen, was bei der Konzeptuierung und Durchfuhrung solcher Projekte berucksichtungswurdig scheint. PreiBer spricht von „traumatischen“ Erfahrungen fur die Hochschullehrer und vermutet, dass sich infolge dieser Debatten die Kommunikation zwischen Lehrenden und Studierenden verschlechtert hat. Dass diese Vermutung nicht aus der Luft gegriffen ist, belegen die Stellungnahmen einzelner Hochschulprofessoren , die ihre Ablehnung von Lehrevaluation unter anderem auch auf diese Erfahrungen mit der Studentenbewegung der sechziger Jahre zuruckfuhren. In den siebziger Jahren gab es neben den Versuchen von Hochschuldidaktikern19, das Thema wieder aufzugreifen, auch erste Versuche der Entwicklung standardisierter Instrumente. Das wahrscheinlich erste deutschsprachige Verfahren stammt von Muller- Wolf und Fittkau. Anhand von Studentenbefragungen, Expertenbefragungen und Literaturstudien wurde dieser Fragebogen entwickelt. Das Lehrverhalten wird in diesem Instrument durch zweiunddreiBig bipolare siebenstufige Eigenschaftsskalen beurteilt. Auf siebzehn weiteren bipolaren Skalen werden die Studierenden zu ihren Einstellungen gegenuber den Dozenten sowie uber ihr eigenes Verhalten befragt.20 Eine Faktorenanalyse ergab zwei Faktoren des Lehrverhaltens. Der erste Faktor beschreibt emotional positives, demokratisches versus distanziert abweisendes, autoritares Lehrverhalten, der zweite Faktor didaktisch-effektive Aktivitat versus konzeptlose, langweilige Passivitat.21 Georgi, Diehl und Kohr entwickelten Fragebogen auf Grundlage eines amerikanischen Instruments, des ^Illinois Course Evaluation Questionaire (ICEQ)“. Georgi konnte die funf folgenden Faktoren identifizieren:

- Motivierende Qualitaten des Unterrichts
- Lehrmethodik
- Schwierigkeitsgrad
- Unterrichtsorganisation und -prasentation
- Lehrinhalt

Diehl und Kohr replizierten die Faktorenstruktur des ICEQ in ihrer Stichprobe nicht. AuBerdem wurde der ICEQ in Studentenbefragungen als nicht genugend differenziert beurteilt. Dieses Ergebnis fuhrte zur Entwicklung des „Fragebogens zur Veranstaltungsbeurteilung“ der durch vier faktorenanalytisch bestatigte Dimensionen charakterisiert ist:

- Relevanz und Nutzlichkeit der Veranstaltungsinhalte
- Verhalten des Dozenten gegenuber der Lehrveranstaltungsteilnehmern
- Angemessenheit von Schwierigkeit und Umfang der Veranstaltungsinhalte
- Methodik und Aufbau der Veranstaltung

Winteler und Schmolck entwickelten einen22,,Fragebogen zur Beurteilung von Lehrveranstaltungen“ mit elf Faktoren. Der Fragebogen konnte in einer Replikationsstudie23 in zehn Dimensionen bestatigt werden:

- Stoffauswahl und Gliederung
- Wiederholungen
- Motivierende Qualitaten des Unterrichts
- Tempo
- Voraussetzungsadaquatheit
- Relevanz
- Klima
- Fachdiskussion
- Schriftliches Unterrichtsmaterial
- Tafeldarstellung

Allerdings sind diese ersten Versuche der Entwicklung und Anwendung standardisierter Instrumente mit einigen methodischen Schwachen behaftet. Die herangezogenen Stichproben sind klein und nur aus einigen wenigen oder gar nur einer Studienrichtung gezogen. Die Ergebnisse, besonders die postulierten Dimensionen von Lehrwirksamkeit, sind daher nur beschrankt generalisierbar. Alle Verfahren unterstellen implizit, dass studentische Zufriedenheit ein Indikator des Konstrukts „Lehrwirksamkeit“ sei, unterlassen aber eine Validierung dieser Annahme an anderen Kriterien von Lehrwirksamkeit, wie zum Beispiel dem Lernerfolg der Studenten oder der Urteilen von Peers. Insbesondere verabsaumen sie eine systematische Kontrolle von Moderatorvariablen, welche die beobachteten Zusammenhange zwischen studentischer Zufriedenheit und Lehrverhalten zumindest teilweise erklaren konnten. Auch ist aus der einschlagigen Literatur nicht ersichtlich, dass diese Verfahren eine breitere Anwendung gefunden hatten und uber ihr Entwicklungsstadium hinausgekommen waren. PreiBer stellt fest, dass die Bemuhungen der Hochschuldidaktik in den siebziger Jahren, die Hochschuloffentlichkeit fur das Thema Lehrevaluation zu interessieren, nicht gefruchtet hatten.

Erst Ende der achtziger Jahre wird die Moglichkeit der Informationsgewinnung durch standardisierte Instrumente von den Studierenden selbst aufgegriffen. Generell liegen die meisten dieser ad- hoc entwickelten Fragebogen noch hinter den methodischen Standards der oben angefuhrten ersten Verfahren zuruck. Durch die veranderten politischen und okonomischen Rahmenbedingungen traten in den neunziger Jahren erstmals Staat und Hochschulverwaltung als Initiator oder Forderer von Evaluationsprojekten auf. Evaluation wurde nun unter anderen Zielsetzungen konzipiert. Wahrend die Hochschuldidaktik eher eine formative Evaluation propagierte und Studenten erstrangig an den Informationsmoglichkeiten interessiert waren, interessier(t)en sich Ministerien und Hochschulverwaltung zwar nicht ausschlieBlich, aber doch primar fur die Moglichkeiten einer summativen Evaluation. So kam es besonders in Deutschland an mehreren Universitaten zu ersten, fur deutschsprachige Verhaltnisse breit angelegten Projekten.24 Eine weitere, neue Facette brachte das Aufgreifen des Themas durch die Medien. Der Spiegel veroffentlichte 1989 erstmals eine Bewertung der25 Studienbedingungen durch Studenten und verarbeitete diese Umfragedaten zu Universitatsranglisten. Dieser Befragung folgten andere, auch osterreichische Erhebungen. Diese Befragungen losten in und auBerhalb der Hochschulen heftige Reaktionen aus26, machten die Qualitat der universitaren Lehre zum Gegenstand offentlicher Diskussionen und fuhrten auch zu heftigen Auseinandersetzungen bezuglich der methodischen Qualitat dieser Umfragen. Insbesondere die mangelnde Reprasentativitat, die methodisch nicht gerechtfertigte Rangreihung der Studienrichtungen beziehungsweise Universitaten, die Bildung von Mittelwerten als MaBzahl fur die einzelnen Studienrichtungen bei sehr heterogenen Urteilen und die Wahl der Qualitatsindikatoren waren Gegenstand der Kritik. Auf welches Interesse, beziehungsweise Informationsbedurfnis aus Sicht der Studierenden, diese Veroffentlichungen stieBen, zeigt eine Studie von Balke, Stiensmeier- Pelster und Welzel , in der die Auswirkungen der ersten Spiegel- Ranglisten auf die Wahl des Studienortes analysiert wurden. Die Autoren konnten zeigen, dass die Erstinskribiertenzahlen bei einer als gut gereihten Studienrichtung weit uberdurchschnittlich anstiegen, wahrend andere, schlechter gereihte Studienrichtungen rucklaufige Erstinskribienten zu verzeichnen hatten. Ein Ergebnis, dass beeindruckend die Notwendigkeit eines methodisch fundierten Vorgehens aufzeigt. Jedenfalls ist seit Beginn der neunziger Jahre ein rasant steigendes Interesse festzustellen, was sich neben den zahlreichen Publikationen und Tagungen zu dieser Thematik, auch in einer wieder einsetzenden Forschungstatigkeit manifestiert.

[...]


1 Danzinger C., Evaluierung der universitaren Lehre, Diplomarbeit, WU- Wien, 1994, Seite 10

2 Webler, W. D., Evaluation der Lehre, in Gattwinkel H. und Gruhn D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin 1992, Seite 149

3 Frohlich, W.D. und Drever, J., Worterbuch zur Psychologie, Munchen, 1978, Seite 113

4 Webler, W. D., Evaluation der Lehre, in Gattwinkel H. und Gruhn D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin 1992, Seite 149

5 Siehe: Astleitner, H., Das Problem impliziter Theorien, in Psychologie in Erziehung und Unterricht, 38, 1991, und Beywl, W., Perspektiven der Evaluation im Hochschulwesen, in Gattwinkel, H. und Gruhn, D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin, 1992

6 Schroder, H., Grundwortschatz Erziehungswissenschaft, Munchen, 1985, Seite 235

7 Wottawa, H. und Thierau, H., Lehrbuch Evaluation, Bern, 1990, Seite 74

8 Sohr, S., Studentische Evaluation, in Berendt und Stray, Evaluation zur Verbesserung der Lehre und weitere MaBnahmen, Weinheim, 1993

9 Altrichter, H. und Schratz, M., Hohe Schulen auf dem Prufstand, in Altrichter und Schratz, Qualitat von Universitaten. Evaluation: Impulse fur Innovation?, Innsbruck, 1992

10 Rindermann, H. und Amelang, M., Entwicklung und Erprobung eines Fragebogens zur studentischen Veranstaltungsevaluation, in Empirische Padagogik 8, 1994, Seite 149

11 Altrichter, H. und Schratz, M., Hohe Schulen auf dem Prufstand, in Altrichter und Schratz, Qualitat von Universitaten. Evaluation: Impulse fur Innovation?, Innsbruck, 1992, Seite 15

12 Siehe: Hollinger, S. und Steinbacher, W., Selbstorganisation und Management gegen Burokratie, in Altrichter und Schratz, Qualitat von Universitaten. Evaluation: Impulse fur Innovation?, Innsbruck, 1992

13 Vergleich: Gattwinkel H. und Gruhn D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin 1992

14 Siehe McKeachie, W. J., Research of college teaching: The historical background, in Journal of Educational Psychology, 82, 1990

15 Nach Winteler, A., Schatzverfahren- Ein Bericht uber anglo- amerikanische Untersuchung, in Huber, L., Burmann, I., Francke, R. und Schmidt, W., Auswertung, Ruckmeldung und Kritik im Hochschulunterricht, Hamburg, 1978

16 Siehe PreiBer, R., Verwirklichungsbedingungen der Evaluation der Lehre und der Verbesserung der Lehre, in Gattwinkel, H. und Gruhn, D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin, 1992

17 PreiBer, R., Verwirklichungsbedingungen der Evaluation der Lehre und der Verbesserung der Lehre, in Gattwinkel, H. und Gruhn, D., Evaluation von Lehrveranstaltungen- Uberfrachtung eines sinnvollen Instruments?, Berlin, 1992, Seite 198

18 Siehe zum Beispiel MuBgnung, R., Gefahrden Lehrevaluationen die Freiheit der Wissenschaft?, in Mitteilungen des Hochschulverbandes, 40, 1992

19 Siehe Huber, L., Burmann, I., Francke, R. und Schmidt, W., Auswertung, Ruckmeldung und Kritik im Hochschulunterricht, Hamburg, 1978

20 Siehe Muller- Wolf, H. M. und Fittkau, B., Lehrverhalten von Hochschullehrern und seine Bedeutung fur Einstellungen und Verhalten von Studenten, in Zeitschrift fur Entwicklungspsychologie und Padagogische Psychologie, 3, 1971

21 Siehe Georgi, W., Kleingruppenarbeit und computerunterstutzter Unterricht in der Ingenieurausbildung, Hamburg, 1977 und Diehl, J. M. und Kohr, H. U., Entwicklung eines Fragebogens zur Beurteilung von Hochschulveranstaltungen im Fach Psychologie, in Psychologie in Erziehung und Unterricht, 24, 1977 und Untersuchung zur Einstellung von Psychologiestudenten gegenuber Statistik und Statistik- Veranstaltungen, GieBen, 1983

22 Siehe Winteler, A. und Schmolck, P., Entwicklung und Validierung eines Schatzverfahrens zur Beurteilung von Lehrveranstaltungen, Schweizerische Zeitschrift fur Psychologie, 38, 1979

23 Nach Winteler, A. und Schmolck, P., Uberprufung eines Schatzverfahrens zur Beurteilung von Lehrveranstaltungen, Schweizerische Zeitschrift fur Psychologie, 42, 1983

24 Siehe: Daniel, H. D., Horerbefragung an der Universitat Mannheim: Konzeption, Erhebung, Auswertung, in Empirische Padagogik, 8, 1994; Garlki, H., Gruhn, D. und Hecht, H., Lehrevaluation an der FU Berlin- Begrundung, Methode und Techniken, in Berendt, B. und Stray, J., Evaluation zur Verbesserung der Lehre und weitere MaBnahmen, Weinheim, 1993; Kromrey, H., Studentische Lehrevaluation. Empirische Daten und Konsequenzen fur die Lehre, in Gralki, H., Gruhn, D. und Hecht, H., Evaluation schafft Autonomie, Berlin, 1993; Kromrey, H., Studentische Vorlesungskritik. Empirische Daten und Konsequenzen fur die Lehre, in Soziologie, 15, 1993 und PreiBer, R., Lehrveranstaltungskritiken als erster Schritt einer Evaluation der Lehre an der TU Berlin, in Winkler, H., Qualitat der Hochschulausbildung, Kassel, 1993 und so weiter. Zum Beispiel Profil, Hochschulen 90- Wege aus der Krise, Wien, 12. 09. 1990

26 Siehe Neidhardt, F., Die Ranking- Debatte: Evaluationsversuche im Lehrbereich der Hochschulen, in Webler, W. D. und Otto, H. U., Der Ort der Lehre in der Hochschule. Lehrleistungen, Prestige und Hochschulwettbewerb, Weinheim, 1991.

Ende der Leseprobe aus 23 Seiten

Details

Titel
Zu den Möglichkeiten und Grenzen studentischer Lehrevaluation an Universitäten
Hochschule
Universität Wien
Note
1
Autor
Jahr
2003
Seiten
23
Katalognummer
V153881
ISBN (eBook)
9783640665372
ISBN (Buch)
9783640665327
Dateigröße
633 KB
Sprache
Deutsch
Schlagworte
Lehre, Evaluation, Universität
Arbeit zitieren
Mag.a Lena Rheindorf (Autor:in), 2003, Zu den Möglichkeiten und Grenzen studentischer Lehrevaluation an Universitäten , München, GRIN Verlag, https://www.grin.com/document/153881

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Zu den Möglichkeiten und Grenzen studentischer Lehrevaluation an Universitäten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden