Loading...

ZFA-Logo

Wie wird das Blockpraktikum Allgemeinmedizin evaluiert?

DOI: 10.3238/zfa.2012.0111-0116

Evaluationsmethoden und -inhalte

PDF

Karen Voigt, Konrad Schmidt, Jeannine Schübel, Ralf Jendyk, Kathrin Kohlen, Stefan Heberger, Eva Rempis, Bettina Heberger, Georg Schlagberger, Carola Thumm-Söhle, Jürgen Berghold

Schlüsselwörter: Evaluation Blockpraktikum Allgemeinmedizin

Hintergrund: Das Blockpraktikum Allgemeinmedizin (BP) ist fester Bestandteil des deutschen Medizinstudiums. Die Organisation und Ausgestaltung des BP obliegt den jeweiligen allgemeinmedizinischen Hochschul-Standorten. Das Hochschulrahmengesetz gibt vor, dass alle Lehrveranstaltungen an Universitäten evaluiert werden müssen. Ziel der vorliegenden Untersuchung bestand in der Erfassung von Evaluationsmethodik und -inhalten zur Bewertung allgemeinmedizinischer BP.

Methoden: Diese Querschnittsstudie setzte sich 1. aus der Sammlung und Inhaltsanalyse der angewendeten Evaluationsbögen und 2. aus einer teilstandardisierten Fragebogenuntersuchung zu organisatorischen und inhaltlichen Aspekten der BP und deren Evaluationsverfahren an den deutschen allgemeinmedizinischen Standorten zusammen.

Ergebnisse: 29 (80,6 %) von 36 allgemeinmedizinischen Standorten gaben Auskunft über die Evaluation ihrer BP. Alle das BP eigenständig evaluierenden Standorte (n = 23) ließen durch Studierende evaluieren, meist unter der Verwendung von schriftlichen teilstandardisierten Fragebögen. Methodische Unterschiede zeigten sich z.B. hinsichtlich der Evaluationsthemen und der Gestaltung der Fragen und Antwortvorgaben (Skalen), dem Zeitpunkt der Durchführung der Evaluation oder der Freiwilligkeit der Evaluierung.

Schlussfolgerungen: Trotz einiger Gemeinsamkeiten war eine hohe Heterogenität der Evaluationen bzgl. Organisation, Methodik und Inhalt zwischen den einzelnen Standorten zu beobachten. Die Erstellung eines modular gestalteten Evaluationsbogens erscheint überlegenswert. Mit einem einheitlichen Instrument könnten alle Standorte Ergebnisse anderer Evaluationen einerseits zum Vergleich und andererseits zur Verbesserung der eigenen Lehre für sich nutzbar machen.

Hintergrund

Bereits mit der letzten Novellierung der Approbationsordnung für Ärzte 2002 hat die Allgemeinmedizin durch Einführung eines einwöchigen obligatorischen Blockpraktikums (BP) einen höheren Stellenwert in der Ausbildung der Studierenden der Humanmedizin erhalten [1]. Mit dem Beschluss des Bundesrates vom 11.5.2012 wurde eine Änderung des Artikels 3 der Approbationsordnung festgesetzt, in der das allgemeinmedizinische BP auf einen Zeitraum von zwei Wochen erweitert wird [2].

Für viele Institutionen der Allgemeinmedizin an den medizinischen Fakultäten stellt das BP als ein Teil der praktischen Ausbildung des Medizinstudiums die zentrale Präsentationsplattform des Faches im Studium dar. Die Organisation des BP variiert dabei.

Wie der medizinische Fortschritt, so unterliegt auch die Lehre einer ständigen Weiterentwicklung. Um gute Aspekte der Lehre zu stärken und Schwachstellen aufzudecken, ist eine regelmäßige Bewertung bestehender Lehrkonzepte nötig [3]. Hierbei hat sich die Evaluation von Lehrveranstaltungen bewährt [4]. Dabei ist eine generelle Verbesserung der Lehre durch Evaluation bislang jedoch nicht gesichert, da Evaluation hierfür eine notwendige, jedoch keine hinreichende Bedingung ist [5]. Auch fehlt in der Literatur bislang noch eine allgemein anerkannte Systematisierung [6].

Die Evaluation der Lehrveranstaltungen kann von allen Beteiligten vorgenommen werden. Zum einen können die Studierenden die Lehrpraxen und Begleitseminare beurteilen. Zum anderen ist es den Lehrärzten1 möglich, über die verpflichtende Leistungsbewertung der Studierenden hinaus, die Organisation des BP zu bewerten. Auf Grundlage dieser Ergebnisse sollten die verantwortlichen universitären Abteilungen eine Gesamtbewertung von Konzept und Ablauf vornehmen.

Es lassen sich unterschiedliche Instrumente zur Datenerhebung wählen. Quantitative Methoden arbeiten mithilfe von (teil-)standardisierten Fragebögen (numerische Beschreibung), bieten aber auch die Möglichkeit für Freitextkommentare. Qualitative Methoden verwenden meist die Form des offenen Interviews, das nachfolgend transkribiert und interpretiert werden muss (verbale Daten) [7].

Der 6. Professionalisierungskurses (Profkurs) der DEGAM befasste sich mit den unterschiedlichen Evaluationsinstrumenten des BP an den verschiedenen allgemeinmedizinischen Standorten. Es wurde untersucht, mit welcher Methodik evaluiert wird und welche Inhalte in der Evaluation berücksichtigt werden.

Methoden

Im Oktober 2010 wurden die akademischen Institutionen der Allgemeinmedizin aller Medizinischen Fakultäten in Deutschland per E-Mail von zwei Dresdner Teilnehmerinnen des 6. Profkurses angeschrieben und um Zusendung der Evaluationsmaterialien der BP gebeten. Die Kontaktdaten wurden von der Leitung der DEGAM-Sektion Studium und Hochschule zur Verfügung gestellt. Auch Prozedere und Projektentwicklung erfolgten in Abstimmung mit der Leitung der DEGAM-Sektion Studium und Hochschule. 17 von 36 (47,2 %) Standorten kamen der oben beschriebenen Bitte nach oder teilten mit, dass keine Evaluation der BP stattfindet. Um dem Ziel einer Vollerhebung näherzukommen, wurden im Dezember 2010 Erinnerungsschreiben per E-Mail versandt und von Februar bis Mai 2011 telefonisch Kontakt zu den Mitarbeitern/Lehrbeauftragen aufgenommen, die bis dahin kein Feedback gegeben hatten. Zum Zeitpunkt der Erstellung der Publikation (August 2012) lagen Evaluationsmaterialien von 23 der insgesamt 36 (63,9 %) Standorte vor. Sechs Standorte teilten mit, dass sie das BP Allgemeinmedizin nicht explizit evaluieren. Die restlichen sieben Standorte hatten bis zum Publikationszeitpunkt keine Rückmeldung zur Durchführung einer Evaluation des BP gegeben (vgl. Tab. 1).

Die Fragen der Evaluationsbögen wurden auf Gemeinsamkeiten und Unterschiede analysiert. Die Erstellung eines Kategoriensystems in Anlehnung an das Vorgehen bei der qualitativen Inhaltsanalyse nach Mayring [8] stand dabei im Vordergrund, um eine Vergleichbarkeit der Evaluationsbögen trotz großer inhaltlicher Heterogenität zu ermöglichen. Zwei Autorinnen entwickelten im gemeinsamen Diskurs Kategorien aus den Fragen der Evaluationsbögen. Die Kategorien entstanden damit deduktiv auf Basis der Evaluationsfragen. Bei einem gemeinsamen Gruppentreffen des 6. Profkurses (Februar 2011) wurden die so gewonnenen Kategorien und zugrunde liegende Fragen der gesamten Gruppe vorgestellt und die Kategorienzuordnung diskutiert und überarbeitet. Die endgültige Kategorienzuordnung erfolgte im interpersonellen Konsens.

Im Rahmen der inhaltsanalytischen Auswertung der Fragebögen ergab sich zudem, dass das Wissen um relevante Informationen zu Rahmenbedingungen der BP teilweise fehlte, um Inhalte der Evaluationsmaterialien interpretieren und ggf. auch vergleichen zu können. Daraufhin wurde von den Teilnehmern des Profkurses ein Fragebogen entwickelt, mit dem die notwendigen Informationen exploriert werden sollten. Dieser Fragebogen wurde im März 2011 an die allgemeinmedizinischen Standorte per E-Mail versandt. Nach einem Erinnerungsschreiben im Mai 2011 und telefonischen Erinnerungen im Juni 2011 beteiligten sich 30 von 36 Standorten an der Befragung zum BP. Das ergab einen Fragebogenrücklauf von 83,3 % (vgl. Tab. 1). Zwei Standorte sandten jeweils zwei ausgefüllte Fragebögen zurück, da dort neben dem Regelstudiengang Medizin noch ein weiterer getrennt evaluierter Reform- oder Modellstudiengang bestand. Insgesamt konnten 32 Fragebögen von 30 Standorten ausgewertet werden.

Die via Fragebögen gesammelten Daten (Teilprojekt 2) wurden in SPSS 16.0 eingegeben und mit quantifizierten Daten aus der Evaluationsbogenanalyse kombiniert. Je nach Datenniveau wurden die Daten mittels nichtparametrischer Testverfahren analysiert, nachdem eine deskriptive Auswertung erfolgte.

Ergebnisse

Organisation der Blockpraktika

BP werden von der Mehrheit (62 %) der an der Befragung teilnehmenden Standorte im Zeitraum vom 8. bis 10. Fachsemester durchgeführt. Die übrigen Standorte (38 %) führen das BP zu einem früheren Zeitpunkt durch. Die Gesamtdauer der BP variiert zwischen 10 und 80 Stunden (vgl. Abb. 1), der Mittelwert liegt bei einer annähernden Normalverteilung bei 41,4 (± 19,2 SD) Stunden. 71,9 % bieten Begleitseminare zum BP an. 90,3 % der Standorte führen regelmäßige Treffen mit den Lehrärzten durch.

Die Lernziele des BP, die auch die Bewertungsbasis für die Evaluation stellen sollten, sind bei fast allen Standorten (96,0 %) schriftlich fixiert bzw. in einem Logbuch aufgeführt. Ein Standort teilte mit, bisher keine Lernziele für das BP schriftlich fixiert zu haben.

80,6 % (n = 29) aller Standorte gaben Auskunft über die Evaluation ihrer BP. Sechs von 29 (20,7 %) teilten mit, dass keine speziell das BP Allgemeinmedizin betreffende Evaluation vorgenommen wird: Teils wird das BP nicht evaluiert, teils fließt die Bewertung in die Gesamt-evaluation der Medizinischen Fakultät mit ein und in einem Fall ist die Einführung der Evaluation geplant.

Evaluationsmethodik

64 % der Standorte evaluierten ihr BP eigenständig als Lehrveranstaltung unabhängig von der universitären Gesamt-evaluation. Die evaluierenden Standorte führten die Evaluation des BP mit teilstandardisierten Fragebögen durch. Alle evaluierenden Standorte ließen die Studierenden das BP bewerten: Die Evaluation war in 46,7 % freiwillig und in 46,7 % verpflichtend. Zwei Standorte (6,7 %) gaben beide Antwortmöglichkeiten an. 63,3 % der Standorte evaluierten vor, 13,3 % nach Ausstellung des Leistungsnachweises. 23,3 % gaben diesbezüglich keine eindeutige Regelung an.

Verschiedene Fragenformate wurden in den Evaluationsbögen eingesetzt. Offene Fragen fanden Anwendung, wenn Ideen und Meinungen aus der Studierendenperspektive exploriert werden sollten. Geschlossene Fragen, überwiegend unter Rückgriff auf Likert-Skalen, wurden verwendet, um Beurteilungen oder Einstellungen der Studierenden zu erfassen. Sehr häufig kamen dabei 5er-, seltener 6er- oder 10er-Skalierungen zum Einsatz.

Die Standorte erreichten bei der letzten Evaluation durch die Studierenden Fragebogenrückläufe zwischen 30 und 100 %. Der Mittelwert lag bei 83,7 % (± 19,3 % SD), der Median bei 89,0 %.

Die höheren Rücklaufquoten ( 85 %) waren dabei signifikant häufiger bei Pflichtevaluationen als bei den freiwillig durchzuführenden Evaluationen (76,9 % vs. 33,3 %, Chi² = 4,812, p ? 0,05) zu beobachten.

37,5 % der Standorte gaben an, das BP zusätzlich auch von den beteiligten Lehrärzten evaluieren zu lassen. Der berichtete Fragebogenrücklauf der Lehrärzte streute zwischen 15 und 100 % und lag im Mittel bei 61,8 % (± 34,6 % SD). Nur zwei Standorte sandten die von Lehrärzten auszufüllenden Evaluationsbögen zurück (Teilprojekt 1).

Evaluationsinhalte

Der Vergleich der Evaluationsbögen (n = 23) verschiedener Standorte ergab eine große Heterogenität hinsichtlich der Frageninhalte. Einige Themen waren bei einem Großteil der Fragebögen zu beobachten, andere Themen waren nur in wenigen Fragebögen anzutreffen (vgl. Tab. 2). Ein großer Anteil der Fragen widmete sich der Evaluierung des Lernprozesses, weitere Fragen bezogen sich auf die Bewertung der Rahmenbedingungen. Häufig wurde zum Beispiel um die Beurteilung praxisorientierten Lernens bzgl. der allgemeinmedizinischen Arbeitsinhalte (91,3 %) gebeten oder um die Einschätzung, ob der Lehrarzt Interesse an der studentischen Lernsituation zeigte (82,6 %). Ebenfalls häufig wurden sowohl allgemeine Vorschläge zur Verbesserung des BP (82,6 %) als auch die Gesamtbeurteilung des Lehrarztes bzw. Weiterempfehlung der Lehrpraxis (jeweils 82,6 %) erfragt.

Diskussion

Die Analyse der Evaluationsmethoden des BP Allgemeinmedizin ergab in Abhängigkeit von der Organisation der BP trotz einiger Übereinstimmungen hinsichtlich Evaluationsthemen eine große Heterogenität. Unterschiede zeigten sich insbesondere in der Organisation der BP, der Evaluationsmethodik und der Evaluationsinhalte.

Organisation der Blockpraktika

Praktikumsdauer und die zeitliche Platzierung waren unseren Ergebnissen zufolge sehr unterschiedlich geregelt, was den Erfahrungen aus dem Sektionsbericht der DEGAM entspricht [9].

Es obliegt den einzelnen Fakultäten, wie das BP organisatorisch und inhaltlich konkret aufgebaut ist und auch wie dessen Evaluation gestaltet wird. In Deutschland existieren allgemeine Vorgaben, dass BP „Veranstaltungen von ein- bis sechswöchiger Dauer zur Differenzialdiagnostik und -therapie der wichtigsten Krankheitsbilder unter Bedingungen des klinischen und ambulanten medizinischen Alltags“ sind [1, § 2 Abs. 3]. Gemessen an den Vorgaben der AO, wonach mind. die Hälfte der Unterrichtszeit eines Praktikums am Patienten gelehrt werden sollte, ist von einer Mindeststundendauer eines BPs von 15 Zeitstunden auszugehen. Demnach erfüllen zwei Standorte (5,2 %) diese gesetzlichen Vorgaben nicht (Abb. 1).

Gesetzlich ist außerdem festgeschrieben, dass universitäre Lehrveranstaltungen evaluiert werden müssen [10, 11]. An einigen Standorten besteht auch durch die Vergabe von leistungsorientierten Mitteln (LOM) ein monetärer Anreiz, diesen organisatorischen Vorgaben nachzukommen.

Evaluationsmethodik

80 % der teilnehmenden Standorte kamen der gesetzlich vorgeschriebenen Evaluationspflicht nach und ließen die Studierenden das BP bewerten. 20 % der Standorte nahmen keine eigenständige Evaluation vor. Möglicherweise fand hier die Evaluation im Rahmen einer Gesamtevaluation der Fakultät statt.

Knapp die Hälfte der Standorte gab in der Fragebogenuntersuchung (Teilprojekt 2) an, dass auch die Lehrärzte das BP evaluieren. Nur zwei Standorte sandten einen entsprechenden vom Lehrarzt auszufüllenden Evaluationsbogen zu (Teilprojekt 1). Möglicherweise lag ein Missverständnis zur Frage vor, ob Lehrärzte auch das BP bewerten: Leistungsbewertung der Studierenden wurde evtl. mit der Evaluation des BP gleichgesetzt. Dass Lehrärzte eher seltener um eine schriftliche Evaluation gebeten werden, könnte auch mit den in fast allen Institutionen regelmäßig durchgeführten Lehrarzttreffen zusammenhängen. Hier besteht in der Regel Gelegenheit für mündliche Rückmeldungen.

Fast alle evaluierenden Standorte führten eine teilstandardisierte quantitative Evaluation durch, lediglich ein Standort plante die Durchführung einer qualitativen Evaluation.

Der hohe Anteil von quantitativen Erhebungsmethoden zur Evaluation der BP mag sich aus der einfacheren Auswertbarkeit, besseren Vergleichbarkeit sowie bereits vorliegender methodischer Erfahrungen ergeben. Darüber hinaus wurden von vielen Abteilungen mit offenen Fragen auch qualitative Ansätze verfolgt, obwohl dies einen erheblichen Mehraufwand für die Auswertung bedeutet.

Die jeweils eingesetzten Evaluationsmethoden haben Vor- und Nachteile: Mit der quantitativen Befragungsmethodik können beispielsweise eine hohe Standardisierung und gute Reliabilität erreicht werden, speziell, wenn sie nach bereits validierten Richtlinien erfolgt [12]. Quantitative Evaluationsbögen sind relativ zeitsparend in Anwendung, Beantwortung und Auswertung und sind an einigen Standorten durch ein zentrales Evaluationssystem der Fakultät vorgegeben. Jedoch besteht unabhängig von Fakultätsvorgaben für jeden Standort grundsätzlich die Möglichkeit, zusätzlich qualitative Verfahren einzusetzen.

Qualitative Befragungen sind zeitaufwendiger, sowohl in der Datenerhebung als auch bei der Auswertung. Es wird versucht, eine systematische Kategorisierung der verbalen Daten vorzunehmen, basierend auf den interpretativen Deutungen der Äußerungen [13]. Der Vorteil gegenüber quantitativen Fragebögen liegt in der „offenen“ Erfassung von Aussagen (Kritik, Lob etc.), die mit einem standardisierten Fragebogen ohne offene Fragen nicht erfasst worden wären (vgl. sog. Mehrgewinn [14]).

Der Evaluationszeitpunkt kann Einfluss auf das Antwortverhalten nehmen (sog. response bias). Die Befragung vor der Scheinvergabe kann möglicherweise mehr erwünschte Antworten produzieren. Vorteil ist jedoch sicherlich der (auch durch die vorliegenden Erhebungsergebnisse bestätigte) wesentlich höhere Fragebogenrücklauf, der dann meist einer Vollerhebung gleichkommt und (zumindest quantitativ) dem Evaluationsprozess förderlich ist.

Demgegenüber sinkt die Motivation der Studierenden, sich nach Scheinvergabe an der Evaluation zu beteiligen, da sie dann keinen direkten Nutzen davon haben [12]. Andererseits kann auch die (Un-) Zufriedenheit der Studierenden mit der Benotung das Evaluationsverhalten beeinflussen.

Bei der Evaluation des BP gab es auch Unterschiede bezüglich der Freiwilligkeit. Der deutlich geringere Fragebogenrücklauf bei freiwilligen Befragungen wurde auch von anderen Autoren beschrieben [15].

Eine Pflicht zur Evaluation (bspw. Evaluationsabgabe gebunden an Scheinvergabe) verbessert zwar die Aussagekraft der Ergebnisse, widerspricht jedoch der gesetzlich vorgegebenen Freiwilligkeit von Evaluation [16]. Dem gegenüber ist bei freiwilliger Erhebung eine höhere Glaubwürdigkeit der Antworten zu erwarten, da mit einem geringeren Anteil unmotiviert gegebener Antworten zu rechnen ist. Allerdings ist ein Selektionsbias durch besonders motivierte oder frustrierte Studierende möglich.

Evaluationsinhalte

Die Bewertung der Qualität einer Bildungsmaßnahme ist multidimensional und stark abhängig von den ablaufenden Prozessen bzw. den Standpunkten der Beteiligten [17]. Diese Multidimensionalität schlägt sich auch in der Heterogenität der abgefragten Evaluationsinhalte nieder.

Ob Unterschiede in den Abläufen des BPs oder in den Auffassungen darüber, was die Qualität eines BPs ausmacht, für diese Heterogenität verantwortlich sind, lässt sich aus unseren Daten nicht ableiten. Auffällig, jedoch nicht unerwartet, ist der hohe Anteil an Fragen, die den Lernprozess betreffen, was als ein Hinweis auf eine Optimierungsbereitschaft bzgl. der Organisation und Inhalte der BP gedeutet werden könnte. Wie in Lehrevaluationen üblich, stand dabei die Bewertung der fachlichen Wissensvermittlung im Vordergrund. Darüber hinaus wurden bei der Mehrheit der allgemeinmedizinischen Standorte die Studierenden auch um die Bewertung des Interesses des Lehrarztes an der studentischen Lernsituation und um die Angabe der Möglichkeit zu selbstständigem Arbeiten und Teilnahme an Hausbesuchen gebeten. Generell stehen bei Selbstevaluation (interne Evaluation) und Fremdevaluation (externe Evaluation) der Hochschulen die Aspekte der Qualitätssicherung und -verbesserung im Vordergrund. Demgegenüber treten Ziele wie mehr Transparenz durch validere Informationen, Rechenschaftslegung oder Profilbildung, Wettbewerb und Vergleich (bzw. Ranking) eher in den Hintergrund [18].

Stärken und Limitationen der Untersuchung

Als Stärke der vorliegenden Daten ist die hohe Rücklaufquote von über 80 % zu nennen, die der angestrebten Vollerhebung nahekommt.

Die kleine Anzahl der nicht rückmeldenden Abteilungen könnte zu einem gewissen Selektionseffekt geführt haben, eine Non-Responder-Analyse wurde nicht durchgeführt. Der von unserer Gruppe entwickelte Fragebogen zur Informationsakquise wurde nicht validiert. Daher besteht die Möglichkeit, dass verschiedene Fragen nicht klar genug gestellt waren und demnach von den Standorten unterschiedlich verstanden und beantwortet wurden.

Die Frageninhalte der Evaluationsbögen der einzelnen Standorte sind sehr heterogen. Um eine Vergleichbarkeit zu erreichen, war eine Kategorisierung in Frageninhalte und Themengebiete nötig. Obwohl die endgültige Kategorisierung als Konsensusentscheidung der Arbeitsgruppe erfolgte, ist ein Bias durch unterschiedliche Interpretation von Frageninhalten nicht auszuschließen.

Auch wurden die Rahmenbedingungen der einzelnen BP nicht umfassend erfasst, sie können jedoch Einfluss auf die Ausgestaltung der Evaluationen nehmen. Dieser Zusammenhang sollte in der zukünftigen Forschung zu diesem Thema geprüft werden.

Ausblick

Eine langfristige Intention der Arbeitsgruppe besteht in der Entwicklung eines validierten Evaluationsbogens („Baukasten“ aus verschiedenen, flexibel nutzbaren Evaluationsmodulen), der die wichtigsten Aspekte der verschiedenen Evaluationsprogramme in sich vereinigt. Die individuelle Auswahl der Module würde den Schwerpunkten und Zielsetzungen der BP der einzelnen Institute gerecht werden. Die Vergleichbarkeit zwischen den Standorten wäre innerhalb der Evaluationsmodule gegeben, um inhaltliche Verbesserungen der Lehre anzuregen, auch unabhängig von zentraler universitärer Evaluation. Es sei an dieser Stelle explizit erwähnt, dass damit kein Ranking zwischen den Standorten intendiert ist. Perspektivisch erscheint es so möglich, dass die Abteilungen untereinander von ihren Innovationen profitieren können.

Interessenkonflikte: Die meisten Autor/innen dieses Artikels sind in der medizinischen Lehre tätig und stellen sich den Evaluationen ihrer Lehrveranstaltungen.

Korrespondenzadresse

Dr. rer. medic. Dipl.-Soz. Karen Voigt, MPH

Bereich Allgemeinmedizin/<br/>Medizinische Klinik 3

Technische Universität Dresden

Fetscherstr. 74, 01307 Dresden

Tel.: 0351 4582203

Karen.Voigt@uniklinikum-dresden.de

Literatur

1. Approbationsordnung für Ärzte vom 27. Juni 2002 (BGBl. I S. 2405), zuletzt durch Artikel 30 des Gesetzes vom 6. Dezember 2011 (BGBl. I S. 2515) geändert

2. Beschluss des Bundesrates vom 11.5.2012, Drucksache 238/12 (Beschluss)/Grunddrucksache 862/11

3. Swanwick T. Association for the Study of Medical Education. Understanding medical education: evidence, theory and practice. Chichester, West Sussex: Wiley-Blackwell, 2010

4. Kern DE, Thomas PA, Hughes MT. Curriculum development for medical education: a six-step approach. Baltimore: Johns Hopkins University Press, 2009

5. Rindermann H. Lehrevaluation – Einführung und Überblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen. Mit einem Beitrag zur Evaluation computerbasierten Unterrichts. Landau: Verlag Empirische Pädagogik, 2009

6. Ditton H. Evaluation und Qualitätssicherung, In: Tippelt RS, Schmidt B (Hrsg.). Handbuch Bildungsforschung. Stuttgart: Springer VS Verlag, 2010: 607–623

7. Bortz J, Döring N. Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Heidelberg: Springer Medizin-Verlag, 2006

8. Mayring P. Die Praxis der qualitativen Inhaltsanalyse. Weinheim und Basel: Beltz Verlag, 2008

9. Baum E, Ehrhardt M. Sektionsbericht der Sektion Lehre. Z Allg Med 2010; 9: 345

10. Hochschulrahmengesetz in der Fassung der Bekanntmachung vom 19. Januar 1999 (BGBl. I S. 18), zuletzt durch Artikel 2 des Gesetzes vom 12. April 2007 (BGBl. I S. 506) geändert: §6

11. Approbationsordnung für Ärzte vom 27. Juni 2002 (BGBl. I S. 2405), zuletzt durch Artikel 30 des Gesetzes vom 6. Dezember 2011 (BGBl. I S. 2515) geändert: §2 Abs. 9

12. Fabry G. Evaluation: Lehre optimieren. In: Fabry G. Medizindidaktik. Ein Handbuch für die Praxis. Bern: Verlag Hans Huber, 2008: 241–243

13. Wiesinger H. Qualitative Methoden nach Mayring, in www.uni-koeln.de/phil-fak/fs-psych/serv_pro/mayring.html: Universität zu Köln. letzter Zugriff: 10.3.2012

14. Kuckartz U. Qualitative Evaluation. Der Einstieg in die Praxis. Vol. 2. Wiesbaden: Verlag für Sozialwissenschaften, 2008

15. Dunker-Schmidt C. Blockpraktikum in der Allgemeinmedizin: 15 Jahre Erfahrung an der Universität Duisburg-Essen. Z Allg Med 2009; 4:171–175

16. Hochschulrahmengesetz in der Fassung der Bekanntmachung vom 19. Januar 1999 (BGBl. I S. 18), zuletzt durch Artikel 2 des Gesetzes vom 12. April 2007 (BGBl. I S. 506) geändert: §6

17. Wellhöfer PR, Rothgang G-W, Busse J. Evaluation der Evaluation. Resonanz auf die Einführung der Evaluation der Lehre bei Lehrenden und Studierenden. Sonderdruck Schriftenreihe der Georg-Simon-Ohm-Fachhochschule Nürnberg Nr. 15. Nürnberg, 2002

18. Reissert R, Carstensen D. Praxis der internen und externen Evaluation, Handbuch zum Verfahren. Hochschul-Informations-System, Kurzinformation „Spezial“. Hannover, 1998

Abbildungen:

Tabelle 1 Teilnahme allgemeinmedizinischer Standorte an Zusendung der Evaluationsmaterialien und Fragebogenuntersuchung (Grundgesamtheit n = 36)

Abbildung 1 Verteilung der Gesamtdauer der Blockpraktika in Stunden (n = 31)?

Tabelle 2 Evaluationsinhalte zur Beurteilung des BP Allgemeinmedizin (Ergebnisse des Teilprojektes 1, 23 Standorte)

Textkasten 1 Zusammenfassung

1 Bereich Allgemeinmedizin/Medizinische Klinik 3, Technische Universität Dresden 2 Arbeitsbereich Allgemeinmedizin, Westfälische Wilhelms-Universität Münster 3 Niedergelassene Allgemeinmedizinerin in Wismar, Lehrärztin der Universität Rostock 4 Niedergelassener Arzt für Allgemeinmedizin in Weyarn 5 Ärztin für Allgemeinmedizin, Berlin 6 Niedergelassene Allgemeinmedizinerin in Weyarn 7 Niedergelassener Allgemeinmediziner in Peterskirchen, Lehrpraxis der Tech- nischen Universität München 8 Niedergelassene Allgemeinmedizinerin in Berlin 9 Institut für Allgemeinmedizin, Friedrich-Schiller-Universität Jena 10 Niedergelassener Allgemeinmediziner in Kirchheim unter Teck, Lehrarzt der Universität Tübingen Peer reviewed article eingereicht: 14.08.2012, akzeptiert: 30.11.2012 DOI 10.3238/zfa.2012.0111–0116

1 Der Einfachheit halber wird im Folgenden nur noch die männliche Begriffsform verwendet, gemeint sind immer Frauen und Männer.


(Stand: 18.03.2013)

Als Abonnent können Sie die vollständigen Artikel gezielt über das Inhaltsverzeichnis der jeweiligen Ausgabe aufrufen. Jeder Artikel lässt sich dann komplett auf der Webseite anzeigen oder als PDF herunterladen.