[Zusammenarbeit, Kooperation, Kommunikation, Kontakt und Kompetenzen ]
Jill E. Thistlethwaite 11 University of Technology Sydney, Health professions education consultant, Adjunct professor, Sydney Australia
Einleitung
Die globale wissenschaftliche Community für interprofessionelle Ausbildung wächst. Englische Muttersprachler wie ich beschränken sich jedoch allzu oft auf die englische Literatur und wissen nur wenig über die Entwicklungen in Ländern, die in den englischsprachigen Zeitschriften unterrepräsentiert sind. Dieses Defizit wurde mir nicht nur durch die Vielfalt der Beiträge in dieser Sonderausgabe des GMS Journal for Medical Education deutlich, sondern auch durch meine jüngsten Erfahrungen als Mitherausgeberin einer Buchreihe zu Führungsrollen für die interprofessionelle Bildung und meine Reisen außerhalb Australiens und Großbritanniens. Die verschiedenen Bücher enthalten sowohl Kapitel aus Indonesien, Japan, Malaysia, Indien, den Philippinen, Kenia und Südafrika als auch aus den in der Literatur häufiger repräsentierten Ländern wie die USA, Großbritannien, Australien, Neuseeland und Kanada [1], [2], [3].
Kompetenzen
Mir wurde die Ehre zuteil, den Leitartikel für diese Sonderausgabe schreiben zu dürfen. Ich möchte daher einige meiner Überlegungen zum aktuellen Stand der interprofessionellen Ausbildung aus meiner Sicht zur Evaluation mit den Leserinnen und Lesern teilen. Des Weiteren möchte ich ausführen, was getan werden muss, um die Nachhaltigkeit zukünftiger Initiativen sicherzustellen. Es ist vielleicht nicht allzu überraschend, dass mir besonders die im Vergleich mit anderen Ländern sehr ähnlichen Schwerpunkte in den deutschen Projekten auffielen. Die fünf englischen C-Wörter Collaboration (Zusammenarbeit), Cooperation (Kooperation), Communication (Kommunikation), Contact (Kontakt) und Competencies (Kompetenzen) werden immer wieder genannt. Die ersten vier können als Beispiele für die angestrebten Ziele der interprofessionellen Ausbildung und interprofessionellen Praxis verstanden werden; sie kommen in den Beiträgen dieses Themenhefts häufig vor. Das letzte „C-Wort“ reflektiert hierbei die kompetenzbasierte Orientierung, die innerhalb der medizinischen und anderen gesundheitsberuflichen Bildungszweige mittlerweile dominiert. Einige Organisationen und Gremien haben die Kompetenzen definiert, die ihrer Meinung nach für die interprofessionelle Praxis notwendig und in der interprofessionellen Ausbildung zu entwickeln sind, beispielsweise die Canadian Interprofessional Health Collaborative (CIHC) [
Bewertung
Ausgehend von der Grundüberlegung, dass Kompetenzen ein Resultat unserer Curricula darstellen, gilt es zu bedenken, wie diese bewertet werden können, da die Mehrzahl der Studierenden Aktivitäten nur dann als wichtig erachten, wenn sie auf irgendeine Weise geprüft werden: die Bewertung „gestaltet auf beeindruckende Weise, wie Studenten lernen und was sie erreichen“ („powerfully frames how students learn and what students achieve“) [
Manchmal erscheint interprofessionelle Ausbildung logistisch so schwierig und die interprofessionellen Dozierenden und Curriculumplanerinnen und - planer scheinen so wenig Unterstützung zu erhalten, dass wir grundlegende didaktische Prinzipien wie „curriculum alignment“ vergessen [11]. Unsere aktuelle Umfrage in Australien hat jedenfalls gezeigt, dass die meisten interprofessionellen Ausbildungsprojekte ausschließlich über die Anwesenheit der Studierenden bewertet werden [
Evaluation
Auch wenn das Kirkpatrick-Modell für die Planung der Evaluation angewendet wird, befassen sich die meisten publizierten Evaluationsstudien von interprofessioneller Ausbildung nach wie vor mit der Reaktion der Lernenden, der Änderung von Haltungen und dem Wissenserwerb und in aller Regel nicht mit der Leistung im Lern- und Arbeitsumfeld [14]. Auch dies ist nicht überraschend, wenn man die Schwierigkeiten der arbeitsplatz-basierten Beobachtung und Prüfung bedenkt. Die Zufriedenheit der Lernenden ist zweifelsohne wichtig und notwendig, als Nachweis für den Nutzen jedoch nicht ausreichend. Der grossen Mehrheit der Studierenden scheint die interprofessionelle Ausbildung zu gefallen; sie bewerten die interprofessionellen Erfahrungen positiv, wobei zwischen den verschiedenen Programmen, Instituten, Regionen und Ländern große Unterschiede in Format, Einbindung, Ort und zeitlicher Planung der interprofessionellen Ausbildung bestehen. Berger et al. aus Heidelberg haben ein neu eingeführtes interprofessionelles Seminar bewertet und dabei zeigen können, dass die Studierenden, die interprofessionell lernen und arbeiten die Erfahrung positiver bewerten als Studierende die in uniprofessionellen Gruppen lernen [15]. Flentje et al. bewerteten eine interprofessionellen Simulationsübung: Die Teilnehmenden selbst gaben an, dass sie ihre Fähigkeiten zur Zusammenarbeit besonders bezüglich der Kommunikation verbessern konnten [16]. Die Universitätsmedizin Greifswald hat ebenfalls eine Simulationsübung eingeführt, die sich auf klinische Notfallsituationen bezieht und für Medizin- und Pflegestudierende, sowie weitere Gesundheitsfachberufe vorgesehen ist. Die Simulation wurde von den Teilnehmenden sehr gut bewertet [17]. In Mannheim lernen derweil die Studierenden der Medizin und der Physiotherapie in gemeinsamen Teams, wobei sich die Meinungen zu den Resultaten zwischen den beiden Gruppen etwas unterscheiden [18]. Da Medizin- und Physiotherapiestudierende gemeinsame Kompetenzen im Bereich der rheumatischen und muskuloskelettalen Erkrankungen haben, haben diese die Grundlage für die erfolgreiche Einführung eines interprofessionellen Lernprozesses für diese zwei Gruppen gebildet [19].
Bezüglich der Lernzieldomäne Haltungen und Einstellungen haben die häufig verwendeten Instrumente wie RIPLS („Readiness for Interprofessional Learning Scale“) [20] und IEPS („Interdisciplinary Education Perception Scale“) [21] innerhalb von neueren Publikationen nur selten eine Veränderung nachgewiesen, wenn sie vor und nach den curricularen Interventionen angewandt wurden. Zu Beginn sind die Studierenden positiv gestimmt, weil sie sich entweder freiwillig für fakultative interprofessionelle Erfahrungen gemeldet haben oder weil die interprofessionelle Ausbildung inzwischen ein allgemein anerkannterer Teil des Curriculums ist.
Ausschließlich auf Ergebnisse gerichtete Herangehensweisen dürfen und sollten wir durchaus kritisch betrachten. Ansätze, die interprofessionelle Ausbildung und interprofessionelle Praxis im Rahmen theoretischer Konzepte zu bewerten [22], [23] um so die wissenschaftliche Basis zu erweitern und einen Kontext herzustellen, betonen die Notwendigkeit, das Wesen der interprofessionellen Ausbildung und Praxis und deren Interaktionen zu erforschen. Bis heute haben allerdings nur wenige der Evaluationsstudien spezifische Theorien zitiert, die den jeweiligen Ansatz verdeutlichen, wobei die Theorie der Erwachsenenbildung nach wie vor häufig implizit eingebunden ist (wie Barr et al. bereits 2005 feststellen [24]). Wenn Bezüge zu Theorien hergestellt werden, stammen diese aus unterschiedlichen Disziplinen, wie z. B. der Pädagogik, Psychologie und besonders der Soziologie [25]. Hean et al. haben beispielsweise die soziokulturelle Theorie mit ihrem Schwerpunkt auf den sozialen Aspekt des Lernens (mit, von und über) in ihren Empfehlungen zu für die interprofessionelle Ausbildung relevanten Theorien in den Vordergrund gestellt [26]. Posenau und Peters konzentrieren sich in ihrem Beitrag im vorliegenden Themenheft mit Bezügen zur Linguistik auf die Kommunikation, um mit Hilfe eines quantitativen Ansatzes professionelle Marker in den Gesprächen zu analysieren, die im Rahmen von interprofessionellen Simulationen geführt werden [27].
Kontext-Mechanismus-gesteuerte Evaluation/Realist Evaluation
Die Evaluation von Resultaten geht davon aus, dass zwischen Input und Output ein kausaler Zusammenhang besteht. Der Raum zwischen Input und Output wurde als „Black Box“ [28] bezeichnet und so ist bei quantitativen Ansätzen nur selten erkennbar, was in dieser Box vorgeht. Warum entwickeln manche Studierenden die Fähigkeit zur Zusammenarbeit und andere nicht, obwohl die curriculare Intervention dieselbe war? Wie stellen Dozierende sicher, dass alle Studierenden am Ende von klinischen Programmen, die je nach Ort, Wahrnehmung, Dauer, zeitlicher Planung und Zugang zu Patienten verschiedene Erfahrungen hinterlassen, dieselben definierten Lernziele erreichen? Darüber hinaus sind Initiativen zur Ausbildung von Gesundheitsexperten so komplex, dass sie nur selten binär auswertbar sind: sie sind weder „effektiv“ noch „ineffektiv“ und die Studierenden sind nur selten entweder „in der Lage“ oder „nicht in der Lage“, komplexe Aufgaben auszuführen, selbst, wenn wir definieren können, wie diese Befähigung aussieht.
Eine häufige Form von Publikationen innerhalb der interprofessionellen Literatur beschreibt eine Lernaktivität, bei der Studierende aus drei oder vier verschiedenen Berufszweigen einen Patienten zu dessen Erfahrungen mit einer lang anhaltenden Erkrankung befragen. Jede Studentin und jeder Student hat bis dahin eine berufsspezifische Herangehensweise an die Anamnese gelernt. Indem die Studierenden nun gegenseitig ihre Fragen und Sprache beobachten und die Gemeinsamkeiten und Unterschiede ihrer Herangehensweisen diskutieren, sollen die Studierenden Verständnis für ihre jeweiligen Rollen in Bezug auf eine bestimmte medizinische Problemstellung entwickeln. Nehmen wir einmal an, die Studierenden hätten vor dieser Übung einen Test zu beruflichen Rollen und würden diesen Test zwei Wochen nach der Übung wiederholen. Die Studierenden würden ebenfalls gebeten, vor und nach der Übung anzugeben, inwieweit sie sich zutrauen, mit anderen Gesundheitsfachberufen zusammenzuarbeiten. Die Bewertungen der Studenten würden zeigen, dass 85% ihr Wissen erweitert haben, die restlichen 15% jedoch nicht; 70% würden angeben an, dass ihr Selbstvertrauen in der Zusammenarbeit mit anderen Gesundheitsfachberufen gestiegen sei, bei 20% hätte sich nichts verändert und bei 10% wäre das Selbstvertrauen gesunken. Diese Zahlen würden nahelegen, dass die Aktivität insgesamt effektiv war, da die Mehrheit der Studierenden positive Veränderungen angab. Wir können aus diesem Ergebnis jedoch nicht ablesen, warum bestimmte Studierende etwas gelernt haben und andere nicht, warum sich manche nun mehr zutrauen und andere weniger. Wir können einige Hypothesen aufstellen, wie diese Diskrepanz entstanden ist: unterschiedliche Motivation und verschiedenes Engagement der Studierenden; fehlende Vorbereitung; Unterschiede in den Patientenerfahrungen; die berufliche Zusammensetzung der Gruppen; verschiedene Dozierende; die Evaluationsmethode usw. Wir wissen außerdem, dass die Eigenbewertung des Selbstvertrauens der Studierenden eher ein schlechtes Maß für die tatsächlichen Veränderungen ist und dass manche Studierenden sich besser selbst einschätzen können als andere.
Um die Ursachen für dieses Ergebnisse zu begreifen, ,müssen wir eine Prozessevaluation vornehmen, um mögliche Faktoren identifizieren zu können, die die Effektivität beeinflussen könnten. Die „Realist Evaluation“ ist eine Art Prozessevaluation, welche folgende Frage beantworten soll: was funktioniert für wen, unter welchen Umständen, inwiefern, in welchem Ausmaß und warum [29]? Ein solcher Ansatz ist zeitaufwendig und wird daher kaum verfolgt, sofern nicht die notwendige Finanzierung verfügbar ist, wobei Programmevaluationen selten gut finanziert werden.. Solche realistischen Methoden erfordern eingehende Fallstudien begleitet von reflexiven Fragestellungen, warum in einer bestimmten Situation ein bestimmter Input zu einem bestimmten Ergebnis führte, ein anderes Mal jedoch zum entgegengesetzten Ergebnis [30]. Diese Evalutionsmethode wurde ursprünglich entwickelt, um komplexe soziale Vorgänge zu erforschen, wie zum Beispiel Kampagnen zur Bewerbung von sicheren Sexualpraktiken, die davon abhängen, wie verschiedene Menschen auf denselben Input reagieren, um die erwünschten Ergebnisse zu erzeugen [31].
Die „Realist Evaluation“ oder auch Kontext-Mechanismus-gesteuerte Evaluation wird als nützliche Methode für die medizinische Ausbildung angesehen, da auch hier komplexe Vorgänge stattfinden [32]. In einer Institution effektiv erscheinende interprofessionelle Ausbildungsprogramme können in einer anderen Einrichtung desaströs sein, da kontextuelle Unterschiede nicht immer offensichtlich sind oder beachtet werden. Der deutsche Kontext unterscheidet sich zum Beispiel von einigen europäischen Ländern, da wie bereits oben erwähnt die Pflege dort in aller Regel keine universitäre Ausbildung ist. Es kann also hier gefragt werden, wie sich dieser Unterschied auf das Lernverhalten der Studierenden aus wirkt.
Realismus ist eine wissenschaftliche Philosophie zwischen Positivismus und Relativismus/Konstruktivismus [33]. Realisten widersprechen dem positivistischen Standpunkt von Kausalität mit der Verschmelzung aus einfachen Beobachtungen und Beschreibungen von Geschehnissen mit Erklärungen [34]. Der realistische Evaluator versucht, zugrunde liegende kausale Mechanismen zu erklären und aufzudecken, wie die Ergebnisse durch den Kontext beeinflusst werden: Kontext (Context, C) + Mechanismus (Mechanism, M) = Ergebnis (Outcome, O) [35]. Ein Mechanismus wird hierbei als „zugrunde liegende Einheit, Struktur oder zugrunde liegender Prozess [definiert], der/die in bestimmten Kontexten Ergebnisse von Interesse erzeugt“ [28].
Fazit
Wenn wir keine Erklärung für die Geschehnisse innerhalb der „Black Box“ der interprofessionellen Ausbildung liefern können und keine Evidenz für die Effektivität bezüglich erreichter Ergebnisse innerhalb der interprofessionellen Ausbildung, einschließlich Zusammenarbeit, Kooperation und Kommunikation generieren können, wird es schwierig sein, innerhalb der Bildungsinstitutionen für Unterstützung für die interprofessionelle Ausbildung zu werben. Aufgrund der ständigen Erweiterung des medizinischen Wissens sind die Curricula in der Medizin und den Gesundheitsfachberufen in aller Regel intensiv und äusserst umfassend. Neue Lerninhalte oder Module, die beispielsweise Professionalität, Belastbarkeit und Führungsqualitäten vermitteln sollen, werden zusätzlich gefordert. Zudem ist die Finanzierung des Hochschulwesens in vielen Ländern rückläufig oder die Anzahl der Studierenden steigt, ohne dass zusätzliche Ressourcen zur Verfügung gestellt werden. Wir müssen als didaktische Experten, klinische Wissenschaftler und Experten für Interprofessionalität qualitativ hochwertige Evaluationsinstrumente und – studien sowie spezifische Forschung in unsere Kurse integrieren. Wir müssen in der Lage sein, zumindest einige der Fragen nach Evidenzen zu beantworten – auch wenn die Fragen nicht völlig in unserem Sinne formuliert sind. Die in diesem Themenheft publizierten Beiträge tragen zur notwendigen Erweiterung der Literatur im Bereich der interprofessionellen Ausbildung bei und können allen Dozierenden, Bildungsforschenden und Curriculumplanenden in Medizin und den Gesundheitsfachberufen in Deutschland zur Pflichtlektüre empfohlen werden.
Interessenkonflikt
Die Autorin erklärt, dass sie keine Interessenkonflikt im Zusammenhang mit diesem Artikel hat.
Literatur
[1] Forman D, Jones M, Thistlethwaite J. Leadership Development for Interprofessional Education and Collaborative Practice. Basingstoke: Palgrave; 2014. DOI: 10.1057/9781137363022[2] Forman D, Jones M, Thistlethwaite J. Leadership and Collaboration: Further Developments for Interprofessional Education. Basingstoke: Palgrave; 2015.
[3] Forman D, Jones M, Thistlethwaite J. Leading Research and Evaluation in Interprofessional Education and Collaborative Practice. London: Palgrave Macmillan; 2016. (in press)
[4] Lurie SJ. History and practice of competency-based assessment. Med Educ. 2012;46(1):49-57. DOI: 10.1111/j.1365-2923.2011.04142.x
[5] Thistlethwaite JE, Forman D, Matthews LR, Rodgers GD, Szeketee C, Yassine T. Interprofessional education competencies and frameworks in health: A comparative analysis. Acad Med. 2014;89(6):869-874. DOI: 10.1097/ACM.0000000000000249
[6] Bachmann C, Kiessling C, Härtl A, Haak R. A European consensus on inter- and multi- professional training objectives in a German translation. GMS J Med Educ. 2016;33(2):Doc23. DOI: 10.3205/zma001022
[7] Eich-Krohm A, Kaufmann A, Winkler-Stuck K, Werwick K, Spura A, Robra BP. First Contact: interprofessional education based on medical students' experiences from their nursing internship. GMS J Med Educ. 2016;33(2):Doc20. DOI: 10.3205/zma001019
[8] Bohrer A, Heinze C, Höppner H, Behrend R, Czakert J, Hitzblech t, Kaufmann I, Maaz A, Räbiger J, Peters H. Berlin in motion: interprofessional education and learning for students in the fields of medicine, occupational therapy, physiotherapy and nursing (INTER-M-E-P-P). GMS J Med Educ. 2016;33(2):Doc34. DOI: 10.3205/zma001033
[9] Nowak AC, Klimke-Jung K, Schäfer T, Relf K. Interprofessional relations in health care: a learning project with four learning units for students from six degree programs. GMS J Med Educ. 2016;33(2):Doc29. DOI: 10.3205/zma001028
[10] Thistlethwaite J, Moran M; World Health Organization Study Group on Interprofessional Education and Collaborative Practice. Learning outcomes for interprofessional education (IPE): literature review and synthesis. J Interprof Care. 2010;24(5):503-513. DOI: 10.3109/13561820.2010.483366
[11] Biggs JB, Tang C. Teaching for quality learning at university: What the student does. 3rd ed. Maidenhead: McGraw-Hill/Society for Research in Higher Education and Open University Press; 2007.
[12] Barr H, Freeth D, Hammick M, Koppel I, Reeves S. Evaluations for Interprofessional Education. A United Kingdom Review for Health and Social Care. London: CAIPE/BERA; 2000.
[13] Institute of Medicine. Measuring the Impact of Interprofessional Education (IPE) on Collaborative Practice and Patient Outcomes. Washington, D.C.: Institute of Medicine; 2015.
[14] Thistlethwaite J, Kumar K, Moran M, Saunders R, Carr S. An exploratory review of pre-qualification interprofessional education evaluations. J Interprof Care. 2015;29(4):292-297. DOI: 10.3109/13561820.2014.985292
[15] Berger S, Mahler C, Krug B, Szecsenyi J, Schultz J. Evaluation of interprofessional education: lessons learned through the development and implementation of an interprofessional seminar on team communication for undergraduate health care students in Heidelberg. GMS J Med Educ. 2016;33(2):Doc22. DOI: 10.3205/zma001021
[16] Flentje M, Müssel T, Henzel B, Jantzen JP. Simulating a patient's fall as a method to improve routine communication. GMS J Med Educ. 2016;33(2):Doc19. DOI: 10.3205/zma101018
[17] Partecke M, Balzer C, Finkenzeller I, Reppenhagen C, Hess U, Hahnenkamp K, Meissner K. Interprofessional learning at the University of Greifswald Medical School: pedagogical approach and practical application of team training for medical and nursing students in the context of a medical emergency. GMS J Med Educ. 2016;33(2):Doc32. DOI: 10.3205/zma001031
[18] Mette M, Dölken M, Hinrichs J, Narciss E, Schüttpelz-Brauns K, Weihrauch U, Fritz HM. Comprehension through cooperation: medical students and students of physiotherapy learn in teams –introducing interprofessional learning at the University Medical Centre Mannheim. GMS J Med Educ. 2016;33(2):Doc31. DOI: 10.3205/zma001032
[19] Sander O, Schmidt RA, Rehkämper G, Lögters T, Zilkens C, Schneider M. Interprofessional education as part of becoming a doctor or physiotherapist in a competency-based curriculum. GMS J Med Educ. 2016;33:Doc15. DOI: 10.3205/zma001014
[20] Parsell G, Bligh J. The development of a questionnaire to assess the readiness of health care students for interprofessional learning (RIPLS). Med Educ. 1999;33(2):95-100. DOI: 10.1046/j.1365-2923.1999.00298.x
[21] Luecht RM, Madsen MK, Taugher MP, Petterson BJ. Assessing professional perceptions: design and validation of an Interdisciplinary Education Perception Scale. J Allied Health. 1990;19(2):181-191.
[22] Hean S, Anderson E, Green C, John C, Pitt R, O'Halloran C. Reviews of theoretical frameworks: Challenges and judging the quality of theory application. Med Teach. 2015:1-8 [Epub ahead of print]. DOI: 10.3109/0142159X.2015.1075648
[23] Thistlethwaite J; GRIN Working Group. Introducing the Global Research Interprofessional Network (GRIN). J Interprof Care. 2013;27(2):107-109. DOI: 10.3109/13561820.2012.718814
[24] Barr H, Koppel I, Reeves S, Hammick M, Freeth D. Effective interprofessional education: assumption, argument and evidence. London: Blackwell; 2005. DOI: 10.1002/9780470776445
[25] Thistlethwaite J. Interprofessional education: a review of context, learning and the research agenda. Med Educ. 2012;46(1):58-70. DOI: 10.1111/j.1365-2923.2011.04143.x
[26] Hean S, Craddock D, O'Halloran C. Learning theories and interprofessional education: a user's guide. Learn Health Soc Care. 2009;8:250-262. DOI: 10.1111/j.1473-6861.2009.00227.x
[27] Posenau A, Peters T. Communicative positioning of one's own position in interprofessional settings. GMS J Med Educ. 2016;33(2):Doc27. DOI: 10.3205/zma001026
[28] Astbury B, Leeuw F. Unpacking black boxes: Mechanisms and theory building in evaluation. Am J Eval. 2010;3:363–381. DOI: 10.1177/1098214010371972
[29] Pawson R, Tilley N. Realistic evaluation. London: Sage; 1997.
[30] Maxwell JA. A realist approach for qualitative research. London: Sage; 2012.
[31] Pawson R, Greenhalgh T, Harvey G, Walshe K. Realist review – a new method of systematic review designed for complex policy interventions. J Health Serv Res Policy. 2005;10(Suppl 1):21-34. DOI: 10.1258/1355819054308530
[32] Wong G, Greenhalgh T, Westhorp G, Pawson R. Realist methods in medical education research: what are they and what can they contribute? Med Educ. 2012;46(1):89-96. DOI: 10.1111/j.1365-2923.2011.04045.x
[33] Elder-Vass D. The reality of social construction. Cambridge: Cambridge University Press; 2012. DOI: 10.1017/CBO9781139169202
[34] Thistlethwaite JE. When I say … realism. Med Educ. 2015;49(5):459-460. DOI: 10.1111/medu.12641
[35] Pawson R. The science of evaluation. London: Sage; 2013.