<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000767</Identifier>
    <IdentifierDoi>10.3205/zma000767</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0007672</IdentifierUrn>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <ArticleType language="en">research article</ArticleType>
    <TitleGroup>
      <Title language="de">Aufwandsanalyse f&#252;r computerunterst&#252;tzte Multiple-Choice Papierklausuren</Title>
      <TitleTranslated language="en">Cost analysis for computer supported multiple-choice paper examinations</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Mandel</Lastname>
          <LastnameHeading>Mandel</LastnameHeading>
          <Firstname>Alexander</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;t W&#252;rzburg, Medizinische Fakult&#228;t, Studiendekanat, W&#252;rzburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Wuerzburg University, Medical Faculty, Wuerzburg, Germany</Affiliation>
        </Address>
        <Email>e&#95;mandel&#95;a&#64;klinik.uni-wuerzburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>H&#246;rnlein</Lastname>
          <LastnameHeading>H&#246;rnlein</LastnameHeading>
          <Firstname>Alexander</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;t W&#252;rzburg, Fakult&#228;t f&#252;r Mathematik und Informatik, Lehrstuhl f&#252;r K&#252;nstliche Intelligenz und Angewandte Informatik, W&#252;rzburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Wuerzburg University, Faculty of Mathematics and Computer Science, Chair of Artificial Intelligence and Applied Informatics, Wuerzburg, Germany</Affiliation>
        </Address>
        <Email>hoernlein&#64;informatik.uni-wuerzburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Ifland</Lastname>
          <LastnameHeading>Ifland</LastnameHeading>
          <Firstname>Marianus</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;t W&#252;rzburg, Fakult&#228;t f&#252;r Mathematik und Informatik, Lehrstuhl f&#252;r K&#252;nstliche Intelligenz und Angewandte Informatik, W&#252;rzburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Wuerzburg University, Faculty of Mathematics and Computer Science, Chair of Artificial Intelligence and Applied Informatics, Wuerzburg, Germany</Affiliation>
        </Address>
        <Email>iflandf&#64;informatik.uni-wuerzburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>L&#252;neburg</Lastname>
          <LastnameHeading>L&#252;neburg</LastnameHeading>
          <Firstname>Edeltraud</Firstname>
          <Initials>E</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;t W&#252;rzburg, Medizinische Fakult&#228;t, Studiendekanat, W&#252;rzburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Wuerzburg University, Medical Faculty, Wuerzburg, Germany</Affiliation>
        </Address>
        <Email>lueneburg&#95;e&#64;klinik.uni-wuerzburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Deckert</Lastname>
          <LastnameHeading>Deckert</LastnameHeading>
          <Firstname>J&#252;rgen</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;t W&#252;rzburg, Medizinische Fakult&#228;t, Studiendekanat, W&#252;rzburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Wuerzburg University, Medical Faculty, Wuerzburg, Germany</Affiliation>
        </Address>
        <Email>deckert&#95;j&#64;klinik.uni-wuerzburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Puppe</Lastname>
          <LastnameHeading>Puppe</LastnameHeading>
          <Firstname>Frank</Firstname>
          <Initials>F</Initials>
          <AcademicTitle>Prof. Dr.</AcademicTitle>
        </PersonNames>
        <Address language="de">Universit&#228;t W&#252;rzburg, Fakult&#228;t f&#252;r Mathematik und Informatik, Lehrstuhl f&#252;r K&#252;nstliche Intelligenz und Angewandte Informatik, Am Hubland, 97074 W&#252;rzburg, Deutschland, Tel.: &#43;49 (0)931 &#47;31-86730, Fax: &#43;49 (0)931&#47;31-86732<Affiliation>Universit&#228;t W&#252;rzburg, Fakult&#228;t f&#252;r Mathematik und Informatik, Lehrstuhl f&#252;r K&#252;nstliche Intelligenz und Angewandte Informatik, W&#252;rzburg, Deutschland</Affiliation><WebPage>http:&#47;&#47;www.is.informatik.uni-wuerzburg.de</WebPage></Address>
        <Address language="en">Wuerzburg University, Faculty of Mathematics and Computer Science, Chair of Artificial Intelligence and Applied Informatics, Am Hubland, 97074 Wuerzburg, Germany, Phone: &#43;49 (0)931&#47;31-86730, Fax: &#43;49 (0)931&#47;31-86732<Affiliation>Wuerzburg University, Faculty of Mathematics and Computer Science, Chair of Artificial Intelligence and Applied Informatics, Wuerzburg, Germany</Affiliation></Address>
        <Email>puppe&#64;informatik.uni-wuezrburg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">Educational Measurement (I2.399)</Keyword>
      <Keyword language="en">Self-Evaluation Programs (I2.399.780)</Keyword>
      <Keyword language="en">Multiple-Choice Examination</Keyword>
      <Keyword language="en">Cost Analysis</Keyword>
      <Keyword language="de">Multiple-Choice Pr&#252;fungen</Keyword>
      <Keyword language="de">Automatisierte Pr&#252;fungskorrektur</Keyword>
      <Keyword language="de">Aufwandsanalyse</Keyword>
      <SectionHeading language="en">medicine</SectionHeading>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20100910</DateReceived>
    <DateRevised>20110616</DateRevised>
    <DateAccepted>20110616</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20111115</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>28</Volume>
        <Issue>4</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>55</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Einleitung: </Mark1>Multiple-Choice-Klausuren spielen immer noch eine herausragende Rolle f&#252;r fakult&#228;tsinterne medizinische Pr&#252;fungen. Neben inhaltlichen Arbeiten stellt sich die Frage, wie die technische Abwicklung optimiert werden kann. F&#252;r Dozenten in der Medizin gibt es zunehmend drei Optionen zur Durchf&#252;hrung von MC-Klausuren: Papierklausuren mit oder ohne Computerunterst&#252;tzung oder vollst&#228;ndig elektronische Klausuren. Kritische Faktoren sind der Aufwand f&#252;r die Formatierung der Klausur, der logistische Aufwand bei der Klausurdurchf&#252;hrung, die Qualit&#228;t, Schnelligkeit und der Aufwand der Klausurkorrektur, die Bereitstellung der Dokumente f&#252;r die Einsichtnahme, und die statistische Analyse der Klausurergebnisse.</Pgraph><Pgraph><Mark1>Methoden:</Mark1> An der Universit&#228;t W&#252;rzburg wird seit drei Semestern ein Computerprogramm zur Eingabe und Formatierung der MC-Fragen in medizinischen und anderen Papierklausuren verwendet und optimiert, mit dem im Wintersemester (WS) 2009&#47;2010 elf, im Sommersemester (SS) 2010 zw&#246;lf und im WS 2010&#47;11 dreizehn medizinische Klausuren erstellt und anschlie&#223;end die eingescannten Antwortbl&#228;tter automatisch ausgewertet wurden. In den letzten beiden Semestern wurden die Aufw&#228;nde protokolliert.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Der Aufwand der Formatierung und der Auswertung einschl. nachtr&#228;glicher Anpassung der Auswertung einer Durchschnittsklausur mit ca. 140 Teilnehmern und ca. 35 Fragen ist von 5-7 Stunden f&#252;r Klausuren ohne Komplikation im WS 2009&#47;2010 &#252;ber ca. 2 Stunden im SS 2010 auf ca. 1,5 Stunden im WS 2010&#47;11 gefallen. Einschlie&#223;lich der Klausuren mit Komplikationen bei der Auswertung betrug die durchschnittliche Zeit im SS 2010 ca. 3 Stunden und im WS 10&#47;11 ca. 2,67 Stunden pro Klausur.</Pgraph><Pgraph><Mark1>Diskussion:</Mark1> F&#252;r konventionelle Multiple-Choice-Klausuren bietet die computergest&#252;tzte Formatierung und Auswertung von Papierklausuren einen betr&#228;chtlichen Zeitvorteil f&#252;r die Dozenten im Vergleich zur manuellen Korrektur von Papierklausuren und ben&#246;tigt im Vergleich zu rein elektronischen Klausuren eine deutlich einfachere technische Infrastruktur und weniger Personal bei der Klausurdurchf&#252;hrung. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Introduction:</Mark1> Multiple-choice-examinations are still fundamental for assessment in medical degree programs. In addition to content related research, the optimization of the technical procedure is an important question. Medical examiners face three options: paper-based examinations with or without computer support or completely electronic examinations. Critical aspects are the effort for formatting, the logistic effort during the actual examination, quality, promptness and effort of the correction, the time for making the documents available for inspection by the students, and the statistical analysis of the examination results.</Pgraph><Pgraph><Mark1>Methods:</Mark1> Since three semesters a computer program for input and formatting of MC-questions in medical and other paper-based examinations is used and continuously improved at Wuerzburg University. In the winter semester (WS) 2009&#47;10 eleven, in the summer semester (SS) 2010 twelve and in WS 2010&#47;11 thirteen medical examinations were accomplished with the program and automatically evaluated. For the last two semesters the remaining manual workload was recorded. </Pgraph><Pgraph><Mark1>Results:</Mark1> The cost of the formatting and the subsequent analysis including adjustments of the analysis of an average examination with about 140 participants and about 35 questions was 5-7 hours for exams without complications in the winter semester 2009&#47;2010, about 2 hours in SS 2010 and about 1.5 hours in the winter semester 2010&#47;11. Including exams with complications, the average time was about 3 hours per exam in SS 2010 and 2.67 hours for the WS 10&#47;11. </Pgraph><Pgraph><Mark1>Discussion:</Mark1> For conventional multiple-choice exams the computer-based formatting and evaluation of paper-based exams offers a significant time reduction for lecturers in comparison with the manual correction of paper-based exams and compared to purely electronically conducted exams it needs a much simpler technological infrastructure and fewer staff during the exam.</Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Multiple-Choice (MC) Klausuren spielen immer noch eine herausragende Rolle f&#252;r medizinische Pr&#252;fungen <TextLink reference="8"></TextLink>. Neben inhaltlichen Arbeiten <TextLink reference="9"></TextLink>, <TextLink reference="2"></TextLink> stellt sich die Frage, wie die technische Abwicklung optimiert werden kann. Es gibt drei grundlegende Optionen zur Durchf&#252;hrung von MC-Klausuren: Papierklausuren mit oder ohne Computerunterst&#252;tzung oder elektronische Klausuren: </Pgraph><Pgraph><UnorderedList><ListItem level="1">A. Traditionell erstellt der Dozent eine Papierklausur mit einem Textverarbeitungssystem, druckt die Klausurb&#246;gen, korrigiert die Antworten per Hand und &#252;bertr&#228;gt die Ergebnisse in ein Tabellenkalkulationsprogramm, das die Noten berechnet. </ListItem><ListItem level="1">B. Eine verbesserte Option, f&#252;r die es bereits kommerzielle Software g&#252;nstig zu kaufen gibt, benutzt Computer zum Einscannen der Antworten und zur automatischen Zusammenstellung der Ergebnisse im Tabellenkalkulationsprogramm. </ListItem><ListItem level="1">C. Eine weitergehende Automatisierung ist m&#246;glich, wenn die Studierenden die Klausuren direkt am Computer schreiben, die Ergebnisse auf einen Server &#252;bertragen und automatisch ausgewertet werden. </ListItem></UnorderedList></Pgraph><Pgraph>Die Entscheidung f&#252;r die &#246;konomischste Alternative h&#228;ngt sowohl von der technischen Ausstattung als auch vom gew&#228;hlten Prozessmodell ab, wobei auch das Risiko technischen Versagens zu ber&#252;cksichtigen ist. In diesem Beitrag untersuchen wir die Effizienz der Durchf&#252;hrung von papierbasierten Klausuren mit Computerunterst&#252;tzung (B) und vergleichen diese mit den anderen beiden Alternativen A und C. Im Gegensatz zu B gibt es zu C zahlreiche Publikationen (z.B. <TextLink reference="6"></TextLink>, <TextLink reference="3"></TextLink>), darunter auch Aufwandsanalysen, wobei teilweise verschiedene Hardwarevarianten elektronischer Pr&#252;fungsorganisationen verglichen werden (Nutzung von Laptops der Studierenden vs. Nutzung hochschuleigener Computer in einem speziellen Testcenter bzw. verteilt in CIP-Pools vs. komplettes Outsourcing an eine Firma).</Pgraph><Pgraph>In einigen Publikationen werden auch Referenzwerte f&#252;r Aufw&#228;nde und Kosten konventioneller Pr&#252;fungen zum Vergleich angegeben, auf die wir im Folgenden eingehen. In <TextLink reference="7"></TextLink> werden die Gesamtkosten, die sich aus Investitionskosten, Personalkosten und Druckkosten zusammensetzen, pro schriftlicher Pr&#252;fung bei 96 Pr&#252;fungen pro Jahr &#252;ber einen Zeitraum von 3 Jahren f&#252;r eine einzelne Klausur nach der Option A 1423 &#8364;, nach Option B 1072 &#8364; und nach Option C 1746 &#8364; gesch&#228;tzt. Bez&#252;glich der Zeitaufw&#228;nde zeigt Tabelle 1 <ImgLink imgNo="1" imgType="table"/> einen Vergleich der Sch&#228;tzungen zweier Studien (<TextLink reference="7"></TextLink>, siehe Tabelle 1 <ImgLink imgNo="1" imgType="table"/> und Tabelle 2 <ImgLink imgNo="2" imgType="table"/> und <TextLink reference="1"></TextLink>, Tabelle 27). </Pgraph><Pgraph>Ein Vergleich beider Sch&#228;tzungen zeigt ganz erhebliche Diskrepanzen, die wohl teilweise darauf zur&#252;ckzuf&#252;hren sind, dass bei <TextLink reference="7"></TextLink> von weniger Klausurteilnehmern mit weniger Fragen pro Klausur ausgegangen wird. Insgesamt f&#228;llt auf, dass in <TextLink reference="1"></TextLink> generell wesentlich h&#246;here Zeitaufw&#228;nde kalkuliert werden, wobei die Sch&#228;tzung von 200 Stunden f&#252;r die manuelle Auswertungen bei A (d.h. &#189; Minute pro Frage bei 60 Fragen in 400 Klausuren) wohl auf einem Mix von Freitext-Fragen und geschlossenen Fragen basiert, w&#228;hrend bei C nur geschlossene Fragen zugrundegelegt werden. Weiterhin f&#228;llt auf, dass f&#252;r die Pr&#252;fungsvorbereitung und Pr&#252;fungsdurchf&#252;hrung in <TextLink reference="1"></TextLink> betr&#228;chtliche Aufw&#228;nde f&#252;r Funktionspr&#252;fungen der Computer und Fachaufsichten sowie technischem Support zusammenkommen, w&#228;hrend in den Sch&#228;tzungen von <TextLink reference="7"></TextLink> diese Faktoren vernachl&#228;ssigt werden.</Pgraph><Pgraph>Aus beiden Studien kann ein betr&#228;chtliches Potential f&#252;r die Option B abgeleitet werden, wenn es gelingt, die Vorteile von A mit geringem technischem Aufwand bei der Vorbereitung und Durchf&#252;hrung der Pr&#252;fungen und die Vorteile von C einer geringen Korrekturzeit zu kombinieren. Im Folgenden analysieren wir den Zeitaufwand bei computerunterst&#252;tzen reinen Multiple-Choice Papierklausuren mit automatischer Korrektur der eingescannten Antwortbl&#228;tter. Andere Fragetypen, die eine Zahl- und Texteingabe erfordern, k&#246;nnen zwar mitverwaltet werden, aber m&#252;ssten manuell korrigiert werden. Zur Umsetzung wurde an der Universit&#228;t W&#252;rzburg nach Erfahrungen mit dem kostenpflichtigen spidMED-Service des IMPP &#91;<Hyperlink href="https:&#47;&#47;www.impp.de&#47;spidMED&#47;">https:&#47;&#47;www.impp.de&#47;spidMED&#47;</Hyperlink>&#93; (Link gepr&#252;ft 11.7.2011; Service seit 1.7.11 nicht mehr verf&#252;gbar) sowie einem kommerziellen Programm zur Kreuzerkennung von Multiple-Choice-Klausuren eine Komponente f&#252;r computergest&#252;tzte Papierpr&#252;fungen entwickelt. Da diese Komponente auf einem aus Studiengeb&#252;hren finanzierten universit&#228;tsweiten Framework zur Entwicklung fallbasierter Trainingssysteme aufbaut (vgl. <TextLink reference="5"></TextLink>, <TextLink reference="4"></TextLink>), waren die zus&#228;tzlichen Investitionskosten relativ gering. In Abschnitt 2 werden das Prozessmodell und die kritischen Aspekte computergest&#252;tzter Papierpr&#252;fungen beschrieben, in Abschnitt 3 die technischen Aufw&#228;nde f&#252;r die verschiedenen Phasen der 12 bzw. 13 Klausuren im SS 2010 und im WS 2010&#47;11 pr&#228;sentiert (ohne Ber&#252;cksichtigung der inhaltlichen Arbeit) und in Abschnitt 4 die Option B auf qualitativer Ebene mit den Optionen A und C verglichen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>Multiple Choice (MC) exams still play a prominent role for medical tests <TextLink reference="8"></TextLink>. In addition to substantive work <TextLink reference="9"></TextLink>, <TextLink reference="2"></TextLink> the question of how the technical aspects can be optimized appears. There are three basic options for the implementation of MC-exams: exam papers with or without computer support or electronic examinations: </Pgraph><Pgraph><UnorderedList><ListItem level="1">A. Traditionally, the instructor creates an exam paper with a word processing system that prints out the exam sheets, corrects the answers by hand, and transmits the results to a spreadsheet program that calculates the scores. </ListItem><ListItem level="1">B. A better option, for which there is already commercial software to buy, uses computers to scan the responses and to automatically insert the results in a spreadsheet program.  </ListItem><ListItem level="1">C. A further automation is possible if the students directly write their exams on the computer with the results being transmitted to a server and automatically evaluated afterwards. </ListItem></UnorderedList></Pgraph><Pgraph>The decision to use the most economical alternative depends on both the technical equipment as well as the selected process model whereby the risk of technical failure must be considered. In this paper we examine the efficiency of the implementation of paper-based exams with computer support (B) and compare these with the other two alternatives A and C. In contrast to B there are numerous publications about C (e.g. <TextLink reference="6"></TextLink>, <TextLink reference="3"></TextLink>), including cost analysis, whereas some different hardware versions of electronic exam designs are compared (using students&#8217; own laptops vs. using university&#8217;s computers in a special testing center or in CIP pools vs. complete outsourcing). </Pgraph><Pgraph>In some publications reference values for expenses and costs are provided for comparison with conventional tests, which we will discuss in the following. In <TextLink reference="7"></TextLink>, the total costs for a single exam which consist of investment costs, personnel costs and printing costs, are &#8364; 1423 with option A, with option B &#8364; 1072 and with option C &#8364; 1746, under the assumption of 96 examinations per year over a period of 3 years. Concerning the time exposure a comparison of estimates from two studies is shown in Table 1 <ImgLink imgNo="1" imgType="table"/> (<TextLink reference="7"></TextLink>, Table 1 <ImgLink imgNo="1" imgType="table"/> and Table 2 <ImgLink imgNo="2" imgType="table"/> and <TextLink reference="1"></TextLink> Table 27).  </Pgraph><Pgraph>A comparison of the two estimates shows significant discrepancies, which are probably partly due to the fact that in <TextLink reference="7"></TextLink> less exam participants with fewer questions per exam are considered. Overall it is apparent that in <TextLink reference="1"></TextLink> generally much higher time expenses are calculated, whereas the estimation of 200 hours for manual evaluations of A (&#189; minutes per question with 60 questions in 400 exams) probably bases on a mix of free-text questions and closed questions, while in C only closed questions are used. Furthermore, it is striking that for exam preparation and test execution in <TextLink reference="1"></TextLink>, considerable efforts for the functionality testing of the computers and technical supervisors as well as technical support occur, while these factors are neglected in the estimates of <TextLink reference="7"></TextLink>. Significant potential for option B can be derived from both studies if it is possible to combine the advantages of A (little technical effort in preparing and carrying out the tests) and the advantages of C (minor correction time). In the following, we analyze the time required for computer-based pure multiple-choice paper exams with automatic correction of the scanned answer sheets. Other types of questions that require a number and text input can be co-managed, but they would have to be corrected manually. For implementation, a component for computer-based paper exams had been developed at the University of Wuerzburg after experiences with the paid service of IMPP spidMED &#91;<Hyperlink href="https:&#47;&#47;www.impp.de&#47;spidMED&#47;">https:&#47;&#47;www.impp.de&#47;spidMED&#47;</Hyperlink> (Link checked 11.7.2011; Service terminated: 1.7.2011)&#93; and a commercial program for optical mark recognition of multiple-choice exams. Since this component is based on a university-wide framework for the development of case-based training systems (see <TextLink reference="5"></TextLink>, <TextLink reference="4"></TextLink>), which is funded by tuition fees, the additional investment costs were relatively low. In Section 2, the process model and the critical aspects of computer-based paper tests are described while in Section 3 the technical effort for the various phases of the 12 resp. 13 exams in SS 2010 and WS 2010&#47;11 is presented (without considering the content of the work) and in Section 4, Option B is compared on a qualitative level with options A and C.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methoden und Prozessmodell">
      <MainHeadline>Methoden und Prozessmodell</MainHeadline><Pgraph>Kritische Faktoren bei der Durchf&#252;hrung von Klausuren sind neben der hier nicht im Fokus stehenden inhaltlichen Arbeit der Aufwand f&#252;r die Formatierung der Klausur, der logistische Aufwand bei der Klausurdurchf&#252;hrung, die Qualit&#228;t, Schnelligkeit und der Aufwand der Klausurkorrektur, die Bereitstellung der Dokumente f&#252;r die Einsichtnahme und die statistische Analyse der Klausurergebnisse. Im Folgenden beschreiben wir ein allgemeines Prozessmodell mit verschiedenen Varianten:</Pgraph><SubHeadline>Erstellung und Formatierung der Klausur</SubHeadline><Pgraph>Die Fragen einer Klausur k&#246;nnen von einem oder mehreren Dozenten (z.B. bei Ringvorlesungen) kommen, es k&#246;nnen alte Fragesammlungen auf Papier oder aus einer Datenbank wiederverwen&#172;det oder die Fragen ganz oder teilweise neu erstellt wer&#172;den. H&#228;ufig kontrollieren verschiedene Personen die Fragen, so dass es mehrere Iterationen gibt. Die Fragen k&#246;nnen sich auf Bilder oder Fallbeschreibungen beziehen, oft gibt es dann auch mehrere zusammenh&#228;ngende Fragen (&#8222;key feature Fragen&#8220;). Die Antwortalternativen k&#246;nnen vom Typ A (Einfachauswahl), Typ X (wahr&#47;falsch) oder PickN (Mehrfachauswahl) sein (vgl. <Hyperlink href="http:&#47;&#47;www.let.ethz.ch&#47;exam&#95;eval&#47;onlinetests&#47;faq&#47;nomenklatur&#95;fragetypen.pdf">http:&#47;&#47;www.let.ethz.ch&#47;exam&#95;eval&#47;onlinetests&#47;faq&#47;nomenklatur&#95;fragetypen.pdf</Hyperlink>). W&#228;hrend bei manueller Klausurkorrektur (A) Dozenten die Fragen meist direkt in einem Textverarbeitungsprogramm formatieren, sind bei B und C indirekte Formate &#252;blich. Entweder k&#246;nnen die Fragen aus einer Datenbank selektiert werden oder die Dozenten geben die Fragen in einem bestimmten Format ein und der Computer generiert daraus die Klausurvorlage. Auch dabei gibt es zwei Varianten: entweder die Eingabe &#252;ber ein Formular oder die Eingabe in einem Textverarbeitungssystem mit Layout-Vorgaben, das erst durch einen Parse-Vorgang in das interne Format &#252;berf&#252;hrt wird. Um Abschreiben zu erschweren, werden bei Option A oft zwei bis vier Klausurvarianten durch Vertauschen von Fragen und Antwortalternativen manuell erstellt. Bei Option B und C wird das Vertauschen meist automatisiert, so dass jeder Teilnehmer eine andere Klausurvariante bekommt. </Pgraph><Pgraph>Im Rahmen unserer Studie gab es noch keine Fragedatenbank. Daf&#252;r wurden die Dozenten weitgehend von der Formatierung entlastet, indem sie Pr&#252;fungen als Word-Datei an einen Koordinator geschickt haben, der die notwendigen Formatierungen vorgenommen hat. Es wurden Einfach- und Mehrfachauswahlfragen (Typ A und PickN) verwendet. Letzteres ist in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> durch ein &#8222;ja&#8220; in der Spalte &#8222;mehrere Antworten pro Frage m&#246;glich&#8220; gekennzeichnet. W&#228;hrend es im WS 2009&#47;2010 ein relativ kompliziertes Eingabeformat mit vielen Optionen gab, wurde ab dem darauffolgenden SS 2010 das Eingabeformat an die h&#228;ufigsten Vorlagen der Dozenten angeglichen und stark vereinfacht. Dieses vereinfachte Format (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>) wurde den Dozenten mitgeteilt, um den Koordinator zu entlasten.  Allerdings mussten die Dozenten sich nicht daran halten, da der Koordinator nach wie vor die Endredaktion &#252;bernommen hat. In unseren Aufwandsmessungen in Abschnitt 3 beginnen wir daher mit einer beliebig formatierten Klausurvorlage und messen als ersten Schritt den Aufwand der Nachformatierung durch den Koordinator.</Pgraph><SubHeadline>Pr&#252;fungsvorbereitung und Klausurdurchf&#252;hrung </SubHeadline><Pgraph>Dazu geh&#246;ren die Aufw&#228;nde und Kosten f&#252;r das Ausdrucken der Klausur sowie die Aufw&#228;nde f&#252;r das Auslegen am Platz und die Klausuraufsicht. Das Ausdrucken kann auf eigenen Druckern oder im Copy-Shop erfolgen, wobei in letzterem Fall eine PDF-Datei geschickt wird und dann die fertigen Klausuren abgeholt werden. Die Klausuren werden meistens am Platz ausgelegt. W&#228;hrend bei personalisierten Klausuren dazu ein z.B. alphabetischer Sitzplan erstellt werden muss, damit die Teilnehmer ihre personalisierte Klausur finden, schreiben bei nicht-personalisierten Klausuren die Studierenden Name und Matrikelnummer auf die Antwortb&#246;gen, was dann in die Auswertungsdatei &#252;bertragen werden muss. Die Klausuraufsicht erfordert je nach Anzahl der Teilnehmer eine oder mehrere Personen. </Pgraph><Pgraph>An der Universit&#228;t W&#252;rzburg  lassen sich die Kosten f&#252;r das Ausdrucken typischer Medizinklausuren wie folgt sch&#228;tzen: Bei ca. 140 Teilnehmern und ca. 35 Fragen werden ca. 140&#42;20&#61;2800 Seiten gedruckt, was bei Kosten von 2 Cent pro Kopie etwa 56 Euro pro Klausur ausmacht (die weiterhin von den Dozenten aufgebracht werden m&#252;ssen; bei Verwendung von Farbkopien entsprechend h&#246;her). In Tabelle 2 <ImgLink imgNo="1" imgType="table"/> ist in der Spalte &#8222;Personalisierung&#8220; gekennzeichnet, ob personalisierte Klausuren verwendet wurden, und in der Spalte &#8222;Randomisierung&#8220;, ob Fragen und Antworten automatisch vertauscht wurden, um Abschreiben zu erschweren.  Um die Korrektur zu vereinfachen, wurde ein separater Antwortbogen (siehe Abbildung 2 <ImgLink imgNo="2" imgType="figure"/>, links wie im SS 2010, rechts wie im WS 2010&#47;11 eingesetzt) erstellt, auf dem zu allen Fragen die Antwort-Nummern angekreuzt werden. Nach ersten Erfahrungen mit den Einscannen im WS 09&#47;10 wurde im SS 2010 wesentlich mehr Wert auf gute Druckqualit&#228;t und auf die Verwendung von Bleistift und Radiergummi zur Vermeidung von Schmierereien gelegt, was den Automatisierungsgrad bei der Korrektur deutlich verbessert hat (siehe Abschnitt Klausurauswertung). Der Schritt Pr&#252;fungsvorbereitung und Klausurdurchf&#252;hrung fasst Aufw&#228;nde zusammen, die in unserem Modell bei den Dozenten liegen, d.h. das Drucken und Heften mit ca. &#189; - 1 Stunde (entweder auf eigenem Drucker mit Heften oder in einem Copy-Shop mit Hin- und R&#252;cktransport) sowie die Vorbereitung und Aufsicht bei der eigentlichen Klausur mit typischerweise zwei Personen f&#252;r ca. eine Stunde Klausurzeit. Da diese Aufw&#228;nde von ca. 3 Stunden bei jeder Papierklausur anfallen und unabh&#228;ngig vom Koordinator sind, werden sie in  Tab. 2 <ImgLink imgNo="2" imgType="table"/> nicht gesondert ausgewiesen, aber in der Diskussion ber&#252;cksichtigt.</Pgraph><SubHeadline>Klausurauswertung </SubHeadline><Pgraph>W&#228;hrend bei Option A die Dozenten die Klausuren manuell korrigieren und die Daten in ein Tabellenkalkulationsprogramm &#252;bertragen und bei Option C der Computer die Rohergebnisse sofort liefert, h&#228;ngt die Effizienz bei der Option B von der Scan-Geschwindigkeit und Qualit&#228;t ab. Da h&#228;ufig nachtr&#228;glich noch einzelne Fragen aus der Wertung genommen werden bzw. das Notenschema angepasst wird, ist in allen Optionen A, B, C die Einfachheit der Anpassung der Auswertung wichtig. Weiterhin werden bei den Optionen B und C verschiedene Statistiken (z.B. Trennsch&#228;rfe der Fragen) automatisch erzeugt.</Pgraph><Pgraph>Das Hauptaugenmerk dieser Studie dient der genauen Analyse des Zeitaufwandes der Klausurauswertung f&#252;r die Option B. Dazu wird dieser Schritt in Teilschritte zerlegt: </Pgraph><Pgraph><UnorderedList><ListItem level="1">Das Scannen umfasst im einfachsten Fall das Einlegen der Antwortb&#246;gen in einen Scanner. Bei manchen Klausuren waren die Antwortb&#246;gen an die Angabenbl&#228;tter geheftet oder die Antwortb&#246;gen verschiedener Klausuren waren vermischt, so dass sie vorher abgetrennt bzw. sortiert werden mussten. Diese Aufw&#228;nde wurden mitgez&#228;hlt. W&#228;hrend im WS 09&#47;10 ein Hochleistungsscanner in der Universit&#228;tsbibliothek verwendet wurde, der aber wegen der Transportzeiten und der Notwendigkeit von Terminvereinbarungen unpraktisch war, wurde ab dem SS10 ein preisg&#252;nstiger Scanner (ca. 1000 Euro) f&#252;r die Klausurauswertung beschafft, der allerdings nur &#252;ber einen Blatteinzug von 50 Bl&#228;ttern verf&#252;gte und qualitativ nicht so gut war. Die geringere Scan-Qualit&#228;t konnte jedoch durch eine bessere Auswertungssoftware (s. n&#228;chsten Punkt) kompensiert werden.</ListItem><ListItem level="1">Die Auswertung umfasst die automatische Kreuzerkennung der eingescannten Bl&#228;tter mit manueller Kontrolle und  ggf. Nachbearbeitung. Das Programm zur Kreuzerkennung wurde in jedem der drei betrachteten Semester &#252;berarbeitet und jeweils durch eine verbesserte Version ersetzt. Alle Versionen boten eine &#252;bersichtliche Darstellung zur manuellen Kontrolle an, in der die sicher erkannten Kreuze gr&#252;n, die als unsicher erkannten Kreuze rot markiert waren und eine gelbe bzw. rosa Markierung verwendet wurde, wenn die Anzahl der erkannten Kreuze gr&#246;&#223;er oder kleiner als die Anzahl der erwarteten Kreuze ist. Die aktuelle Version, die seit dem WS2010&#47;11 eingesetzt wird, kombiniert drei verschiedene Verfahren zur Kreuzerkennung, was zwar die Laufzeit des Kreuzerkennungsprogramms verl&#228;ngert, aber den Aufwand der manuellen Nacharbeit deutlich reduziert. Das Ergebnis der Kreuzerkennung ist in allen Versionen eine Excel-Tabelle mit den Bewertungen f&#252;r jeden Teilnehmer und jede Frage einschl. verschiedener Statistiken wie Trennsch&#228;rfe sowie Dokumente f&#252;r die Klausureinsichtnahme. </ListItem><ListItem level="1">Wenn einzelne Fragen missverst&#228;ndlich formuliert wurden oder aus anderen Gr&#252;nden angepasst oder aus der Wertung genommen werden m&#252;ssen, entsteht ein Aufwand zur Anpassung der Auswertung. Obwohl dieser Aufwand inhaltlich bedingt ist, haben wir ihn in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> mit ausgewiesen. </ListItem><ListItem level="1">Der allgemeine Kommunikationsaufwand wird in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> unter der Spalte &#8222;Sonstiges &#47; Support&#8220; aufgef&#252;hrt. Er nimmt naturgem&#228;&#223; im Laufe der Semester ab, wenn die Dozenten mit dem Vorgehensmodell der Klausurdurchf&#252;hrung vertraut sind, aber ist bei Komplikationen h&#246;her.</ListItem></UnorderedList></Pgraph><Pgraph>Bei allen Klausuren in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> mit einer Ausnahme im SS 2010 bekamen die Teilnehmer verschiedene Klausurb&#246;gen mit gleichen Fragen, indem die Reihenfolge der Fragen bzw. Antwortalternativen vertauscht wurden (&#8222;Randomisierung &#61; ja&#8220; in Tabelle 2 <ImgLink imgNo="2" imgType="table"/>). Die Wahl dieser Option erfordert Vertrauen in die Technik, da mit randomisierten Klausuren eine manuelle Korrektur sehr aufw&#228;ndig w&#228;re. Anderer&#172;seits ist es ein wichtiges Argument f&#252;r den Einsatz computergest&#252;tzter Klausuren, da so Abschrei&#172;ben deutlich erschwert und das Auslegen der Klausurvarianten im Pr&#252;fungsraum vereinfacht wird. Eine &#220;bersicht &#252;ber das Prozessmodell bei der Klausurerstellung und -bearbeitung zeigt Abbildung 3 <ImgLink imgNo="3" imgType="figure"/>.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods and process model">
      <MainHeadline>Methods and process model</MainHeadline><Pgraph>Critical factors in the implementation of examinations are in addition to the substantial content related work, on which we don&#8217;t focus here, the logistics involved in the examination procedure, the quality, speed and cost of exam correction, the provision of documents for inspection and the statistical analysis of exam results. Below, we describe a general process model with several variations:</Pgraph><SubHeadline>Creating and formatting of the exam </SubHeadline><Pgraph>Questions in a written examination may come from one or more lecturers (e.g. lecture series), old question files on paper or from a database can be reused or the questions can be completely or partially created anew. Often the questions are checked by different persons so that there are several iterations. The questions may relate to images or descriptions of cases and there are often several related questions (&#34;key feature questions&#34;). The answer alternatives can be of type A (single selection), type X (true &#47; false) or PickN (multiple choice) (cf. &#91;<Hyperlink href="http:&#47;&#47;www.let.ethz.ch&#47;exam&#95;eval&#47;onlinetests&#47;faq&#47;nomenklatur&#95;fragetypen.pdf">http:&#47;&#47;www.let.ethz.ch&#47;exam&#95;eval&#47;onlinetests&#47;faq&#47;nomenklatur&#95;fragetypen.pdf</Hyperlink>). While in manual exam correction (A) the lecturers usually directly format the questions in a word processing program, indirect formats are common in B and C. Either the questions are selected from a database or the lecturers enter them in a specific format from which the computer generates the exam. There are two variants for this process: either input via a form or input into a word processing system with layout specifications, which is converted by a parse operation in the internal format. To discourage copying among exam participants, there are often two to four variants under option A created by swapping exam questions and answer alternatives manually. Under option B and C, the swapping is mostly automated so that each participant gets a different exam version.</Pgraph><Pgraph>In our study no question database existed yet. The lecturers defined the questions and were largely relieved of the formatting by having exam texts sent as a Word file to a coordinator who made the necessary formatting. Single and multiple-choice questions (type A and PickN) were both used. The latter is marked in Table 2 <ImgLink imgNo="2" imgType="table"/> by a &#34;yes&#34; in the column &#34;multiple answers per question.&#34; While in the winter semester 2009&#47;2010, a relatively complicated input format with many options was used; from the following summer semester 2010 the input format was aligned with the most common templates of the lecturers and simplified. This simplified format (see Figure 1 <ImgLink imgNo="1" imgType="figure"/>) was communicated to the lecturers in order to relieve the coordinator. However, the lecturers didn&#8217;t have to follow them, as the coordinator was still responsible for the final editing. In our effort measurements in section 3, we therefore begin with an arbitrarily formatted exam text and measure the cost of subsequent formatting by the coordinator as a first step.</Pgraph><SubHeadline>Exam preparation and exam management </SubHeadline><Pgraph>This includes the expenses and costs for the printing of the exam as well as the efforts for laying out the sheets in the auditorium and the exam supervisor. The printing can be done on own printers or in a copy shop, in the latter case a PDF file is sent and then the printed exams are collected. The exams are usually put on the tables in the auditorium. While an alphabetical seating plan must be created in case of personalized exams so that participants are able to find their exams, in case of non-personalized exams the students write their name and matriculation number on the answer sheets, which has to be transferred into the analysis file afterwards. The exam requires the supervision of one or more persons depending on the number of participants.</Pgraph><Pgraph>At the University of Wuerzburg, the costs for printing typical medical exams can be estimated as follows: At about 140 participants and about 35 questions about 140 &#42; 20 &#61; 2800 pages are printed, which at a cost of 2 cents per copy makes around 56 Euro per exam (which must still be paid by the lecturers; in case of the use of color copies it is accordingly more expensive). In Table 2 <ImgLink imgNo="2" imgType="table"/> the column &#34;personalization&#34; indicates, whether personalized exams were used and the &#34;randomization&#34; column marks, if questions and answers were exchanged automatically in order to impede copying. To simplify the correction, a separate answer sheet (see Figure 2 <ImgLink imgNo="2" imgType="figure"/> left as used in summer semester 2010 and right as in winter semester 2010&#47;11) was created on which the numbers of the answer to all questions are marked. After initial experience with scanning in WS 09&#47;10, in SS 2010 much more value was placed on good print quality and the use of pencil and eraser for the prevention of scribbling, which markedly improved the level of automation during the correction (see section exam evaluation). The step exam preparation and implementation summarizes efforts that lie in our model with the lecturer, i.e. printing and stapling with &#189; - 1 hour (either on own printers with stapling, or in a copy shop with pick-up time) and the preparation and supervision during the actual exam with typically two people for about an hour exam time. Since these expenses of approximately 3 hours occur for each written exam and are regardless of the coordinator, they are not separately identified in Table 2 <ImgLink imgNo="2" imgType="table"/> but included in the discussion.</Pgraph><SubHeadline>Exam evaluation </SubHeadline><Pgraph>While in option A the lecturer corrects the exams and manually transfers the data into a spreadsheet program and in option C the computer instantly gives the raw results, the efficiency of option B depends on the scanning speed and quality. Since it&#8217;s not uncommon for questions to be subsequently removed from the rating or the rating scheme being adapted, in all the options A, B, C the simplicity of the adaptation of the evaluation is important. Also, at options B and C statistics, e.g. discriminative power (&#8220;Trennsch&#228;rfe&#8221;), of the questions are automatically generated. </Pgraph><Pgraph>The main focus of this study is the detailed analysis of the time required for the evaluation of an exam with option B. Therefore this step is broken down into smaller steps: </Pgraph><Pgraph><UnorderedList><ListItem level="1">Scanning, in the simplest case, consists of the insertion of the answer sheets into a scanner. In some exams the answer sheets were tacked to the information sheets or answer sheets of different examinations were mixed, so that they previously had to be separated and sorted. These efforts were counted. While in WS 09&#47;10 a high performance scanner was used in the university library, which was impractical because of transport times and the need for an appointment, in SS 10 an inexpensive scanner (about 1000 &#8364;) was purchased for exam evaluation, which, however, could only hold about 50 sheets at the same time and didn&#8217;t possess very good quality. However, the lower scan quality could be compensated by better evaluation software (see next item).</ListItem><ListItem level="1">The analysis includes the automatic recognition of crosses on scanned papers with manual inspection and rework if necessary. The program for optical mark recognition was revised and replaced by an improved version in each of three semesters. All versions offered a clear view for manual checking, in which confidently recognized crosses were marked green, probably recognized crosses were marked with red and yellow or pink markings were used if the number of detected crosses was greater or less than the number of optical marks expected. The current version that is used since WS 2010&#47;11 combines three different methods for optical mark recognition, which, while extending the duration of the optical mark recognition program, clearly reduces the effort of manual rework. In all versions the optical mark recognition results were put in an Excel spreadsheet with the scores for each participant and each question, including various statistics such as discriminative power, as well as documents for the exam inspection.   </ListItem><ListItem level="1">oIf some questions were unclear or needed to be adjusted or taken out of the valuation for other reasons, effort for the adaptation of the assessment scheme occurred. Although this expense is conditional to its content, we have identified it in Table 2 <ImgLink imgNo="2" imgType="table"/>.</ListItem><ListItem level="1">oThe overall communication effort is listed in Table 2 <ImgLink imgNo="2" imgType="table"/> under the column &#34;Other&#47;Support&#34;. It will naturally decrease over the semesters, when the lecturers are familiar with the process model of exam implementation, but it is higher if complications arise. </ListItem></UnorderedList></Pgraph><Pgraph>For all exams in Table 2 <ImgLink imgNo="2" imgType="table"/> with one exception in SS 2010, participants were given different exam sheets with the same questions but the order of questions and response alternatives had been interchanged (&#34;randomization &#61; yes&#34; in Table 2 <ImgLink imgNo="2" imgType="table"/>). Choosing this option requires trust in the technology, since the manual correction of randomized exams would be very difficult. On the other hand, it is an important argument for the use of computer-based exams, since it obviously impedes copying and simplifies the distribution of the exam in the exam room. An overview of the process model in exam preparation and processing is shown in Figure 3 <ImgLink imgNo="3" imgType="figure"/>.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><Pgraph>Im WS 09&#47;10 wurden elf, im SS 2010 zw&#246;lf und im WS 10&#47;11 dreizehn Multiple-Choice-Papierklausuren in der Medizin mit Computerunterst&#252;tzung erstellt und ausgewertet.  Alle Klausuren bis auf eine waren randomisiert. W&#228;hrend ab dem SS 2010 die Aufw&#228;nde vom Koordinator protokolliert wurden, gab es f&#252;r das WS 09&#47;10 vom gleichen Koordinator nur nachtr&#228;gliche grobe Absch&#228;tzungen f&#252;r eine typische Klausur ohne besondere Komplikationen. Die Ergebnisse zeigt Tabelle 2 <ImgLink imgNo="2" imgType="table"/>. </Pgraph><Pgraph>Im SS 2010 und WS 10&#47;11 waren bis auf vier Klausuren alle personalisiert, d.h. f&#252;r jeden Teilnehmer wurde Name und Matrikelnummer auf der Klausur aufgedruckt (mit Reserve-Klausuren f&#252;r nicht angemeldete Nachz&#252;gler). Es nahmen im SS 10 bzw. WS 10&#47;11 durchschnittlich 143  bzw. 137 Teilnehmer an einer Klausur teil, die im Schnitt jeweils 37 Fragen umfasste. Knapp die H&#228;lfte der Klausuren erlaubte mehrere Antworten pro Frage, die anderen nur genau eine Antwort. Gemessen wurde der zeitliche Aufwand f&#252;r den Koordinator, der den Dozenten bei der Klausurerstellung und Auswertung hilft. Der durchschnittliche Zeitaufwand wird entsprechend den Ausf&#252;hrungen in Abschnitt 2 in f&#252;nf Bereiche aufgeteilt:</Pgraph><Pgraph><UnorderedList><ListItem level="1"><Mark1>Nachbearbeitung der Klausurvorlage: </Mark1>W&#228;hrend sie im WS 09&#47;10 noch 2-3 Stunden dauerte, sank die Zeit im SS 10 und WS 10&#47;11 auf nur 49 Minuten; bei komplikationslosen Klausuren sogar auf 32 bzw. 23 Minuten. Hier ist ein weiteres Absinken zu erwarten, da es f&#252;r die Dozenten nur eine Frage der Gew&#246;hnung ist, welches Format sie an den Koordinator schicken. Je &#228;hnlicher es dem in Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> gezeigten (WORD-)Eingabeformat ist, desto weniger Nacharbeit f&#228;llt f&#252;r den Koordinator an. </ListItem><ListItem level="1"><Mark1>Scannen: </Mark1>Der Scan-Aufwand h&#228;ngt haupts&#228;chlich von der Gr&#246;&#223;e des Blatteinzuges und der Scan-Geschwindigkeit ab. Mit dem derzeit benutzten, relativ einfachen Scanner dauert das Einscannen einer Klausur ohne Komplikationen mit ca. 140 Antwortb&#246;gen im g&#252;nstigen Fall 20-25 Minuten. Der tats&#228;chlich gemessene Durchschnittswert aller Klausuren lag im WS 10&#47;11 bei 28 Minuten und im SS 2010 bei 42 Minuten, was haupts&#228;chlich dadurch bedingt war, dass die Einstellungen am Scanner f&#252;r jede Klausur angepasst werden mussten, um ein optimales Ergebnis zu erzielen. Die notwendigen Schritte werden mittlerweile durch die Auswertungssoftware erledigt bzw. sind durch den Verzicht auf Grauwerte auf dem Antwortbogen entfallen.</ListItem><ListItem level="1"><Mark1>Auswertung: </Mark1>Der kritischste Schritt ist die Auswertung der Kreuzerkennung auf den Antwortb&#246;gen, da davon die Praktikabilit&#228;t des ganzen Verfahrens abh&#228;ngt. Um die Qualit&#228;t der Kreuzerkennung zu sichern, ist ein manueller &#220;berpr&#252;fungsschritt mit Darstellung der erkannten Kreuze in den Ampel-Farben (siehe Abschnitt 2) Teil der Auswertung. Der durchschnittliche Aufwand war im WS 10&#47;11 und im SS 10 jeweils etwa 50 Minuten f&#252;r Klausuren mit ca. 140 Teilnehmern und 37 Fragen pro Klausur. Da verschiedene Kreuzerkennungssoftware eingesetzt wurde, ist es allerdings aussagekr&#228;ftiger, den  Auswertungsaufwand aller Klausuren zu betrachten, die mit der neuen Kreuzerkennung korrigiert wurden, d.h. alle Klausuren im WS 10&#47;11 au&#223;er den beiden Pathologie-Klausuren. Hier hat sich die durchschnittliche Auswertungszeit mit nur 26 Minuten pro Klausur fast halbiert.</ListItem><ListItem level="1"><Mark1>Anpassung der Auswertung: </Mark1>Der Aufwand h&#228;ngt von Faktoren ab, die sich durch die Art der Auswertung nicht beeinflussen lassen und geht nur indirekt ein, da die verwendete Software ein Korrigieren des Bewertungsschemas oder ein Herausnehmen einzelner Fragen aus der Wertung relativ einfach machen sollte. Der durchschnittliche Aufwand war im WS 10&#47;11 und im SS 10 jeweils ca. 20 Minuten und lag in den meisten F&#228;llen bei 0. Lediglich in der Klausur Infektiologie im WS 2010&#47;11 war er bedingt durch Besonderheiten der Anpassung mit 180 Minuten ungew&#246;hnlich hoch.</ListItem><ListItem level="1"><Mark1>Sonstiges&#47;Support: </Mark1>Die allgemeine Kommunikation zus&#228;tzlich zu den angegebenen Zeiten lag im WS 10&#47;11 bei 12 Minuten, im SS 10 bei 20 Minuten.</ListItem></UnorderedList></Pgraph><Pgraph>In der Summe ist der Aufwand der Klausurbearbeitung ohne Ausdrucken und Klausuraufsicht mit ca. 140 Teilnehmern und ca. 35 Fragen f&#252;r den Koordinator von 5-7 Stunden f&#252;r &#8222;gute&#8220; Klausuren ohne Komplikation im WS 2009&#47;2010 &#252;ber ca. 2 Stunden im SS 2010 auf ca. 1,5 Stunden im WS 2010&#47;11 gefallen. F&#252;r die am effizientesten korrigierte Klausur &#8222;Allgemeinmedizin&#8220; betrug der Aufwand im WS 10&#47;11 sogar nur 65 Minuten bei 121 Teilnehmern und 30 Fragen. Mit Komplikationen stieg die durchschnittliche Zeit auf 160 bzw. 179 Minuten pro Klausur im WS 10&#47;11 bzw. im SS 2010; im WS 2009&#47;2010 ist die Zahl sehr viel h&#246;her und nicht ausgewiesen. Die Zahlen zeigen deutlich, dass die Existenz und die Behandlung von Komplikationen f&#252;r die durchschnittliche Gesamteffizienz fast genauso wichtig sind wie das Basismodell. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><Pgraph>In WS 09&#47;10, eleven, in SS 2010 twelve and in WS 10&#47;11 thirteen multiple-choice papers in medicine were created and evaluated with computer assistance. All examinations but one were randomized. While from SS 2010 the coordinator recorded the expenditures, there were only rough estimates for a typical exam without major complications from the same coordinator in WS 09&#47;10. The results are shown in table 2.</Pgraph><Pgraph>In SS 2010 and WS 10&#47;11 all exams but four were personalized, i.e. each participant&#39;s name and student number was printed on the exam (with reserve exams for undeclared stragglers). In SS 10 resp. WS 10&#47;11 there was an average of 143 or 137 participants per exam, which included 37 questions at average. Almost half of the exams allowed multiple answers per question, the other ones only one answer. Measured was the time required for the coordinator who helps the lecturers with exam preparation and evaluation. The average time is divided in five areas according to the information in section 2:</Pgraph><Pgraph><UnorderedList><ListItem level="1"><Mark1>Postprocessing of the exam template: </Mark1>while it took 2-3 hours in WS 09&#47;10, the time decreased in SS 10 and WS 10&#47;11 to only 49 minutes, in uncomplicated exams even to 32 or 23 minutes. Here, a further drop is expected because it is just a matter of time for the lecturers to get used to the format they send to the coordinator. The more similar it is to the one shown in figure 1 (WORD input format), the less rework is due for the coordinator.</ListItem><ListItem level="1"><Mark1>Scanning: </Mark1>The scanning effort mainly depends on the size of the sheet feeder and scanning speed. With the currently used, relatively simple scanner, scanning an exam with about 140 answer sheets without complications takes 20-25 minutes at best. The average of all exams was actually measured at 28 minutes in WS 10&#47;11 and 42 minutes in SS 2010, which was mainly due to the fact that the scanner settings had to be adapted for each exam in order to achieve an optimal result. The necessary steps are now either carried out by the analysis software or are unnecessary because the answer sheet contains no gray values.</ListItem><ListItem level="1"><Mark1>Evaluation: </Mark1>The most critical step is the evaluation of the optical mark recognition on the answer sheet because this determines the practicality of the whole process. To ensure the quality of the optical mark recognition, a manual verification step with representation of the detected crosses in the traffic-light colors (see section 2) is part of the evaluation. In SS 10 and WS 10&#47;11 the average expenditure was about 50 minutes per exam with approximately 140 participants and 37 questions each. Since different optical mark recognition programs were used, it is more informative to consider the evaluation effort of all examinations which were corrected with the new optical mark recognition, i.e. all exams in WS 10&#47;11 excluding the two pathology exams. Here, the average evaluation time has almost halved with only 26 minutes per exam.</ListItem><ListItem level="1"><Mark1>Adaptation of the assessment scheme:</Mark1> The costs depend on factors that can&#8217;t be influenced by the method of evaluation and are addressed only indirectly, because the software used should make the correction of the assessment scheme or the removal of individual questions from the valuation relatively simple. In SS 10 and WS 10&#47;11 the average expenditure was approximately 20 minutes and in most cases at 0. Only in the exam Infectious Diseases in WS 2010&#47;11 it was unusually high with 180 minutes due to special circumstances.</ListItem><ListItem level="1"><Mark1>Miscellaneous&#47;Support: </Mark1>The general communication in addition to the indicated times was 12 minutes in WS 10&#47;11 and 20 minutes in SS 10.</ListItem></UnorderedList></Pgraph><Pgraph>In sum, the effort of the exam process without printing and exam supervision for an exam with about 140 participants and about 35 questions has decreased for the coordinator from 5-7 hours for &#34;good&#34; exams without complication in WS 2009&#47;2010 to about 2 hours in SS 2010 and finally was at 1.5 hours in WS 2010&#47;11. For the most efficiently corrected exam &#34;general medicine&#34; in WS 10&#47;11, the expenses even were just 65 minutes at 121 participants and 30 questions. With complications the average time increased to 160 or 179 minutes per exam in WS 10&#47;11 or SS 2010; in WS 2009&#47;2010, the number was much higher and not reported. The figures clearly show that for the overall average efficiency, the existence and treatment of complications is almost as important as the basic model.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Insgesamt l&#228;sst sich feststellen, dass im SS 2010 und noch mehr im WS 10&#47;11 die Zeitaufw&#228;nde f&#252;r Dozenten und Koordinatoren ziemlich gering sind. Obwohl immer Raum f&#252;r weitere Verbesserungen besteht, d&#252;rften die Durchschnittswerte der 9 komplikationslosen Klausuren im WS 2010&#47;11 schon ziemlich nah am Optimum von ca. 1 bis 1,5 Stunden Zeitaufwand pro Klausur liegen (ohne Ber&#252;cksichtigung des inhaltlichen Aufwandes). Dazu muss noch die Zeit f&#252;r das Ausdrucken der Klausur von 0,5 bis 1 Stunde addiert werden. Die Gesamtzeit ist vergleichbar mit dem minimalen Zeitaufwand f&#252;r die Klausuraufsicht von ca. 2 Stunden, die nicht optimierbar ist. Allerdings wurden diese Zahlen nicht auf Anhieb erreicht, da in der Einf&#252;hrungsphase im WS 2009&#47;2010 die Zeitaufw&#228;nde f&#252;r Klausuren ohne Komplikationen mit 5 bis 7 Stunden f&#252;r die Dozenten deutlich gr&#246;&#223;er waren und der Koordinator insbesondere bei Klausuren mit Komplikationen einen betr&#228;chtlichen Zusatzaufwand hatte.</Pgraph><Pgraph>Dabei scheinen die Anzahl der Klausurteilnehmer und die Anzahl der Fragen pro Klausur nur einen relativ geringen Einfluss auf den Gesamtaufwand zu haben, da mehr Fragen zwar einen erh&#246;hten Formatierungsaufwand bedingen, und mehr Fragen und mehr Teilnehmer den Scan- und Auswertungsaufwand erh&#246;hen, der Zusatzaufwand sich im Vergleich zu dem Basisaufwand aber in Grenzen h&#228;lt. Allerdings lassen die empirischen Daten dazu keine klaren Aussagen zu, da die Klausuren relativ homogen bez&#252;glich Fragen- und Teilnehmerzahl sind und die wenigen Klausuren mit st&#228;rkeren Abweichungen Komplikationen hatten und deswegen nicht vergleichbar sind.</Pgraph><Pgraph>Wir greifen aufgrund dieser Daten die Gesamtkostenmodelle f&#252;r die Optionen A, B und C aus <TextLink reference="7"></TextLink> und <TextLink reference="1"></TextLink> auf und vergleichen sie auf qualitativer Ebene mit den hier ermittelten Aufw&#228;nden der Option B. Im Vergleich der Optionen A und B bleiben die Aufw&#228;nde f&#252;r die Erstellung der Klausur und die Klausurdurchf&#252;hrung ungef&#228;hr gleich, lediglich bei der Klausurauswertung gibt es Unterschiede: W&#228;hrend die Korrekturzeit bei Option A, die in <TextLink reference="7"></TextLink> mit 13,5 Stunden pro Klausur und in <TextLink reference="1"></TextLink> noch sehr viel h&#246;her gesch&#228;tzt wurde, in unseren Analysen bei Option B ohne Komplikationen auf ca. 1 bis 1,5 Stunden sinkt, kommen zus&#228;tzliche Kosten f&#252;r den Scanner (ca. 1000 Euro) und f&#252;r die Entwicklung bzw. Anschaffung der Software und deren Wartung hinzu (die an der Universit&#228;t W&#252;rzburg gering ausfielen, da die Korrektursoftware nur eine zus&#228;tzliche Komponente im Rahmen eines gro&#223;en Blended Learning Projektes ist; s.o.). Im Vergleich der Optionen B und C sind die Korrekturzeiten grob vergleichbar und in beiden Optionen ist die Entwicklung bzw. Anschaffung von Software und deren Wartung notwendig. W&#228;hrend bei B Zeitaufwand f&#252;r das Erzeugen und Ausdrucken des Klausurdokumentes anf&#228;llt (ca. 0,5 Stunden f&#252;r Klausurformatierung und 0,5 bis 1 Stunde f&#252;r das Drucken), m&#252;ssen bei C Tests auf Funktionspr&#252;fungen der Computer ber&#252;cksichtigt werden, die  in <TextLink reference="7"></TextLink> nicht ausgewiesen sind, aber in <TextLink reference="1"></TextLink> 8 bis 32 Stunden umfassen. &#196;hnliches gilt f&#252;r die Pr&#252;fungsdurchf&#252;hrung, da bei C zus&#228;tzlich zur fachlichen Klausuraufsicht auch technisch versiertes Personal anwesend sein sollte, was bei B entf&#228;llt.  Weitere Unterschiede gibt es bez&#252;glich der Druckkosten (minimal ca. 56 Euro pro Klausur) und der Scanner-Investition bei Option B im Vergleich zu den Investitionen in die Infrastruktur, die zur Durchf&#252;hrung rein elektronischer Klausuren in Option C notwendig ist. Letztere sind schwer zu beziffern, da es viele Varianten gibt, die von kompletter Ausstattung eines Pr&#252;fungscenters mit eigenen Rechnern bis zu elektronischen Pr&#252;fungen auf Laptops der Studierenden reichen. Die Studie <TextLink reference="1"></TextLink> deutet in diesem Zusammenhang an, dass geringere Investitionskosten einen (deutlich) h&#246;heren Zeitaufwand bedingen. Schlie&#223;lich muss noch das Risiko und der Schweregrad von Komplikationen betrachtet werden, die bei C deutlich mehr ins Gewicht fallen als bei B.</Pgraph><Pgraph>Daher ist das Ziel, die Dozenten m&#246;glichst kosteng&#252;nstig bei der Korrektur von Multiple-Choice-Klausuren zu entlasten, am besten mit der Option B, d.h. papierbasierten Klausuren mit Computerunterst&#252;tzung, zu erreichen. Elektronische Klausuren lohnen sich derzeit nach unseren Untersuchungen nur dann, wenn auch die M&#246;glichkeiten neuer Aufgabentypen jenseits von konventionellem Multiple-Choice bei der Klausurerstellung genutzt werden, wie z.B. Long-Menu-Fragen oder anderen Fragetypen, das Zeigen von Videos, das Arbeiten an virtuellen Mikroskopen oder das interaktive L&#246;sen von Trainingsf&#228;llen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>Overall, it can be said that in SS 2010 and even more in WS 10&#47;11 the time effort for instructors and coordinators is pretty low. Although there is always room for improvement, the average values of the 9 uncomplicated exams in WS 2010&#47;11 should be pretty close to the optimum of about 1 to 1.5 hours of time effort per exam (excluding the content-related effort). Additionally to that, the time needed for printing the exam, which is 0.5 to 1 hour, has to be added. The total time is comparable to the minimum time required for exam supervision, which is approximately 2 hours and cannot be optimized. However, these numbers were not achieved immediately, as in the introduction phase in WS 2009&#47;2010, the time effort for exams without complications was with 5 to 7 hours for the lecturers and also the coordinator had significantly higher expenses, being very high for exams with complications.</Pgraph><Pgraph>It seems that the number of exam participants and the number of questions per exam have a relatively small influence on the overhead costs because although more questions require increased formatting effort, and more questions and more participants increase the scanning and evaluation effort, the additional effort in comparison to the basic effort is limited. However, the empirical data don&#8217;t allow clear statements because the exams are relatively homogeneous concerning the number of questions and participants and the exams with deviations had complications and therefore were not comparable.</Pgraph><Pgraph>Based on this data, we pick up the cost models for the options A, B and C from <TextLink reference="7"></TextLink> and <TextLink reference="1"></TextLink> and compare them on a qualitative level with our outlined expenses of option B. In the comparison of options A and B the efforts for the creation of the exam and for the exam procedure remain about the same. The differences result from the exam evaluation: The correction time for option A, which was estimated 13.5 hours per exam in <TextLink reference="7"></TextLink>, and in <TextLink reference="1"></TextLink> even longer, drops to 1 to 1.5 hours in our analysis of option B when there are no complications.  Additional costs for the scanner (about 1000 &#8364;) and the development or acquisition of software and its maintenance (which were very low at the University of Wuerzburg, because the software used for correction was only one additional component of a large blended learning project, see above) have to be added. In comparison of options B and C, the correction times are roughly comparable and in both options the development or acquisition of software and its maintenance is necessary. While in B time expenses for the creation and printing of the document examination incur (about 0.5 hours for the formatting of the exam and 0.5 to 1 hour for printing), at C function tests of the computers must be included, which aren&#8217;t reported in <TextLink reference="7"></TextLink> but include 8 to 32 hours in <TextLink reference="1"></TextLink>. The same applies to the exam procedure, as with C additionally to the exam supervision technically skilled personnel should be present, which does not apply to B. There are other differences regarding the printing costs (a minimum of 56 &#8364; per exam) and scanner investment in option B in comparison with investments in infrastructure, which is necessary for the realization of purely electronic exams in Option C. The latter are difficult to quantify, since there are many variations, ranging from a fully equipped test center with own computers to the use of student&#8217;s laptops. In this context the study <TextLink reference="1"></TextLink> suggests that lower investment costs lead to (much) more time effort. After all, the risk and severity of complications, which carry much more weight in C than in B, also have to be considered.</Pgraph><Pgraph>Therefore, the aim to relieve the lecturers as inexpensively as possible in the correction of multiple-choice exams can be achieved in the best way with option B, which means paper-based exams with computer support. According to our investigations, electronic exams currently only pay off when the opportunities of new types of tasks beyond conventional multiple-choice will be used, such as long-menu questions or other types of questions, the showing of videos, working with virtual microscopes or solving interactive training cases.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenskonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>B&#252;cking J</RefAuthor>
        <RefAuthor>Schwedes K</RefAuthor>
        <RefAuthor>Laue H</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>Computergest&#252;tzte Klausuren an der Universit&#228;t Bremen, ZMML (Zentrum f&#252;r Multimedia in der Lehre), Arbeitsbericht</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>B&#252;cking J, Schwedes K, Laue H. Computergest&#252;tzte Klausuren an der Universit&#228;t Bremen, ZMML (Zentrum f&#252;r Multimedia in der Lehre), Arbeitsbericht. Bremen: Universit&#228;t Bremen; 2007. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.eassessment.uni-bremen.de&#47;documents&#47;eKlausurenBerichtZMML.pdf</RefTotal>
        <RefLink>http:&#47;&#47;www.eassessment.uni-bremen.de&#47;documents&#47;eKlausurenBerichtZMML.pdf</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Fischer M</RefAuthor>
        <RefAuthor>Kopp V</RefAuthor>
        <RefTitle>Computer-based pre-clinical assessment: Does the embedding of multiple-choice questions in a clinical context change performance&#63;</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefArticleNo>Doc52</RefArticleNo>
        <RefTotal>Fischer M, Kopp V. Computer-based pre-clinical assessment: Does the embedding of multiple-choice questions in a clinical context change performance&#63; GMS Z Med Ausbild. 2006;23(3):Doc52. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000271.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000271.shtml</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Frey P</RefAuthor>
        <RefTitle>Computerbasiert pr&#252;fen: M&#246;glichkeiten und Grenzen</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefArticleNo>Doc49</RefArticleNo>
        <RefTotal>Frey P. Computerbasiert pr&#252;fen: M&#246;glichkeiten und Grenzen. GMS Z Med Ausbild. 2006;23(3):Doc49. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000268.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000268.shtml</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>H&#246;rnlein A</RefAuthor>
        <RefAuthor>Mandel A</RefAuthor>
        <RefAuthor>Ifland M</RefAuthor>
        <RefAuthor>L&#252;neberg</RefAuthor>
        <RefAuthor>E</RefAuthor>
        <RefAuthor>Deckert J</RefAuthor>
        <RefAuthor>Puppe F</RefAuthor>
        <RefTitle>Akzeptanz medizinischer Trainingsf&#228;lle als Erg&#228;nzung zu Vorlesungen</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefArticleNo>Doc42</RefArticleNo>
        <RefTotal>H&#246;rnlein A, Mandel A, Ifland M, L&#252;neberg, E, Deckert J, Puppe F. Akzeptanz medizinischer Trainingsf&#228;lle als Erg&#228;nzung zu Vorlesungen. GMS Z Med Ausbild. 2011;28(3):Doc42. DOI: 10.3205&#47;zma000754</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000754</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>H&#246;rnlein A</RefAuthor>
        <RefAuthor>Ifland M</RefAuthor>
        <RefAuthor>Kl&#252;gl P</RefAuthor>
        <RefAuthor>und Puppe F</RefAuthor>
        <RefTitle>Konzeption und Evaluation eines fallbasierten Trainingssystems im universit&#228;tsweiten Einsatz (CaseTrain)</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>GMS Med Inform Biom Epidemiol</RefJournal>
        <RefArticleNo>Doc07</RefArticleNo>
        <RefTotal>H&#246;rnlein A, Ifland M, Kl&#252;gl P, und Puppe F. Konzeption und Evaluation eines fallbasierten Trainingssystems im universit&#228;tsweiten Einsatz (CaseTrain). GMS Med Inform Biom Epidemiol. 2009;5(1):Doc07. DOI: 10.3205&#47;mibe000086</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;mibe000086</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Kopp V</RefAuthor>
        <RefAuthor>Herrmann S</RefAuthor>
        <RefAuthor>M&#252;ller T</RefAuthor>
        <RefAuthor>Vogel P</RefAuthor>
        <RefAuthor>Liebhardt H</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefTitle>Einsatz eines fallbasierten Computerpr&#252;fungsinstruments in der klinischen Lehre: Akzeptanz der Studierenden</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefArticleNo>Doc11</RefArticleNo>
        <RefTotal>Kopp V, Herrmann S, M&#252;ller T, Vogel P, Liebhardt H, Fischer MR. Einsatz eines fallbasierten Computerpr&#252;fungsinstruments in der klinischen Lehre: Akzeptanz der Studierenden. GMS Z Med Ausbild. 2005;22(1):Doc11. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2005-22&#47;zma000011.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2005-22&#47;zma000011.shtml</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Kr&#252;ckeberg J</RefAuthor>
        <RefAuthor>Paulmann V</RefAuthor>
        <RefAuthor>Fischer V</RefAuthor>
        <RefAuthor>Haller H</RefAuthor>
        <RefAuthor>Matthies H</RefAuthor>
        <RefTitle>Elektronische Testverfahren als Bestandteil von Qualit&#228;tsmanagement und Dynamisierungsprozessen in der medizinischen Ausbildung</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>GMS Med Inform Biom Epidemiol</RefJournal>
        <RefArticleNo>Doc08</RefArticleNo>
        <RefTotal>Kr&#252;ckeberg J, Paulmann V, Fischer V, Haller H, Matthies H. Elektronische Testverfahren als Bestandteil von Qualit&#228;tsmanagement und Dynamisierungsprozessen in der medizinischen Ausbildung. GMS Med Inform Biom Epidemiol. 2008;4(2):Doc08. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;mibe&#47;2008-4&#47;mibe000067.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;mibe&#47;2008-4&#47;mibe000067.shtml</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Duelli R</RefAuthor>
        <RefAuthor>Resch F</RefAuthor>
        <RefAuthor>Schultz JH</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefArticleNo>Doc44</RefArticleNo>
        <RefTotal>M&#246;ltner A, Duelli R, Resch F, Schultz JH, J&#252;nger J. Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten. GMS Z Med Ausbild. 2010;27(3):Doc44. DOI: 10.3205&#47;zma000681</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000681</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Smolle J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2008</RefYear>
        <RefBookTitle>Klinische MC-Fragen rasch und einfach erstellen &#8211; ein Praxisleitfaden f&#252;r Lehrende</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Smolle J. Klinische MC-Fragen rasch und einfach erstellen &#8211; ein Praxisleitfaden f&#252;r Lehrende. Berlin&#47;New York: Walter de Gruyter; 2008.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Zusammenfassung und Vergleich der Aufwandsanalyse f&#252;r die Optionen A, B und C bei der Durchf&#252;hrung von MC-Klausuren in den Studien &#91;7&#93; und &#91;1&#93;. Dabei  entsprechen sich grob die Phasen Entwicklungszeit in Studie &#91;7&#93; und die Katalogerstellung in Studie &#91;1&#93; sowie Klausurlayout und Technische Pr&#252;fungsvorbereitung. In Studie &#91;1&#93; fehlen Angaben zur Option B, daf&#252;r ist die Option C in zwei Varianten aufgeteilt: viele R&#228;ume mit je 20 Computerarbeitspl&#228;tzen bzw. ein Testcenter mit 120 Computerarbeitspl&#228;tzen. Bei unterschiedlichen Aufwandsch&#228;tzungen beider Varianten ist die  erste Variante (viele R&#228;ume) mit &#42; und die zweite Variante (Testcenter) mit &#42;&#42; gekennzeichnet.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 1: Summary and comparison of the cost analysis for the options A, B and C for the implementation of MC-exams in studies &#91;7&#93; and &#91;1&#93;. Thereby the phases of &#8220;developmental period&#8221; in study &#91;7&#93; and &#8220;catalog production&#8221; in study &#91;1&#93; roughly correspond to each other, as well as the phases &#8220;exam layout&#8221; and &#8220;technical exam preparation&#8221;. In study &#91;1&#93; data for option B are missing and option C is divided into two types: many rooms with 20 computers each and a test center with 120 computers. With different effort estimations of both variants the first option (many rooms) is marked with a &#42; and the second option (one test center) with &#42;&#42;.</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Informationen und Zeitangaben zum Aufwand bei der Durchf&#252;hrung von 13 bzw. 12 MC-Papierklausuren mit Computerunterst&#252;tzung im WS 2010&#47;2011 und SS 2010. Im WS 09&#47;10 wurden elf Klausuren durchgef&#252;hrt, deren Zeitaufw&#228;nde nicht mit protokolliert wurden. Daher wird in der letzten Zeile nur eine Durchschnittssch&#228;tzung f&#252;r den Zeitaufwand einer typischen Klausur ohne Komplikationen gezeigt. In allen Klausuren muss f&#252;r das Ausdrucken der Klausuren ca. eine halbe bis eine Stunde sowie f&#252;r die Klausuraufsicht und das Auslegen der Klausuren ca. gut zwei Stunden (2 Aufsichtspersonen bei ca. einer Stunde Klausurzeit) hinzugez&#228;hlt werden.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 2: Informations and time designations about the effort of the implementation of 13 resp. 12 MC-paper exams with computer support in WS 2010&#47;2011 and SS 2010. In WS 09&#47;10 eleven exams were performed with their efforts not being logged. Therefore, in the last line only the average estimate for the time effort of a typical exam without complications is shown. In all written examinations about a half to one hour for printing the exams and about two hours for examination supervision and the distribution of the exams (two supervisors for about an hour of exam time) must be added.</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="982" width="1417">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: WORD-Eingabedokument f&#252;r eine exemplarische Musterklausur. Das Dokument wird geparst, in eine interne Datenstruktur &#252;berf&#252;hrt und daraus das (randomisierte) Klausurdokument mit Angabenbl&#228;ttern, die sehr &#228;hnlich aussehen, aber nat&#252;rlich keine fettgedruckte L&#246;sungen enthalten, sowie dem Antwortbogen (s. Abb. 2) generiert.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Word document input for a sample exam. The document is parsed into an internal data structure, from which the (randomized) exam document with information sheets that look very similar, but of course contain no bold solutions, and the answer sheet (see figure 2) are generated.</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="311" width="1417">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Generierter Antwortbogen f&#252;r die Klausur aus Abb. 1 im SS 10 (links) und im WS 10&#47;11 (rechts).</Mark1> </Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Generated answer sheet for the exam from figure 1 in the SS 10 (left) and in WS 10&#47;11 (right).</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="419" width="779">
          <MediaNo>3</MediaNo>
          <MediaID language="de">3de</MediaID>
          <MediaID language="en">3en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: Flussdiagramm f&#252;r den Workflow zur Klausurerstellung  und -bearbeitung. Es zeigt die Dokumente in den K&#228;stchen und die Bearbeitungsschritte bei den Pfeilen. In Klammern sind bei den Dokumenten die Typen (Office-Dokumente Word und Excel, Austauschformate PDF und XML, Papier, Bildverarbeitungsformat TIFF sowie Objekte in der Programmiersprache Java) und bei den Bearbeitungsschritten die Personen (Dozent; hellgrau bzw. orange bzw. Koordinator dunkelgrau bzw. blau hervorgehoben) bzw. das Programm angegeben. Einige Kommunikationsschritte (z.B. das Verschicken von E-Mails) sind nicht angegeben.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 3: Diagram for the workflow of exam preparation and processing. It displays the documents in the box and the processing steps at the arrows. In parentheses are for the documents the types (office documents Word and Excel, exchange formats PDF and XML, paper, image processing TIFF and objects in the Java programming language) and for the processing steps, the people (lecturer, light gray or orange or coordinator dark gray or highlighted in blue) or the specified program. Some communication steps (e.g. sending e-mails) are not mentioned.</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>3</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>