Direkt zum InhaltDirekt zur SucheDirekt zur Navigation
▼ Zielgruppen ▼

Humboldt-Universität zu Berlin - Mathematisch-Naturwissen­schaft­liche Fakultät - Didaktik der Physik | Physics Education Research

Argumentationsprozesse in Real- und Simulationsexperimenten

In der Lehr-Lernforschung werden Simulationen als effiziente Methode genutzt, um das Verhalten von Lernenden beim Experimentieren zu untersuchen (z. B. Gößling, 2010; Künsting et al., 2008; de Jong & van Joolingen, 1998). Das Heranziehen von Computersimulationen zur Untersuchung kognitionspsychologischer Fragestellungen ist legitim. Bisher ist u. E. jedoch nur unzureichend untersucht, ob es möglich ist, Ergebnisse, die in einer virtuellen „Experimentierumgebung beobachtet werden, didaktisch sinnvoll auf den realen naturwissenschaftlichen Unterricht, insbesondere den Physikunterricht, übertragen zu können“ (Künsting et al., 2008, S. 2). Die didaktische Relevanz der Ergebnisse ist deshalb infrage zu stellen, da die methodischen Vorgehensweisen und die epistemologischen Implikationen in beiden Lernsettings sehr unterschiedlich sein können. Bisherige empirische Arbeiten bzgl. der Unterschiede beim Arbeiten mit realen und virtuellen Experimenten zeigen divergierende Befunde (Smetana & Bell, 2012; Triona & Klahr, 2003, Schreiber, Theyßen & Schecker, 2011). Es muss daher konstatiert werden, dass z. Zt. noch nicht hinreichend untersucht ist, welchen Einfluss die offensichtlichen Unterschiede zwischen realen und virtuellen Medien (z. B. hinsichtlich des Zeitaufwands, der Dimensionalität des Aufbaus, der Vereinfachung bzw. Komplexität des Handlings und der Manipulation, hinsichtlich Generierung der Daten und der Bedeutung von Messunsicherheiten) insbesondere auf kognitive Prozesse auf Seiten Lernender nehmen. Vor diesem Hintergrund werden im vorgestellten Forschungsprojekt die Argumentationsprozesse beim hypothesenprüfenden Experimentieren in realen und virtuellen Settings untersucht. Hieraus ergibt sich die folgende Hauptforschungsfrage:
 
Welchen Einfluss hat die Experimentierumgebung (real vs. virtuell) auf die Argumentationsprozesse  beim Wechseln bzw. Beibehalten einer Hypothese und auf die Nachhaltigkeit dieser Entscheidung? 
 
In einer Interviewstudie wurde zunächst das Spektrum möglicher Argumentationen erfasst und zehn Kategorien zugeordnet (Ludwig & Priemer, 2012, 2013). Weiterhin wurden diese zehn Argumentationskategorien in eine periphere und eine zentrale Klasse dichotom eingeteilt. Dieses Vorgehen zeigt Analogie zum Elaboration-Likelihood-Model of Persuasion (kurz: ELM, Petty & Cacioppo, 1986). Das ELM beschreibt den Umgang von Rezipienten (hier: Lernende) mit persuasiven Mitteilungen (hier: Experiment mit nicht-hypothesenkonformer Datenlage).  Zur Erfassung der verwendenten Argumentationen wurde ein selbstauskunftsbasierter Test für vier der zehn Argumentationskategorien entwickelt, der zunächst durch eine Expertenstudie inhaltlich validiert und im folgenden empirisch evaluiert wurde. Mittels Methoden der konfirmatorischen Faktorenanalyse konnten Belege für das Vorliegen von diskriminanter, konvergenter und faktorieller Validität gesammelt werden. Besonderer Fokus lag hierbei außerdem in der Analyse der Messinvarianz des Tests (mittels Multigruppen-CFA), d.h. a) die Prüfung der Äquivalenz der sowie b) die Prüfung der Äquivalenz der Messbeziehungen zwischen Items und latenten Faktoren über die Gruppen hinweg. Die angeführte Forschungsfrage wird im Frühjahr 2014 in einem experimentellen Vergleichsdesign quantitativ untersucht. 
 

Comparing the Influence of Hands-on vs. Virtual Experiments on Secondary School Students’ Argumentation 

Computer simulations of physical experiments are a widespread and efficient possibility to examine students’ behaviour during the process of experimentation, especially in the field of research on learning and instruction (e.g. Gößling, 2010; Künsting et al., 2008; de Jong & van Joolingen, 1998). The use of computer simulations to study psychological issues is considered legitimate. However, we question the transferability of these results into real science classes, as is claimed by some researchers (e.g. Künsting et al., 2008, p.2). 
We challenge these results because the process of experimentation itself and the  epistemological implications in both settings can be different.  In our view, this transferability is insufficiently investigated and most research on this topic leads to divergent results regarding the comparability (Smetana & Bell, 2012; Triona & Klahr, 2003, Schreiber, Theyßen & Schecker, 2011). We state that an investigation of the  influence of the obvious cross-medium differences (e.g. dimensionality, complexity, handling and manipulation, data generation vs. data reproduction, measurement uncertainties) on cognitive processes during experimentation is still outstanding.  In this context we examine the influence of the medium (real vs. virtual) on argumentation processes during hypothesis-testing experiments. This is a more process-orientated approach, rather than, for example, comparing learning achievement.
As a first step we derived a system of argumentation categories from interviews with secondary school students confronted with experimentally-gained anomalous data (Ludwig % Priemer, 2012;2013). As in the Elaboration-Likelihood Model of Persuasion (ELM; Petty & Cacioppo, 1986), we divide those categories hypothetically into two classes of elaboration. The ELM describes how one deals with persuasive information (in this context: experimentally-gained anomalous data). Furthermore, to measure the use of the proposed argumentation categories quantitatively, a paper-pencil test was developed (Ludwig & Priemer, 2014). Content validity was assessed by means of an expert study. The test was subsequently empirically validated. Using methods in the framework of confirmatory factor analysis (CFA), evidence for factorial, discriminant and divergent validity was gained. In the empirical test evaluation, special focus was put on the establishment of measurement invariance as a requirement for comparing group means (e.g. Vandenberg & Lance, 2000). This newly-developed test is being applied in currently ongoing cross-group comparison studies to address the main research questions. 

 

 
 

Mitarbeiter | Team

Publikationen | Publications

Publikationen aus diesem Projekt finden Sie hier...