Metaanalyse meta-analysis
BiblioMap
Synonyme
Metaanalyse, Meta-Analyse, meta-analysis
Definitionen
Eine Meta-Analyse is t eine Zusammenführung bestehender
Einzelstudien zu ein em Problemfeld und eine Klärung
der Unterschiedlichkeit ihrer Ergebnisse.
Von Klaus Zierer im Buch Hattie für gestresste Lehrer (2014) A computation of average effect sizes among many
experiments. Data based on a meta-analysis give us
greater confidence in the results because they reflect
many research studies.
Von Ruth Colvin Clark, Richard E. Mayer im Buch E-Learning and the Science of Instruction (2002) auf Seite 465Unter der Bezeichnung Metaanalyse versteht man eine
Gruppe von Verfahren, mit denen die Ergebnisse verschiedener
Untersuchungen mit gemeinsamer Thematik
zusammengefasst werden, um so einen Überblick über
den aktuellen Stand der Forschung zu gewinnen.
Von Jürgen Bortz, Nicola Döring im Buch Forschungsmethoden und Evaluation (2001) im Text Metaanalyse auf Seite 672Die Metaanalyse läuft auf eine
statistische Effektgrößenschätzung hinaus und resultiert
also in der mehr oder minder gut gesicherten Aussage,
ob ein fraglicher Effekt (z. B. Zusammenhang
zwischen Passivrauchen und Lungenkrebs) existiert und
wie groß er ist.
Von Jürgen Bortz, Nicola Döring im Buch Forschungsmethoden und Evaluation (2001) im Text Metaanalyse auf Seite 672Eine Metaanalyse fasst den aktuellen Forschungsstand zu einer Fragestellung zusammen, indem sie die empirischen Einzelergebnisse inhaltlich homogener Primärstudien statistisch aggregiert. Dabei kann überprüft werden, ob ein fraglicher Effekt in der Population vorliegt und wie groß er ist.
Von Jürgen Bortz, Nicola Döring im Buch Forschungsmethoden und Evaluation (2001) im Text Metaanalyse auf Seite 10Eine Metaanalyse fasst den aktuellen Forschungsstand
zu einer Fragestellung zusammen, indem sie
die empirischen Einzelergebnisse inhaltlich homogener
Primärstudien statistisch aggregiert. Dabei
kann überprüft werden, ob ein fraglicher Effekt in
der Population vorliegt und wie groß er ist.
Von Jürgen Bortz, Nicola Döring im Buch Forschungsmethoden und Evaluation (2001) im Text Metaanalyse auf Seite 673The meta-analytic process can be broken down into six steps:
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) im Text Drawing conclusions using meta-analysis auf Seite 97- 1. Collect the studies.
- 2. Code the studies.
- 3. Calculate a mean effect size.
- 4. Compute the statistical significance of the mean.
- 5. Examine the variability in the distribution of effect size estimates.
- 6. Interpret the results.
The purpose of a meta-analysis is to collect individual effect size estimates from different studies and combine them into a mean effect size. The primary output is a single number. To help us interpret this number we would normally compute three other numbers relating to the statistical significance and the precision of the result, and the variability in the sample of observations.
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) im Text Drawing conclusions using meta-analysis auf Seite 97Meta-analysis, literally the statistical analysis of statistical analyses, describes a set of procedures for systematically reviewing the research examining a particular effect, and combining the results of independent studies to estimate the size of the effect in the population. Before they are combined, study-specific effect size estimates are weighted according to their degree of precision. To reduce the variation attributable to sampling error, estimates obtained from small samples are given less weight than estimates obtained from large samples. Individual estimates may also be adjusted for measurement error. The outcome of a meta-analysis is a weighted mean effect size which reflects the population effect size more accurately than any of the individual estimates. In addition, a meta-analysis will generate information regarding the precision and statistical significance of the pooled estimate and the variation in the sample of observed effects.
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) im Text Drawing conclusions using meta-analysis auf Seite 94Eine Metaanalyse muss man sich im Prinzip wie folgt vorstellen: Es werden alle Studien zu einem Untersuchungsbereich
registriert (beispielsweise zur Klassenwiederholung oder zu Leseförderprogrammen), sodann
bestimmte methodische Ansprüche definiert, denen diese Studien für eine übergeordnete Auswertung
zu genügen haben, und dann die Ergebnisse dieser Studien zusammengestellt. Beispielsweise wird bei
Leseförderprogrammen ein Lesetest eingesetzt, der den Teilnehmern des Programms und einer
Kontrollgruppe vorgelegt wird. (Die Kontrollgruppe dürfte im vorliegenden Fall nahe liegender Weise aus
Schülerinnen und Schülern bestehen, die an dem zusätzlichen Programm nicht teilnehmen oder die
stattdessen ihren üblichen Unterricht haben.) Nun wird das Ausmaß der Testunterschiede zwischen der
Programmgruppe und der Kontrollgruppe ermittelt (in der Regel als Mittelwerte) und durch ein statistisches
Verfahren das sogenannte „Effektmaß“ bestimmt. Dieses Maß orientiert sich an den Mittelwertdifferenzen
und wird anhand einer bestimmten Verrechnungsformel (u. a. unter Berücksichtigung der Mittelwertstreuungen)
ermittelt. In einer Metaanalyse werden für jede der berücksichtigten Studien diese Unterschiede
in Form des Effektmaßes zusammengestellt und in einer Bilanz festgehalten.
Von bmuk Bundesministerium für Unterricht, Kunst und Kultur im Text Die Hattie-Studie (2012) Bemerkungen
The worst way to combine the individual effect sizes is to simply average them. A far better alternative is to calculate a weighted mean effect size after each individual estimate has been corrected for measurement error. There are different procedures for weighting effect size estimates, but the easiest method, and arguably the best, is to weight estimates by their corresponding sample size.
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) im Text Drawing conclusions using meta-analysis auf Seite 102Within ten years of Glass and Smith’s pioneering study, there were at least five different methods for running a meta-analysis (Bangert-Drowns 1986). Since then the number of methods has increased further, but two methods have emerged, like Coke and Pepsi, to dominate the market. These are the methods developed by Hunter and Schmidt (see Hunter and Schmidt 2000; Schmidt and Hunter 1977, 1999a) and by Hedges and his colleagues (see Hedges 1981, 1992, 2007; Hedges and Olkin 1980, 1985; Hedges and Vevea 1998).
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) im Text Drawing conclusions using meta-analysis auf Seite 109Done well, a meta-analysis can provide a precise conclusion regarding the direction and magnitude of an effect even when the underlying data come from dissimilar studies reporting conflicting conclusions. Meta-analysis can also be used to test hypotheses that are too big to be tested at the level of an individual study. Metaanalysis thus serves two important purposes: it provides an accurate distillation of extant knowledge and it signals promising directions for further theoretical development. Not everyone will want to run a meta-analysis, but learning to think meta-analytically is an essential skill for any researcher engaged in replication research or who is simply trying to draw conclusions from past work.
Von Paul D. Ellis im Buch The Essential Guide to Effect Sizes (2010) Der "intellektuelle" Anspruch
einer Meta-Analyse besteht heute nur noch darin, sehr viele
Dokumente von Hilfskräften nach Studien zu einem bestimmten
Thema absuchen zu lassen, ein paar Ergebnisdaten
(Korrelationen, Mittelwerte, Standardabweichungen und
Stichprobenumfang) nebst Informationen über die erfassten
Variablen in eine Tabelle zu übertragen und dem Computer
zu befehlen, mit diesen Informationen vorprogrammierte
Analysen durchzuführen. Die Tiefe der Meta-Analyse wird
meist auf so genannte Haupteffekte sowie auf Abhängigkeiten
erster Ordnung begrenzt. Wenn zwei Bedingungen zusammenwirken (was in der Realität eher die Regel als die
Ausnahme ist) oder wenn hinter der analysierten Ursache
weitere Ursache wirkt, fällt das einfach unter den Tisch.
Diese Einengung der Analysen bleibt nicht ohne gravierende
Auswirkungen auf die pädagogischen und bildungspolitischen
Schlussfolgerungen. So wird nur berichtet, dass
Hausaufgaben kaum einen Effekt für die Lernleistung haben,
aber nicht, dass es bestimmten Formen von Hausaufgaben
(z.B. Projekte) gibt, die das Lernen sehr deutlich fördern,
andere dagegen negative Wirkung haben können.
Von Georg Lind im Text Meta-Analysen als Wegweiser? (2013) Verwandte Objeke
Verwandte Begriffe (co-word occurance) | Effektstärkeeffect size(0.24) |
Relevante Personen
Häufig erwähnende Personen
Häufig co-zitierte Personen
Statistisches Begriffsnetz
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
71 Erwähnungen
- The Effect of Computers on Student Writing - A Meta-analysis of Studies from 1992 to 2002 (Amie Goldberg, Michael Russell, Abigail Cook)
- Active on Facebook and Failing at School? - Meta-Analytic Findings on the Relationship Between Online Social Networking Activities and Academic Achievement (Caroline Marker, Timo Gnambs, Markus Appel)
- Allgemeine Didaktik (Karl Frey, Angela Frey-Eiling)
- Primary, Secondary and Meta-Analysis of Research (Gene V. Glass) (1976)
- Meta-analysis in social research (Gene V. Glass, Barry McGaw, Mary Lee Smith) (1981)
- Reconsidering research on learning from media (Richard E. Clark) (1983)
- Statistical Power Analysis for the Behavioral Sciences (Jacob Cohen) (1988)
- Grundlagen hypermedialer Lernsysteme - Theorie - Didaktik - Design (Rolf Schulmeister) (1996)
- The no significant difference phenomenon (T. Russell) (1999)
- Reliability of responses in questionnaire research with children (N Borgers, JJ Hox) (2000)
- Forschungsmethoden und Evaluation - für Human- und Sozialwissenschaftler (Jürgen Bortz, Nicola Döring) (2001)
- E-Learning and the Science of Instruction - Proven Guidelines for Consumers and Designers of Multimedia Learning (Ruth Colvin Clark, Richard E. Mayer) (2002)
- A Meta-Analysis of the Effectiveness of Teaching and Learning With Technology on Student Outcomes (Meng-Fen Lin, Georgette M. Michko, Hersh C. Waxman) (2003)
- Why Most Published Research Findings Are False (John P. A. Ioannidis) (2005)
- Wir evaluieren uns zu Tode - Möglichkeiten und Grenzen der Bewertung von Online-Lernen. Eine Meta-Evaluation. (Annabell Preussler) (2008)
- 7. Meta-Evaluation und Metaanalyse
- Visible Learning - A Synthesis of Over 800 Meta-Analyses Relating to Achievement (John Hattie) (2009)
- 1. The challenge
- 2. The nature of evidence - a synthesis of meta-analysis
- Ausgewählte Methoden der Didaktik (Karl Frey, Angela Frey-Eiling) (2009)
- The Essential Guide to Effect Sizes - Statistical Power, Meta-Analysis, and the Interpretation of Research Results (Paul D. Ellis) (2010)
- Hat John Hattie tatsächlich den Heiligen Gral der Schul- und Unterrichtsforschung gefunden? - Eine Auseinandersetzung mit Visible Learning (Ewald Terhart) (2011)
- Changes in Dispositional Empathy in American College Students Over Time - A Meta-Analysis (Sara H. Konrath, Edward H. O’Brien, Courtney Hsing) (2011)
- Fragwürdige Selbstplagiate - Mehrfachpublikationen sind kein Kavaliersdelikt (Christian Speicher) (2011)
- Visible Learning for Teachers - Maximizing Impact on Learning (John Hattie) (2012)
- 2. The source of the ideas
- Schulbücher im Fokus - Nutzungen, Wirkungen und Evaluation (Jörg Doll, Keno Frank, Detlef Fickermann, Knut Schwippert) (2012)
- Schulbuch und neue Medien im Unterricht - Theorie und empirische Forschung zur Hybridisierung und Komplementarität (Hermann Astleitner)
- Die Hattie-Studie (bmuk Bundesministerium für Unterricht, Kunst und Kultur) (2012)
- Was ist das Wichtigste beim Lernen? - Die Forschungsbilanz von John Hattie (Ulrich Steffens, Dieter Höfer) (2012)
- Die Hattie-Studie: Der heilige Gral der Didaktik? - Metaanalysen: Nutzen und Grenzen von Allgemeinaussagen in der Bildungsforschung (Hans Brügelmann) (2013)
- Ich bin superwichtig! (Martin Spiewak) (2013)
- Meta-Analysen als Wegweiser? - Zur Rezeption der Studie von Hattie in der Politik. (Georg Lind) (2013)
- Digitale Demenz? - Mythen und wissenschaftliche Befundlage zur Auswirkung von Internetnutzung (Markus Appel, Constanze Schreiner) (2014)
- Wie wirksam sind digitale Medien im Unterricht? (Bardo Herzig) (2014)
- Fehler in John Hatties «sichtbarem Lernen» (Rolf Schulmeister, Jörn Loviscach) (2014)
- Leben in einer digitalen Welt: Wissenschaftliche Befundlage und problematische Fehlschlüsse - Stellungnahme zur Erwiderung von Spitzer (2015) (Markus Appel, Constanze Schreiner) (2015)
- Tablets for Teaching and Learning - A Systematic Review and Meta-Analysis (Rana M. Tamim, Eugene Borokhovski, David Pickup, Robert M. Bernard, Lina El Saadi) (2015)
- Die perfekte Lehrerin (Anja Burri) (2017)
- Second Handbook of Information Technology in Primary and Secondary Education (Joke Voogt, Gerald Knezek, Rhonda Christensen, Kwok-Wing Lai) (2018)
- 78. Meta-analyses of Large-Scale Datasets: A Tool for Assessing the Impact of Information and Communication Technology in Education (Yuen-Kuang Cliff Liao, Wan-Ching Lai)
- Theory of Teaching Thinking - International Perspectives (Laura Kerslake, Rupert Wegerif) (2018)
- Don't throw away your printed books - A meta-analysis on the effects of reading media on reading comprehension (Pablo Delgado, Cristina Vargas, Rakefet Ackerman, Ladislao Salmeróna) (2018)
- Visible Learning: Auf den Punkt gebracht (John Hattie, Klaus Zierer) (2018)
- Gesund aufwachsen in der digitalen Medienwelt - Eine Orientierungshilfe für Eltern und alle, die Kinder und Jugendliche begleiten (Autorenkollektiv diagnose:media) (2018)
- Medien und Schule - Unterrichten mit Whiteboard, Smartphone und Co. (Heike Schaumburg, Doreen Prasse) (2018)
- Digitalisierung als De-Humanisierung von Schulen - Vom Unterrichten zum Vermessen. Bildungseinrichtungen unter dem Diktat von Betriebswirtschaft und Datenökonomie (Ralf Lankau) (2019)
- ICER 2019 - Proceedings of the 2019 ACM Conference on International Computing Education Research, ICER 2019, Toronto, ON, Canada, August 12-14, 2019 (Robert McCartney, Andrew Petersen, Anthony V. Robins, Adon Moskal) (2019)
- Defining What Empirically Works Best - Dynamic Generation of Meta-Analysis for Computer Science Education (Monica M. McGill, Tom McKlin, Errol Kaylor) (2019)
- Frische Blicke auf die Schule - horizonte 122 (2019)
- Fakten statt Bauchgefühl (Santina Russo)
- Hattie sichtbar machen - Helix 2 (2019)
- Virtuelles Gemetzel (Sebastian Herrmann) (2020)
- Interpreting Effect Sizes of Education Interventions (Matthew A. Kraft) (2020)
- Is the Pencil Mightier than the Keyboard? - A Meta-Analysis Comparing the Method of Notetaking Outcomes (Mike Allen, Luke LeFebvre, Leah E. LeFebvre, John Bourhis) (2020)
- Don't Ditch the Laptop Just Yet - A Direct Replication of Mueller and Oppenheimer's (2014) Study 1 Plus Mini-Meta-Analyses Across Similar Studies (Heather Urry) (2020)
- The potential of digital tools to enhance mathematics and science learning in secondary schools - A context-specific meta-analysis (Delia Hillmayr, Lisa Ziernwald, Frank Reinhold, Sarah I. Hofer, Kristina M. Reiss) (2020)
- Haben die Corona-Skeptiker recht? (Alexandra Bröhm, Felix Straumann) (2020)
- Das Handy kennt sich mit der Psyche aus (Jan Schwenkenbecher) (2020)
- Handschriftenstudie hat weder Hand noch Fuss (Sebastian Herrmann) (2020)
- Professionelles Handlungswissen für Lehrerinnen und Lehrer - Lernen - Lehren - Können (Peter Greutmann, Henrik Saalbach, Elsbeth Stern) (2021)
- Digitalisierung aus pädagogische Perspektive (2021)
- Pädagogik 09/2021 - Sprachsensibel unterrichten (2021)
- Implementation of technology-supported personalized learning - its impact on instructional quality (Regina Schmid, Christine Pauli, Rita Stebler, Kurt Reusser, Dominik Petko) (2022)
- Lernen - personalisiert & digital (2022)
- Technology acceptance of a mobile portfolio app for teacher education - Pre-service teachers views on multimedia-based note-taking and mentoring in internships (Dominik Petko, Andrea Cantieni, Regina Schmid, Laura Müller, Maike Krannich, Konstantinos Michos) (2022)
- Pädagogik 2/2023 (2023)
- Können wir das auch digital anbieten? (Joschka Falck, Andrea Zander) (2023)
- Visible Learning: The Sequel - A Synthesis of Over 2,100 Meta-Analyses Relating to Achievement (John Hattie) (2023)
- Teaching Coding in K-12 Schools - Research and Application (Therese Keane, Andrew Fluck) (2023)
- The Problem with Programming: An Overview (Christina Chalmers)
- Past, Present and Future of Computing Education Research (Mikko Apiola, Sonsoles López-Pernas, Mohammed Saqr) (2023)
- The Evolving Themes of Computing Education Research - Trends, Topic Models, and Emerging Research (Mikko Apiola, Mohammed Saqr, Sonsoles López-Pernas)
- Bildung für eine digitale Zukunft (Katharina Scheiter, Ingrid Gogolin) (2023)
- Zum Zusammenhang zwischen Leistungs- und Motivationseffekten beim Einsatz digitaler Tools im mathematisch-naturwissenschaftlichen Unterricht der Sekundarstufe. Eine Forschungssynthese (Delia Hillmayr, Frank Reinhold, Lisa Ziernwald, Sarah I. Hofer, Kristina Reiss)
- Technology in education: A Tool on whose Terms? (UNESCO United Nations Educational, Scientific and Cultural Org.) (2023)
- Does the Brain Drain Effect Really Exist? - A Meta-Analysis (Tobias Böttger, Michael Poschik, Klaus Zierer) (2023)
- Den heiligen Gral gibt es nicht (Klaus Zierer) (2023)
- ChatGPT als Heilsbringer? - Über Möglichkeiten und Grenzen von KI im Bildungsbereich (Klaus Zierer) (2024)
- Schaden Tiktok und Instagram wirklich? - Eine Studie gibt Entwarnung (Felix Straumann) (2024)