Metaanalyse

Forest-Plot zur grafischen Veranschaulichung der Ergebnisse einer Metaanalyse. Die senkrechte Linie bezeichnet jenes Chancenverhältnis oder Risikoverhältnis, welches keinem Zusammenhang zwischen untersuchtem Einflussfaktor und der abhängigen Variable entspricht. Die Quadrate stellen das Risiko-Maß der Einzelstudien dar, die waagerechten Linien die jeweiligen Konfidenzintervalle. Analog dazu zeigt der Rhombus und die dazugehörige Linie die Werte der zusammengefassten Daten.

Eine Metaanalyse ist eine Zusammenfassung von Primär-Untersuchungen zu Metadaten, die mit quantitativen und statistischen Mitteln arbeitet. Sie versucht frühere Forschungsarbeiten quantitativ bzw. statistisch zusammenzufassen und zu präsentieren. Der Unterschied zur systematischen Übersichtsarbeit (auch „Review“ genannt) liegt darin, dass ein Review die früheren Forschungsdaten und -publikationen kritisch würdigt, während die Metaanalyse nur die quantitative und statistische Aufarbeitung der früheren Ergebnisse umfasst.

Metaanalysen werden in allen Forschungsgebieten durchgeführt, in welchen empirische Daten anfallen. Dazu gehören Sozialwissenschaften, Medizin und viele Naturwissenschaften.

Eine Zusammenfassung mehrerer Metaanalysen wird wiederum als Meta-Meta-Analyse bezeichnet.[1]

In den letzten Jahren haben neben traditionellen Metaanalysen, die direkte Effekte von Interventionen vergleichen, indirekte Vergleiche und Netzwerk-Metaanalysen an Bedeutung gewonnen. Denn so können mehrere Effekte z. B. von Medikamentenstudien gleichzeitig und im gegenseitigen Vergleich untersucht werden.[2][3]

Schöpfung des Begriffs

Der Begriff wurde 1976 vom Psychologen Gene V. Glass (* 1940) in seinem Artikel „Primary, Secondary and Meta-Analysis of Research“ eingeführt. Er definiert Metaanalyse als […] analysis of analyses. I use it to refer to the statistical analysis of a large collection on analysis results from individual studies for the purpose of integrating the findings. (deutsch: „[…] Analyse von Analysen. Damit meine ich die statistische Analyse einer großen Sammlung von Analyse-Ergebnissen mehrerer Einzelstudien, die dadurch zusammengeführt werden sollen.“).[4] Durchgeführt wurde die erste Metaanalyse jedoch bereits 1904 von Karl Pearson, der die Teststärke von Studien mit wenigen Probanden durch Zusammenfassung erhöhen wollte.

Einsatzgebiete und Gründe

Metaanalysen ermöglichen die Zusammenfassung von verschiedenen Untersuchungen zu einem wissenschaftlichen Forschungsgebiet. Dabei werden die empirischen Einzelergebnisse inhaltlich homogener Primärstudien zusammengefasst. Ziel ist eine Effektgrößeneinschätzung. Es soll untersucht werden, ob ein Effekt vorliegt und wie groß dieser ist.

Gründe für die Durchführung von Metaanalysen sind unter anderem:

  • Aus mancherlei Gründen sind die Stichproben der Primärstudien viel zu klein, um verlässliche Ergebnisse zu bringen, die auf ähnliche Fälle übertragbar sind. Wenn viele Untersuchungen geeignet zusammengefasst werden, so kann das damit gewonnene Ergebnis aufgrund der größeren Gesamtzahl von Stichproben zuverlässiger sein.
  • Häufig benutzen die Primärstudien unterschiedliche Methoden, Definitionen oder ziehen ihre Stichproben nicht aus derselben Grundgesamtheit. Zudem gibt es Faktoren, die einzelne Ergebnisse beeinflussen können. In einer Metaanalyse kann festgestellt werden, welche Einflüsse es gibt und wie stark diese sind und ob trotzdem ein valides Gesamtbild möglich ist.
  • Nicht zu unterschätzen ist, dass die Durchführung von Metaanalysen (und auch Reviews) relativ kostengünstig ist, und trotzdem wertvolle Ergebnisse liefert. Sie liefert für ein gesamtes Forschungsgebiet die Grundlage, um die künftigen Forschungstätigkeiten zu skizzieren.
  • Der Publikationsbias, d. h. das Verhältnis zwischen positiven Befunden und „negativen“, also nicht-signifikanten Ergebnissen, kann ermittelt werden.

Methode

Eine Metaanalyse umfasst sämtliche Elemente des sozialwissenschaftlichen Forschungsprozesses, wie sie auch bei einer Primärforschung vollzogen werden (Cooper 1982; Schnell et al. 1995).

  1. Am Beginn stehen die Auswahl eines geeigneten Forschungsproblems sowie die genaue Eingrenzung des Forschungsgegenstandes.
  2. Die Datenerhebung besteht im Fall publikationsbasierter Metaanalysen in einer systematischen und möglichst erschöpfenden Literaturrecherche.
  3. Im Anschluss daran werden die Informationen in den gesammelten Publikationen codiert und elektronisch aufbereitet.
  4. Die eigentliche (statistische) Datenanalyse besteht in der Regel aus zwei Schritten: der Befundintegration und der anschließenden Heterogenitätsanalyse.
  5. Abschließend sind die Ergebnisse angemessen aufzubereiten und mit Bezug auf das Forschungsproblem zu interpretieren.

Das Verfahren der Metaanalyse ähnelt dem narrativen Review, das die einschlägige Literatur zu einem wissenschaftlichen Thema strukturiert vorstellt, vergleicht und mit kritischen Kommentaren versieht. Kritisiert wird die Subjektivität der Auswahl von Untersuchungen. Hier erreicht die Metaanalyse eine größere Objektivität, indem sie Kriterien für die Auswahl der Primärstudien für die Metaanalyse festlegt. Dadurch verringert sich allerdings die mögliche Anzahl der Untersuchungen, die in eine Metaanalyse aufgenommen werden können.

Die Zusammenfassung verschiedener Untersuchungen zu einem wissenschaftlichen Forschungsgebiet ist nur sinnvoll, wenn die Effektgrößen der einzelnen Untersuchungen Schätzungen einer gemeinsamen Populationseffektgröße sind. Es ist eine Homogenitätsprüfung notwendig.

Homogenitätsprüfungen gehen von einer einheitlichen Effektgröße Δ (sprich: Delta) aus. Δ ist ein universelles Effektgrößenmaß und entspricht der bivariaten Produkt-Moment-Korrelation. Es wird präferiert, da verschiedene statistische Kennwerte (z. B. r, t, F) in Δ transformiert werden können.

Die studienspezifischen Effektgrößen werden anschließend durch einen Signifikanztest auf Homogenität geprüft. Sind die Effektgrößen homogen, kann ein durchschnittlicher Δ-Wert berechnet werden, er entspricht der Schätzung der Populationseffektgröße und kann auf Signifikanz geprüft und hinsichtlich seiner Größe klassifiziert werden.

Liegen heterogene Effektgrößen vor, so kann man Strategien anwenden, die die Untersuchungen mit heterogenen Effektgrößen in homogene Subgruppen teilen. Anschließend sollte der Einfluss von Moderatorvariablen auf die Heterogenität bestimmt werden, dies geschieht varianz- oder clusteranalytisch. Bestehen keine direkten Annahmen über die Wirkung von Moderatorvariablen, kann auch eine Korrelation zwischen den Moderatorvariablen und den studienspezifischen Effektgrößen berechnet werden. Die Höhe der Korrelation beschreibt dabei den Einfluss der Moderatorvariablen auf die Heterogenität der einzelnen Effektgrößen.

Da Untersuchungsberichte häufig lückenhaft sind und teils nur über signifikante bzw. nicht-signifikante Ergebnisse berichtet wird, gibt es Verfahren, die es ermöglichen, auch diese Untersuchungen metaanalytisch zu verwenden (z. B. Auszählung, Vorzeichentest, Binomialtest und Berechnung der exakten Irrtumswahrscheinlichkeit, es resultiert die Stouffer-Prüfgröße). Mit Hilfe des ‚Fail-Safe N‘ (nach Rosenthal, 1979[5]) lässt sich beim Vorliegen eines signifikanten Gesamttests ausrechnen, wie viele Studien mit einem mittleren Effekt der Größe null noch zusätzlich vorhanden sein müssten, damit der Gesamttest nicht signifikant ist. Über die Berechnung des Fail-Safe N soll dem Problem begegnet werden, dass graue Literatur, also unveröffentlichte Untersuchungen, nicht erfasst wird (siehe unten).[5]

Die Metaanalyse kann am Ende mit einer sogenannten Meta-Regression abgerundet werden. Mit Regressionsverfahren wird festgestellt, welche Eigenschaften der Einzelstudien (z. B. diagnostische Kriterien, Herkunft, Anzahl Probanden, …) zu welchen Effektstärken führen.

Praktiken und Werkzeuge der Open Science können Metaanalysen vereinfachen und ihre Nachnutzbarkeit steigern.[6]

Diskussion der Methode

Garbage-in-Garbage-out-Problem

Kritisiert wird, die Ergebnisse einer Metaanalyse seien wenig valide, weil jede beliebige Untersuchung, unabhängig von ihrer methodischen Qualität, in die Metaanalyse eingeht. Allerdings kann der Einfluss der methodischen Qualität der Untersuchungen auf das Ergebnis der Metaanalyse kontrolliert werden, indem entweder Qualitätskriterien qualitativ hervorstehende Studien stärker gewichten, oder Ausschlusskriterien mangelhafte Studien ausschließen. Die Studien können nach methodischer Qualität gruppiert und separat ausgewertet werden.

Hervorzuheben ist hier, dass Studien mit einer geringen Anzahl Probanden oder Stichproben nicht per se mangelhaft sind.

Äpfel-Birnen-Problem

Kritisiert wird, dass Metaanalysen Untersuchungen mit unterschiedlichen Operationalisierungsvarianten zusammenfassen. Es wird gefordert, dass vor allem in Bezug auf die abhängige Variable homogene Operationalisierungen vorliegen müssen, da sie alle Indikatoren für das gleiche Konstrukt sein sollen. Andernfalls beziehen sich die Untersuchungen auf unterschiedliche Kriterien, eine Zusammenfassung wäre dann nicht sinnvoll.

Dieses Problem lässt sich ebenfalls damit beheben oder abmildern, indem die Studien nach Erscheinungszeitraum oder unterschiedlichen Definitionen/Operationalisierungen gruppiert und separat ausgewertet werden.

Schubladenproblem

[7] (engl. File Drawer Problem[8]): Häufig werden nur Ergebnisse publiziert, die angenommene Hypothesen bestätigen oder signifikante Ergebnisse aufweisen, während Untersuchungen mit nicht-signifikanten Ergebnissen nicht veröffentlicht werden (Publikationsbias). Dadurch erfolgt eine Verzerrung der metaanalytischen Ergebnisse, da diese die Existenz eines Effekts zu oft nachweisen.[9] Unveröffentlichte Literatur bezeichnet man auch als graue Literatur. „Interessanterweise hatte die graue Literatur in der ehemaligen DDR als nicht zensierte Literatur meist einen höheren wissenschaftlichen Wert als die offizielle, staatlich kontrollierte Literatur.“[10] „Eine Liste der neuesten Diplomarbeiten und Dissertationen im Fach Psychologie ist halbjährlich der Psychologischen Rundschau beigelegt.“[10] Das Problem, an graue Literatur heranzukommen, wird bei Marylu C. Rosenthal[11] (1994) behandelt.[9]

Der Publikationsbias wird in jeder sorgfältigen Metaanalyse zum Beispiel mit dem Funnel-Plot abgeschätzt. Bereits zu Beginn einer Metaanalyse soll aber beurteilt werden, inwiefern und mit welchem Aufwand die graue, nicht publizierte Literatur beschafft und berücksichtigt werden soll. In der veröffentlichten Literatur finden sich aber nicht selten Hinweise auf nicht publizierte Forschungsergebnisse, und heutzutage ist es dank dem Internet einfach, Forscher um unveröffentlichte Daten anzufragen. Allerdings erzeugt dieses Vorgehen wiederum eine methodische Schwäche, die kaum zu beheben ist.

Problem der abhängigen Messungen

Dieses Problem tritt auf, wenn verschiedene (abhängige) Teilergebnisse an der gleichen Stichprobe erhoben worden sind. Dies kann etwa auftreten, wenn ein Wissenschaftler dasselbe Gesundheitsproblem mehrmals nacheinander im selben geografischen Gebiet untersucht hatte, und die Ergebnisse in mehreren Publikationen veröffentlichte. Da Untersuchungseinheiten von Metaanalysen aber Einzelstudien und nicht Teilstichproben sind, darf immer nur ein Ergebnis einer Untersuchung in die Metaanalyse mit eingehen, da andernfalls diese Untersuchung ein größeres Gewicht erhalten würde als eine Untersuchung, die nur mit einem Ergebnis in die Metaanalyse eingeht. Entweder beschränkt man sich auf das wichtigste oder aussagekräftigste Ergebnis unter den Teilergebnissen, oder man bildet das arithmetische Mittel als Schätzung des Gesamtergebnisses. Sind aber die Rohdaten aus allen Teilergebnissen vorhanden, lässt sich aber ein Gesamtergebnis rekonstruieren.

Literatur

  • Harris M. Cooper: Scientific guidelines for conducting integrative research reviews. In: Review of Educational Research 52, 1982, ISSN 0034-6543, S. 291–302.
  • Harris Cooper, Larry V. Hedges (Hrsg.): The Handbook of Research Synthesis. Russell Sage Foundation, New York NY 1994, ISBN 0-87154-226-9.
  • Gene V. Glass: Primary, Secondary and Meta-Analysis of Research. In: Educational Researcher 5, 1976, ISSN 0013-189X, S. 3–8.
  • Joachim Hartung, Guido Knapp, Bimal K. Sinha: Statistical meta-analysis with applications. J. Wiley & Sons, Inc., Hoboken NJ 2008, ISBN 978-0-470-29089-7, (Wiley Series in Probability and Statistics).
  • John E. Hunter, Frank L. Schmidt, Gregg B. Jackson: Meta-Analysis. Cumulating research findings across studies. Sage Publications, Beverly Hills CA 1982, ISBN 0-8039-1864-X, (Studying organizations 4), (Empfehlenswerte Einleitung).
  • Rainer Schnell, Paul B. Hill, Elke Esser: Methoden der empirischen Sozialforschung. 5. völlig überarbeitete und erweiterte Auflage. Oldenbourg Verlag, München u. a. 1995, ISBN 3-486-23489-7.
  • Antonia Zapf, Christian Röver: Metaanalyse. In: Jan Gertheiss, Matthias Schmid, Martin Spindler (Hrsg.): Moderne Verfahren der Angewandten Statistik. Springer Spektrum, Berlin 2024, ISBN 978-3-662-63496-7, doi:10.1007/978-3-662-63496-7_19-1.

Einzelnachweise

  1. Ton J. Cleophas, Aeilko H. Zwinderman: Meta-Meta-analysis. In: Modern Meta-Analysis: Review and Update of Methodologies. Springer International Publishing, Cham 2017, ISBN 978-3-319-55895-0, S. 135–143, doi:10.1007/978-3-319-55895-0_11.
  2. G. Moeser, C. Ecker: Indirekte Vergleiche in der frühen Nutzenbewertung in Deutschland - eine Bestandsaufnahme. In: Gesundheitsökonomie & Qualitätsmanagement. Band 18, Nr. 05, 15. Oktober 2013, ISSN 1432-2625, S. 235–243, doi:10.1055/s-0033-1355483 (thieme-connect.de [abgerufen am 10. Februar 2023]).
  3. Corinna Kiefer, Sibylle Sturtz, Ralf Bender: Indirect Comparisons and Network Meta-Analyses. In: Deutsches Ärzteblatt international. 20. November 2015, ISSN 1866-0452, doi:10.3238/arztebl.2015.0803, PMID 26634940, PMC 4678383 (freier Volltext).
  4. Gene V. Glass: Primary, Secondary and Meta-Analysis of Research. In: Educational Researcher 5, 1976, S. 3–8, doi:10.3102/0013189X005010003 JSTOR:1174772.
  5. a b Performance und Vertrauen in Unternehmenskooperationen: Eine Metaanalyse zu den Bestimmungsfaktoren für den Zusammenhang zwischen Performance und Vertrauen in Unternehmenskooperationen. kassel university press GmbH, 2011, ISBN 978-3-86219-215-1, S. 135 (eingeschränkte Vorschau in der Google-Buchsuche).
  6. David Moreau, Beau Gamble: Conducting a Meta-Analysis in the Age of Open Science: Tools, Tips, and Practical Recommendations. PsyArXiv, 7. Januar 2020, doi:10.31234/osf.io/t5dwg (osf.io [abgerufen am 8. August 2022]).
  7. Jürgen Bortz, Nicola Döring: Forschungsmethoden und Evaluation: für Human- und Sozialwissenschaftler. Springer-Verlag, 2013, ISBN 978-3-662-07299-8, S. 646 (eingeschränkte Vorschau in der Google-Buchsuche).
  8. Metaanalyse. Rainer Hampp Verlag, 2014, ISBN 978-3-86618-975-1, S. 77 (eingeschränkte Vorschau in der Google-Buchsuche).
  9. a b Jürgen Bortz, Nicola Döring: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4., überarbeitete Auflage. Springer Medizin-Verlag, Heidelberg 2006, ISBN 3-540-33305-3, S. 674, (online).
  10. a b Jürgen Bortz, Nicola Döring: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4., überarbeitete Auflage. Springer Medizin-Verlag, Heidelberg 2006, ISBN 3-540-33305-3, S. 360, (online).
  11. Marylu C. Rosenthal: The Fugitive Literature. In: Harris Cooper, Larry V. Hedges (Hrsg.): The Handbook of Research Synthesis. Russell Sage Foundation, New York NY 1994, ISBN 0-87154-226-9, S. 85–94.

Strategi Solo vs Squad di Free Fire: Cara Menang Mudah!