In der Statistik umfaßt Meta-Analyse statistischer Methoden zur Kontrastierung und die Kombination von Ergebnissen verschiedener Studien, in der Hoffnung, die Ermittlung der Arten unter den Studienergebnissen Quellen Unstimmigkeit zwischen diesen Ergebnissen oder andere interessante Beziehungen, um Licht in Zusammenhang mit mehreren Studien kommen können, . Meta-Analyse können wie folgt beschrieben werden "forscht zu früheren Forschung." In seiner einfachsten Form, ist Meta-Analyse durch Identifizieren eines gemeinsamen statistischen Maßnahme, die zwischen den Studien, wie zB Effektstärke oder p-Wert geteilt wird, und Berechnen eines gewichteten Durchschnitts dieser gemeinsamen Maßnahme durchgeführt. Diese Gewichtung ist in der Regel im Zusammenhang mit den Stichprobengrößen der einzelnen Studien, obwohl es auch andere Faktoren, wie zB Studienqualität.
Die Motivation einer Meta-Analyse ist es, ein, um eine höhere statistische Aussagekraft für die Maßnahme von Interesse zu erreichen aggregieren, im Gegensatz zu einer weniger präzise Maßnahme aus einer Studie stammen. Bei der Durchführung einer Meta-Analyse muss ein Ermittler Entscheidungen von denen viele auf das Ergebnis auswirken, einschließlich der Entscheidung, wie für Studien zu suchen, die Auswahl Studien auf der Grundlage einer Reihe objektiver Kriterien, die sich mit unvollständigen Daten, die Analyse der Daten und Kontoführung für machen oder die Wahl nicht zur Veröffentlichung Bias berücksichtigen.
Meta-Analysen sind oft, aber nicht immer, wichtige Bestandteile einer systematischen Vorgehensweise. Zum Beispiel kann eine Meta-Analyse von mehreren klinischen Studien mit einer medizinischen Behandlung in einem Versuch, ein besseres Verständnis dafür, wie gut der Kläranlage zu erhalten, ausgeführt werden. Hier bietet es sich an die Terminologie von der Cochrane Collaboration verwendet zu folgen, und verwenden Sie "Meta-Analyse", um statistische Methoden zu kombinieren Beweise beziehen, so dass andere Aspekte der "Forschungssynthese" oder "Evidenzsynthese", wie die Kombination von Informationen aus qualitative Studien, für den allgemeineren Rahmen der systematischen Übersichtsarbeiten.
Geschichte
Die historischen Wurzeln der Meta-Analyse lassen sich auf Studien der Astronomie des 17. Jahrhunderts zurückverfolgt werden, während ein Papier im Jahr 1904 durch die Statistiker Karl Pearson im British Medical Journal, die Daten aus mehreren Studien Typhusimpfung wird als das erste Mal, wenn ein gesehen zusammengestellt veröffentlicht meta-analytischen Ansatz wurde verwendet, um die Ergebnisse mehrerer klinischer Studien zu aggregieren. Die erste Meta-Analyse aller konzeptionell identische Experimente zu einem bestimmten Forschungsfrage, und von unabhängigen Forschern durchgeführt, wurde als 1940 Buchlänge Veröffentlichung Sinnliche Wahrnehmung identifiziert wurde nach sechzig Jahren, von der Duke University verfasste Psychologen JG Pratt, JB Rhine und Mitarbeiter. Dies umfasste eine Überprüfung der 145 Berichte über ESP-Experimente 1882-1939 veröffentlicht und enthalten eine Schätzung des Einflusses von unveröffentlichte Arbeiten über die Gesamtwirkung. Obwohl Meta-Analyse ist weit verbreitet in der Epidemiologie und der evidenzbasierten Medizin heute benutzt wurde eine Meta-Analyse von einer medizinischen Behandlung nicht bis 1955. In den 1970er Jahren veröffentlicht wurde, wurden mehr anspruchsvolle analytische Techniken in der Bildungsforschung eingeführt, beginnend mit der Arbeit von Gene V. Glas, Frank L. Schmidt und John E. Hunter.
Der Begriff "Meta-Analyse" wurde von Gene V. Glass, der die erste moderne statistician um die Verwendung des Begriffs Meta-Analyse formalisiert wurde geprägt. Er sagt: "Mein Hauptinteresse ist derzeit in das, was wir sind gekommen, um nennen ... die Meta-Analyse von Forschung. Der Begriff ist ein bisschen groß, aber es präzise und apt ist ... Meta-Analyse bezieht sich auf die Analyse von Analysen ". Obwohl dies führte dazu, dass er weithin als der Begründer der modernen Methode bilanziert, die Methodik hinter dem, was er als "Meta-Analyse" ist älter als seine Arbeit von mehreren Jahrzehnten. Die statistische Theorie umliegenden Meta-Analyse wurde durch die Arbeit von Nambury S. Raju, Larry V. Hedges, Harris Cooper, Ingram Olkin, John E. Hunter, Jacob Cohen, Thomas C. Chalmers, Robert Rosenthal und Frank L. Schmidt voran .
Vorteile
Konzeptionell setzt eine Meta-Analyse ein statistischer Ansatz, um die Ergebnisse von mehreren Studien in dem Bemühen der Größe des Effekts zu kombinieren, um Leistung zu erhöhen, die Schätzungen und / oder die Unsicherheit zu lösen, wenn die Berichte widersprechen. Grundsätzlich erzeugt es einen gewichteten Durchschnitt der Ergebnisse der Studie enthalten und dieser Ansatz hat mehrere Vorteile:
- Die Ergebnisse können auf eine größere Zahl verallgemeinert werden,
- Die Präzision und Genauigkeit der Schätzung verbessert, wenn mehr Daten verwendet werden. Dies wiederum kann die statistische Aussagekraft, um eine Wirkung zu erkennen erhöhen.
- Inkonsistenz der Ergebnisse zwischen den Studien quantifiziert und analysiert werden. Zum Beispiel macht Inkonsistenzen entstehen durch Stichprobenfehler, oder sind Studienergebnisse von zwischen-Studie Heterogenität geprägt.
- Hypothesentests können auf Zusammenfassung Schätzungen angewendet werden,
- Moderatoren können eingeschlossen werden, um Variationen zwischen den Studien zu erklären,
- Die Anwesenheit von Publikationsbias untersucht werden
Fallstricke
Eine Meta-Analyse von mehreren kleinen Studien nicht vorhersagen, die Ergebnisse einer einzigen großen Studie. Manche haben argumentiert, dass eine Schwäche der Methode ist, dass Fehlerquellen werden nicht durch die Verfahren gesteuert: eine gute Meta-Analyse von schlecht konzipierte Studien werden noch in schlechten Statistiken führen. Dies würde bedeuten, dass nur methodisch fundierte Untersuchungen sollten in einer Meta-Analyse, eine Praxis als "beste Beweis Synthese 'enthalten sein. Andere Meta-Analysten würden schwächere Studien umfassen, und fügen Sie eine Studie-Level-Prädiktor-Variable, die methodische Qualität der Studien widerspiegelt, um die Wirkung der Studienqualität auf der Effektstärke zu prüfen. Allerdings haben andere argumentiert, dass ein besserer Ansatz ist es, Informationen über die Varianz in der Studie Probe zu erhalten, Gießen so breit wie möglich ein Netz, und das Methodenauswahlkriterien einzuführen unerwünschte Subjektivität, Sieg über den Zweck des Ansatzes.
Publikationsbias: die Datei Schublade Problem
Eine andere mögliche Fallstrick ist das Vertrauen auf die verfügbaren Korpus der veröffentlichten Studien, die übertriebene Ergebnisse aufgrund von Publikationsbias erstellen kann, wie Studien, die negative Ergebnisse oder unbedeutende Ergebnisse zeigen, sind weniger wahrscheinlich, veröffentlicht. Zum Beispiel kann eine Dissertation Studien oder Studien, die nie veröffentlicht wurden, übersehen haben. Das ist nicht leicht zu lösen, da kann man nicht wissen, wie viele Studien gegangen gemeldet.
Diese Datei Schublade Problem ergibt sich bei der Verteilung der Effektstärken, die vorgespannt ist, schräg oder völlig abgeschnitten sind, die Schaffung eines schweren Prävalenzfehler, in denen die Bedeutung der veröffentlichten Studien wird überschätzt, wie andere Studien wurden entweder nicht zur Veröffentlichung eingereicht oder waren abgelehnt. Dies sollte ernsthaft in Betracht gezogen bei der Interpretation der Ergebnisse einer Meta-Analyse werden.
Die Verteilung der Effektgrößen können mit einem Trichter Grundstück, das ein Streudiagramm der Stichprobengröße und Effektgrößen visualisiert werden. In der Tat, für eine bestimmte Effektstufe, desto kleiner ist die Studie, ist desto höher die Wahrscheinlichkeit, sie durch Zufall zu finden. Zur gleichen Zeit, desto höher ist die Effektstufe, desto geringer ist die Wahrscheinlichkeit, dass eine größere Studie in diesem positiven Ergebnis zufällig ergeben. Wenn viele negative Studien wurden nicht veröffentlicht, geben die weiterhin positiv Studien zu einer Trichtergrundstück, in der Effektstärke umgekehrt proportional zur Stichprobengröße, mit anderen Worten: Je höher die Effektgröße, desto kleiner die Stichprobengröße. Ein wichtiger Teil der gezeigten Wirkung ist dann durch Zufall, die nicht in der Handlung wegen der unveröffentlichten negative Daten Abwesenheit ausgeglichen wird. Im Gegensatz dazu, wenn die meisten Studien wurden veröffentlicht, hat der gezeigten Wirkung keinen Grund, von der Studie Größe vorgespannt werden, so dass eine symmetrische Funnel Plot Ergebnisse. Also, wenn kein Publikationsbias vorhanden ist, würde man erwarten, dass es keine Beziehung zwischen Probengröße und Effektstärke. Eine negative Beziehung zwischen Probengröße und Effektstärke würde bedeuten, dass Studien, die signifikante Auswirkungen gefunden wurden eher veröffentlicht werden und / oder zur Veröffentlichung eingereicht werden. Es gibt mehrere Verfahren zur Verfügung, die versuchen, die Datei Schublade Problem zu beheben, sobald identifiziert, wie Erraten auf dem abgeschnittenen Teil der Verteilung der Studienwirkungen.
Verfahren zum Nachweis von Publikationsbias sind umstritten, da sie in der Regel niedriger Leistung zum Nachweis von Bias, aber auch kann zu Fehlalarmen kommen unter Umständen zu erstellen. So kleine Studie Effekte, wobei methodische Unterschiede zwischen kleineren und größeren Studien vorhanden sind, können Unterschiede in der Effektstärken zwischen den Studien, die Publikationsbias ähneln verursachen. Jedoch können kleine Studie Effekte ebenso problematisch für die Interpretation von Meta-Analysen, und die zwingend notwendig ist an meta-analytischen Autoren, um mögliche Fehlerquellen zu untersuchen. Ein Tandem-Methode für die Analyse von Publikationsbias für das Abholzen von falsch positiven Fehler Probleme vorgeschlagen worden. Dieses Tandem Verfahren besteht aus drei Stufen. Zunächst berechnet man Orwin der Fail-Safe-N, um zu überprüfen, wie viele Studien sollten, um die Teststatistik auf eine triviale Größe zu reduzieren hinzugefügt werden. Wenn diese Anzahl von Studien ist größer als die Anzahl von Studien in der Meta-Analyse verwendet wird, ist dies ein Zeichen, dass es keine Veröffentlichung von Verzerrungen, wie in diesem Fall benötigt man eine Menge von Studien, um die Effektgröße zu reduzieren. Zweitens kann man eine Egger Regressionstest, der prüft, ob der Funnel Plot ist symmetrisch zu tun. Wie bereits erwähnt: ein symmetrischer Funnel Plot ist ein Zeichen, dass es keine Publikationsbias, die Effektstärke und Stichprobengröße sind nicht abhängig. Drittens kann man den Trimm-and-Fill-Methode, die Daten unterstellt, wenn der Trichter Grundstück ist asymmetrisch zu tun. Wichtig zu beachten ist, dass diese nur einige Methoden, die verwendet werden kann, sondern einige mehr existieren.
Dennoch wird vorgeschlagen, dass 25% der Meta-Analysen in den psychologischen Wissenschaften kann Publikationsbias haben. Allerdings, geringer Stromprobleme wahrscheinlich bleiben in Rede und Einschätzungen des Publikationsbias kann niedriger sein als die wahre Höhe zu bleiben.
Die meisten Diskussionen der Publikationsbias konzentrieren sich auf Blatt Praktiken begünstigen Veröffentlichung statistisch signifikante Funde. Jedoch fraglich, Forschungspraktiken wie Nacharbeit statistische Modelle, bis Signifikanz erreicht ist, kann auch statistisch signifikante Ergebnisse zur Unterstützung der Forscher Hypothesen Fragwürdige Praktiken Forscher sind nicht unbedingt probieren größenabhängig, und als solche kaum erkennbar auf einem Trichter sein, sind begünstigen Handlung und kann derzeit in Verwendung unentdeckt von den meisten Publikationsbias Nachweisverfahren zu gehen.
Weitere Schwächen sind Simpsons Paradox und Subjektivität bei der Codierung eines Effekts oder Entscheidungen über die darunter oder Ablehnung Studien. Es gibt zwei verschiedene Möglichkeiten, um Wirkung zu messen: Korrelation oder standardisierte mittlere Differenz. Die Interpretation der Effektgröße ist beliebig, und es gibt keine allgemein auf Art und Weise, um das Risiko abwägen vereinbart. Es wurde nicht festgestellt, wenn die statistisch genaueste Methode für die Kombination von Ergebnissen ist die feste, zufällige oder Qualität Effektmodelle.
Agenda-driven Bias
Die schwerste Fehler in Meta-Analyse oft auftritt, wenn die Person oder Personen tun, die Meta-Analyse eine wirtschaftliche, soziale oder politische Agenda wie der Durchgang oder Niederlage der Gesetzgebung. Menschen mit dieser Art von Tagesordnungen können die Wahrscheinlichkeit und Meta-Analyse aufgrund persönlicher Voreingenommenheit missbrauchen. Zum Beispiel sind die Forscher günstig Tagesordnung des Autors voraussichtlich haben ihr Studium handverlesene, während diejenigen, die nicht günstiger werden ignoriert oder als "nicht glaubwürdig" zu kennzeichnen. Darüber hinaus sind die favorisierten Autoren können selbst voreingenommen oder bezahlt, um Ergebnisse, die ihren gesamten politischen, sozialen oder wirtschaftlichen Ziele in einer Weise, wie die Auswahl kleiner günstigen Datensätze und eingebautem größeren ungünstigen Datensätzen unterstützen zu erzeugen. Der Einfluss solcher Vorspannungen über die Ergebnisse einer Meta-Analyse ist möglich, da die Methodik der Meta-Analyse ist sehr formbar.
A 2011 Studie durchgeführt, um möglichen Interessenkonflikten bei den zugrunde liegenden Studien für die medizinische verwendet offenbaren Metaanalysen bewertet 29. Metaanalysen und festgestellt, dass die Interessen in den Studien der Meta-Analysen zugrunde liegenden Konflikte selten offenbart. Die 29 Metaanalysen eingeschlossen 11 vom Allgemeinmedizin Fachzeitschriften, 15 aus Spezialmedizin Fachzeitschriften, und drei von der Cochrane-Datenbank systematischer Reviews. Die 29 Metaanalysen Bewertung über insgesamt 509 randomisierten kontrollierten Studien. Davon berichteten 318 RCTs Finanzierungsquellen, mit 219 eine Förderung aus der Industrie. Von den 509 RCTs, 132 berichtet Autor Interessenkonflikt Angaben, mit 91 Studien offenbaren einen oder mehrere Autoren mit Industrie finanzielle Bindungen. Die Informationen wurden jedoch selten in den Meta-Analysen reflektiert. Nur zwei RCT berichteten Finanzierungsquellen und keine gemeldet RCT Autor-Industrie Krawatten. Die Autoren folgerten, "ohne Anerkennung COI aufgrund Finanzierung durch die Industrie oder Autor Industrie finanzielle Verbindungen von RCTs in Meta-Analysen, das Verständnis und die Würdigung der Beweismittel aus der Meta-Analyse beeinträchtigt sein Leser enthalten."
Schritte in einer Meta-Analyse
1. Formulierung des Problems
2. Suche nach der Literatur
3. Auswahl der Studien
- Auf der Grundlage von Qualitätskriterien, z.B. das Erfordernis, Randomisierung und Verblindung in einer klinischen Studie
- Die Auswahl der spezifischen Studien zu einem gut bestimmten Thema, zB die Behandlung von Brustkrebs.
- Entscheiden Sie, ob unveröffentlichte Studien sind enthalten, um Verzerrungen zu vermeiden Veröffentlichung
4. Entscheiden Sie, welche abhängigen Variablen oder Zusammenfassung der Maßnahmen sind. Beispielsweise:
- Differenzen
- Mittel
- Hedges 'g ist ein beliebter Auswertungsmaß für kontinuierliche Daten, die zur Skala Unterschiede zu beseitigen standardisiert ist, aber es ist ein Index der Variation zwischen den Gruppen enthält:
5. Auswahl einer Meta-Regressions statistische Modell: zB einfache Regression, Festnetz-Effekt Meta-Regression oder Zufallseffekt-Meta-Regression. Meta-Regression ist ein Werkzeug in Meta-Analyse verwendet, um die Auswirkungen der Moderatorvariablen auf Studieneffektgröße mit Hilfe der Regressions-basierte Techniken zu untersuchen. Meta-Regression ist effektiver bei dieser Aufgabe sind als Standard-Regressionstechniken.
Für die Berichterstattung Richtlinien finden Sie in den Preferred Berichterstattung Items for Systematic Reviews und Meta-Analysen Erklärung
Methoden und Annahmen
Ansätze
Im Allgemeinen können zwei Arten von Beweismitteln bei der Durchführung einer Meta-Analyse unterschieden werden: Einzelne Teilnehmerdaten und Daten aggregieren. Wohingegen IPD stellt Rohdaten wie von den Studienzentren erhoben, ist AD häufiger zur Verfügung und in der Regel stellt Zusammenfassung Schätzungen, wie Odds Ratios oder relativen Risiken. Diese Unterscheidung hat den Bedarf für verschiedene meta-analytischen Methoden, wenn Beweise Synthese gewünscht erhöht und hat sich auf die Entwicklung von einstufigen und zweistufigen Verfahren geführt. In einem einstufigen Verfahren die IPD aus allen Studien modelliert gleichzeitig während Buchhaltung für die Clusterbildung der Teilnehmer innerhalb von Studien. Umgekehrt zweistufigen Verfahren zu synthetisieren, die AD von jeder Studie und der vorliegenden Verordnung Studie Gewichte berücksichtigen. Durch die Reduzierung IPD AD kann zweistufige Verfahren auch angewendet werden, wenn IPD ist vorhanden; Damit sind sie eine attraktive Wahl bei der Durchführung einer Meta-Analyse. Obwohl es wird üblicherweise angenommen, dass einstufigen und zweistufigen Verfahren liefern ähnliche Ergebnisse haben neuere Studien gezeigt, dass sie gelegentlich zu unterschiedlichen Ergebnissen führen.
Statistische Modelle
Modell mit festen Effekten
Die festen Effekt-Modell bietet einen gewichteten Mittelwert aus einer Reihe von Studien Schätzungen. Der Kehrwert der Schätzungen "Varianz wird allgemein als Studie Gewicht verwendet wird, so dass größere Studien neigen dazu, mehr beitragen als kleinere Studien, um den gewichteten Durchschnitt. Folglich wird, wenn Untersuchungen in einer Meta-Analyse werden durch eine sehr große Studie dominiert, die Erkenntnisse aus kleineren Studien praktisch ignoriert. Am wichtigsten ist, das Modell mit festen Effekten geht davon aus, dass alle eingeschlossenen Studien untersuchen die gleiche Bevölkerung, verwenden Sie die gleiche Variable und Ergebnisdefinitionen etc. Diese Annahme ist in der Regel unrealistisch wie Forschung ist oft anfällig für mehrere Quellen der Heterogenität; z.B. Behandlungseffekte können je nach Ländereinstellung, Dosierungsniveaus, Studienbedingungen unterscheiden, ...
Modell mit zufälligen Effekten
Ein einheitliches Muster verwendet werden, um heterogene Forschungs synthetisieren ist das Modell mit zufälligen Effekten der Meta-Analyse. Das ist einfach das gewichtete Mittel der Effektstärken einer Gruppe von Studien. Das Gewicht, das bei diesem Verfahren der gewichteten Mittelung mit einem zufälligen Effekte Meta-Analyse wird in zwei Schritten erreicht angewendet wird:
- Schritt 1: inverse Varianz Gewichtung
- Schritt 2: Un-Gewichtung dieses inverse Varianz Gewichtung durch Aufbringen einer zufälligen Effekten Abweichungskomponente, die einfach von dem Umfang der Variabilität der Effektgröße der zugrunde liegenden Studien abgeleitet ist.
Das bedeutet, dass je größer diese Variabilität in Effektstärken, desto größer ist die un-Gewichtung und dies kann einen Punkt erreichen, wenn die Zufallseffekte Meta-Analyse Ergebnis wird einfach den ungewichteten Durchschnitt Effektstärke für die Studien. Das andere Extrem, wenn alle Effektstärken ähnlich sind, keine REVC angewendet wird, und die Zufallseffekte Meta-Analyse standardmäßig nur eine feste Wirkung Meta-Analyse.
Das Ausmaß dieser Umkehrung ist allein abhängig von zwei Faktoren ab:
- Heterogenität der Präzision
- Heterogenität der Effektstärke
Da keiner dieser Faktoren zeigt automatisch eine fehlerhafte größeren Studie oder zuverlässigere kleineren Studien wird die Umverteilung der Gewichte im Rahmen dieses Modells nicht ertragen, eine Beziehung zu dem, was diese Studien tatsächlich bieten könnte. Tatsächlich hat sich gezeigt, dass die Umverteilung von Gewichten ist einfach in eine Richtung auf einen kleineren Studien Heterogenität zunimmt, bis schließlich alle Studien das gleiche Gewicht haben und keine Umverteilung mehr möglich ist. Ein weiteres Thema, mit dem zufälligen Effekten Modell ist, dass die am häufigsten verwendeten Vertrauensbereiche in der Regel nicht ihre Deckungswahrscheinlichkeit über dem angegebenen Sollpegel zu halten und damit den statistischen Fehler wesentlich unterschätzt und in ihren Schlussfolgerungen potenziell übermütig. Mehrere Fixes wurden vorgeschlagen, aber die Debatte geht weiter auf. Eine weitere Sorge ist, dass die durchschnittliche Behandlungseffekt kann manchmal sogar weniger konservativ im Vergleich zu den festen Wirkungsmodell und damit irreführend in der Praxis. Eine Interpretations Update, das vorgeschlagen wurde, besteht darin, ein Vorhersageintervall erstellen rund um die Zufallseffekte zu schätzen, um den Bereich der möglichen Auswirkungen in der Praxis darzustellen. Ist eine Annahme, hinter der Berechnung einer solchen Vorhersageintervall jedoch, dass Studien werden als mehr oder weniger homogenen Einheiten und enthalten Patientenpopulationen und Vergleichsbehandlungen sollten als austauschbar werden, und dies ist in der Regel in der Praxis nicht erreichbar.
Die am weitesten verbreitete Methode, um zwischen den Studien Varianzschätzung ist die DerSimonian-Laird Ansatz. In jüngerer Zeit die iterative und rechenintensive eingeschränkten Maximum-Likelihood-Ansatz entstanden und holt auf. Ein Vergleich zwischen diesen beiden Modellen nachgewiesen, dass es kaum zu gewinnen und DL ist in den meisten Szenarien recht angemessen.
, Die meisten Meta-Analysen sind jedoch zwischen 2-4 Studien und eine solche Probe ist mehr als oft nicht ausreicht, um genau zu schätzen Heterogenität. Somit scheint es, dass in kleinen Metaanalysen eine fehlerhafte Null zwischen Studienvarianzschätzung erhalten wird, was zu einer falschen Annahme Homogenität. Insgesamt scheint es, dass Heterogenität wird konsequent in Meta-Analysen unterschätzt und Sensitivitätsanalysen, bei denen hohe Heterogenität Ebenen angenommen könnte aufschlussreich sein. Zahlreiche fortschrittliche Random-Effects-Modelle sind in Stata mit dem metaan Befehl zur Verfügung. Die meisten dieser fortgeschrittenen Methoden wurden in einer freien und einfach zu Microsoft Excel Add-on, MetaEasy umgesetzt. Diese zufällige Effekte Modelle und Softwarepakete betreffen Metaanalysen und Forscher, die durchzuführen individuellen Patientendaten Meta-Analysen müssen Mixed-Effects-Modellierungsansätze berücksichtigen-Aggregat zu studieren.
Qualität Effects-Modell
Doi und Thalib ursprünglich eingeführt, die Qualität Effects-Modell Sie stellen einen neuen Ansatz zur Anpassung für inter-Studie Variabilität durch den Einbau eines entsprechenden Komponente, die zwischen den Studien zusätzlich zu der, bezogen auf die intra-Studie Unterschiede, die in irgendwelchen festen Effekte Meta verwendet wird unterscheidet -Analyse Modell. Die Stärke der Qualitätseffekte Meta-Analyse ist, dass es zur Verfügung methodische Hinweise über subjektive Zufallswahrscheinlichkeit verwendet werden und hilft, die schädlichen Kluft, die sich zwischen Methodik und Statistik in der klinischen Forschung eröffnet hat schließen dabei. Um dies zu einer Korrektur für die Qualität eingestellt Gewicht des i-ten Studie namens taui eingeführt zu tun. Dies ist eine Zusammenfassung auf der Grundlage der Qualität der anderen Studien mit Ausnahme der Studie in Betracht und wird verwendet, um neu verteilen Qualität eingestellt Gewichte auf der Grundlage der Qualität eingestellt Gewichten anderer Studien. In anderen Worten, wenn i-Studie ist von guter Qualität und andere Studien von schlechter Qualität sind, wird ein Teil ihrer Qualität eingestellt Gewichte mathematisch neu verteilt, um zu studieren ich ihm mehr Gewicht in die Gesamteffektstärke. Wie Studien Qualitätssteigerung wird Umverteilung immer weniger, und endet, wenn alle Studien sind von perfekter Qualität. Dieses Modell ersetzt somit die unhaltbare Interpretationen, die in der Literatur gibt es zuhauf und eine Software zur Verfügung, um diese Methode weiter zu erforschen
IVhet Modell
Doi & amp; Barendregt arbeiten in Zusammenarbeit mit Khan, Thalib und Williams haben eine inverse Varianz quasi Wahrscheinlichkeit basierte Alternative zu dem Modell mit zufälligen Effekten, für die Details auf unserer Internetseite erstellt. Dies wurde in MetaXL Version 2.0 eingearbeitet, eine kostenlose Microsoft Excel-Add-In für die Metaanalyse von Epigear International Pty Ltd produziert und zur Verfügung gestellt vom 5. April 2014. Die Autoren stellen fest, dass eine klare Vorteil dieses Modells ist, dass es die beiden löst Hauptprobleme der Modell mit zufälligen Effekten. Der erste Vorteil der IVhet Modells ist, dass Abdeckung bei Nennpegel für das Konfidenzintervall im Gegensatz zu dem Modell mit zufälligen Effekten, die in der Berichterstattung mit zunehmender Heterogenität Tropfen bleibt. Der zweite Vorteil ist, dass die IVhet Modell behält die inverse Varianz Gewichte der einzelnen Studien, anders als der RE-Modell, das kleine Studien mit zunehmender Heterogenität verleiht mehr Gewicht. Wenn Heterogenität groß wird, die einzelnen Studiengewichte unter dem RE-Modell gleich werden und damit die RE-Modell liefert eine arithmetische Mittel eher als einen gewichteten Durchschnitt und dies scheint nicht gerechtfertigt. Pooled Schätzungen größere Studien zu fördern und ein Konfidenzintervall, die innerhalb der nominalen Reichweite unter Unsicherheit bleibt haben: Diese vermutlich unbeabsichtigte Nebenwirkung des RE-Modell wird durch die IVhet Modell, unterscheidet sich somit von der RE Modellschätzung in zwei Perspektiven vermieden. Doi & amp; Barendregt legen nahe, dass, während der RE-Modell bietet ein alternatives Verfahren zur Bündelung der Studiendaten, zeigt ihre Simulationsergebnisse, dass mit einem mehr bestimmten Wahrscheinlichkeitsmodell mit unhaltbaren Annahmen, wie mit dem RE-Modell, nicht unbedingt bessere Ergebnisse liefern. Forscher können jetzt über MetaXL Sie diese neue IVhet Modell für die weitere Auswertung und Vergleich mit dem herkömmlichen Modell mit zufälligen Effekten.
Anwendungen in der modernen Wissenschaft
Moderne statistische Meta-Analyse ist mehr als nur die Effektstärken aus einer Reihe von Studien zu kombinieren mit einem gewichteten Durchschnitts. Es kann testen, ob die Ergebnisse der Studien zeigen, mehr Abwechslung als die Variation, die aufgrund der Abtastung der unterschiedlichen Anzahl von Forschungsteilnehmern erwartet wird. Zusätzlich können Studienmerkmale wie Messinstrument verwendet, Bevölkerungs abgetastet oder Aspekte der Studien-Design kodiert und verwendet werden, um Varianz der Schätzfunktion zu reduzieren. So sind einige methodische Schwächen in Studien statistisch korrigiert werden. Andere Verwendungen von metaanalytische Verfahren umfassen die Entwicklung von klinischen Vorhersagemodelle, wobei meta-Analyse kann verwendet werden, um Daten von verschiedenen Forschungszentren zu kombinieren oder auch bei bestehenden Vorhersagemodelle aggregieren.
Meta-Analyse kann mit Single-Thema Design sowie Gruppe Forschungsdesigns durchgeführt werden. Dies ist wichtig, weil viel Forschung mit Single-Thema Forschungsdesigns getan. Heftig umstritten ist für die am besten geeignete meta-analytische Technik zum einzigen Thema Forschung.
Meta-Analyse führt zu einer Verschiebung des Schwerpunkts von Einzelstudien zu mehreren Studien. Er unterstreicht die praktische Bedeutung der Effektstärke anstelle der statistischen Signifikanz der einzelnen Studien. Dieses Umdenken wurde "meta-analytischen Denkens" bezeichnet. Die Ergebnisse einer Meta-Analyse werden oft in einem Waldgrundstück gezeigt.
Ergebnisse aus Untersuchungen mit unterschiedlichen Ansätzen kombiniert werden. Ein Ansatz in Meta-Analyse im Gesundheitswesen Forschung häufig verwendet wird, "inverse Varianz-Methode" bezeichnet. Die durchschnittliche Effektstärke in allen Studien wird als gewichteter Mittelwert, wobei die Gewichte gleich dem Kehr Varianz jedes Studien-Effekt-Schätzer berechnet. Größere Studien und Studien mit weniger zufällige Variation sind höher zu gewichten als kleinere Studien. Andere gemeinsame Ansätze umfassen die Mantel-Haenszel-Methode und die Peto-Methode.
Ein neuerer Ansatz zur Untersuchung des Einflusses der Gewichtungsschemata können auf die Ergebnisse haben, hat sich durch das Konstrukt der Schwerkraft, die ein spezieller Fall der kombinatorischen Meta-Analyse vorgeschlagen.
Unterzeichnet Differenzabbildung ist ein statistisches Verfahren zur meta-Analysestudien auf Unterschieden in der Hirnaktivität oder Struktur, die bildgebenden Verfahren wie fMRI, VBM oder PET verwendet wird.
Verschiedene Hochdurchsatz-Techniken wie Mikroarrays sind verwendet worden, um die Genexpression zu verstehen. MikroRNA Expressionsprofilen verwendet worden, um differentiell exprimierte mikroRNAs insbesondere Zell- oder Gewebetyp oder Krankheitszustände zu identifizieren oder die Wirkung einer Behandlung zu überprüfen. Eine Meta-Analyse von solchen Expressionsprofile durchgeführt, um neue Schlussfolgerungen abzuleiten und die bekannten Ergebnisse zu validieren.
Kommentare - 0