Replikationskrise: Unterschied zwischen den Versionen

Aus FreeWiki
Wechseln zu: Navigation, Suche
[gesichtete Version][gesichtete Version]
Zeile 55: Zeile 55:
 
Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.
 
Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.
  
==== Medizin ====
+
=== Medizin ===
  
 
Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.<ref>[https://www.nature.com/articles/nrd3439-c1 Believe it or not: how much can we rely on published data on potential drug targets?] by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)</ref> Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.
 
Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.<ref>[https://www.nature.com/articles/nrd3439-c1 Believe it or not: how much can we rely on published data on potential drug targets?] by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)</ref> Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.
Zeile 62: Zeile 62:
  
 
Ein Artikel von[https://en.wikipedia.org/wiki/John_Ioannidis John Ioannidis], Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".<ref name="Ioannidis2016">{{cite journal | last1 = Ioannidis | first1 = JPA | year = 2016 | title = Why Most Clinical Research Is Not Useful | journal = PLoS Med | volume = 13 | issue = 6| page = e1002049 | doi = 10.1371/journal.pmed.1002049 | pmid = 27328301 | pmc = 4915619 }}</ref> Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"<ref>{{cite journal|title=Why Most Published Research Findings Are False|journal=[[PLoS Medicine]]|date=August 1, 2005|issn=1549-1277|pmc=1182327|pmid=16060722|volume=2|issue=8|doi=10.1371/journal.pmed.0020124|first=John P. A.|last=Ioannidis|pages=e124}}</ref> bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.
 
Ein Artikel von[https://en.wikipedia.org/wiki/John_Ioannidis John Ioannidis], Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".<ref name="Ioannidis2016">{{cite journal | last1 = Ioannidis | first1 = JPA | year = 2016 | title = Why Most Clinical Research Is Not Useful | journal = PLoS Med | volume = 13 | issue = 6| page = e1002049 | doi = 10.1371/journal.pmed.1002049 | pmid = 27328301 | pmc = 4915619 }}</ref> Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"<ref>{{cite journal|title=Why Most Published Research Findings Are False|journal=[[PLoS Medicine]]|date=August 1, 2005|issn=1549-1277|pmc=1182327|pmid=16060722|volume=2|issue=8|doi=10.1371/journal.pmed.0020124|first=John P. A.|last=Ioannidis|pages=e124}}</ref> bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.
 +
 +
=== Marketing ===
 +
 +
Marketing ist eine weitere Disziplin mit einem "dringenden Bedarf" an Replikation.<ref>{{Cite journal|title = The desperate need for replications|journal = Journal of Consumer Research|date = 2001-06-01|pages = 149–158|volume = 28|issue = 1|doi = 10.1086/321953|first = John E.|last = Hunter}}</ref> Viele berühmte Marketingstudien können beim Replikationsversuch nicht wiederholt werden, ein bemerkenswertes Beispiel ist der "too-many-choices"-Effekt, bei dem eine hohe Anzahl von Produktwahlen die Kaufwahrscheinlichkeit für einen Verbraucher verringern soll.<ref>{{Cite journal|last=Armstrong|first=J. S.|last2=Green|first2=Kesten|date=30 January 2017|title=Guidelines for Science: Evidence and Checklists|url=http://repository.upenn.edu/cgi/viewcontent.cgi?article=1258&context=marketing_papers|journal=Working Paper|volume=|pages=|via=}}</ref>
 +
Zusätzlich zu den oben genannten Argumenten sind Replikationsstudien im Marketing erforderlich, um die Anwendbarkeit von Theorien und Modellen über Länder und Kulturen hinweg zu untersuchen, was aufgrund möglicher Einflüsse der Globalisierung besonders wichtig ist.<ref>{{Cite journal|title = Effects of Subcultural Differences on Country and Product Evaluations: A Replication Study|journal = Journal of Global Marketing|date = 2016-03-22|pages = 115–127|volume = 29|issue = 3|doi = 10.1080/08911762.2015.1138012|first1 = Thomas|last1 = Aichner|first2 = Paolo|last2 = Coletti|first3 = Cipriano|last3 = Forza|first4 = Urban|last4 = Perkmann|first5 = Alessio|last5 = Trentin}}</ref>
 +
 +
=== Wirtschaftswissenschaften ===
 +
 +
Eine Studie aus dem Jahr 2016 in der Zeitschrift ''Science'' ergab, dass ein Drittel von 18 experimentellen Studien aus zwei hochrangigen Wirtschaftszeitschriften (''American Economic Review'' und dem ''Quarterly Journal of Economics'') nicht erfolgreich repliziert werden konnte.<ref>{{Cite journal|last=Camerer|first=Colin F.|last2=Dreber|first2=Anna|last3=Forsell|first3=Eskil|last4=Ho|first4=Teck-Hua|last5=Huber|first5=Jürgen|last6=Johannesson|first6=Magnus|last7=Kirchler|first7=Michael|last8=Almenberg|first8=Johan|last9=Altmejd|first9=Adam|date=2016-03-25|title=Evaluating replicability of laboratory experiments in economics|journal=Science|language=en|volume=351|issue=6280|pages=1433–1436|doi=10.1126/science.aaf0918|issn=0036-8075|pmid=26940865|bibcode=2016Sci...351.1433C}}</ref><ref>{{Cite news|url=http://www.sciencemag.org/news/2016/03/about-40-economics-experiments-fail-replication-survey|title=About 40% of economics experiments fail replication survey|date=2016-03-03|work=Science |access-date=2017-10-25|language=en}}</ref> Eine Studie aus dem Jahr 2017 im ''Economic Journal'' schlug vor, dass "die Mehrheit der durchschnittlichen Effekte in der empirischen Wirtschaftsliteratur um den Faktor 2 und mindestens ein Drittel um den Faktor 4 oder mehr übertrieben sind".<ref>{{Cite journal|last=Ioannidis|first=John P. A.|last2=Stanley|first2=T. D.|last3=Doucouliagos|first3=Hristos|date=2017-10-01|title=The Power of Bias in Economics Research|journal=The Economic Journal|language=en|volume=127|issue=605|pages=F236–F265|doi=10.1111/ecoj.12461|issn=1468-0297}}</ref>
 +
 +
=== Sportwissenschaften ===
 +
 +
Eine Studie aus dem Jahr 2018 stellte das Gebiet der Bewegungs- und Sportwissenschaften vor die Aufgabe, unzureichende Replikationsstudien, begrenzte Berichterstattung über Nullergebnisse und triviale Ergebnisse sowie unzureichende Forschungstransparenz zu liefern.<ref>{{Cite journal|last=Halperin|first=Israel|last2=Vigotsky|first2=Andrew D.|last3=Foster|first3=Carl|last4=Pyne|first4=David B.|date=2018-02-01|title=Strengthening the Practice of Exercise and Sport-Science Research|journal=International Journal of Sports Physiology and Performance|volume=13|issue=2|pages=127–134|doi=10.1123/ijspp.2017-0322|issn=1555-0273|pmid=28787228}}</ref> Statistiker haben die Sportwissenschaft für die allgemeine Anwendung einer umstrittenen statistischen Methode namens "magnitude-based inference" kritisiert, die es Sportwissenschaftlern ermöglicht hat, scheinbar signifikante Ergebnisse aus dem Datenrauschen zu extrahieren, wo normale Hypothesentests keine gefunden hätten.<ref>{{Cite news|url=https://fivethirtyeight.com/features/how-shoddy-statistics-found-a-home-in-sports-research/|title=How Shoddy Statistics Found A Home In Sports Research|date=2018-05-16|work=FiveThirtyEight|access-date=2018-05-16|language=en-US}}</ref>
 +
 +
=== Hydrologie ===
 +
 +
Eine Studie aus dem Jahr 2019 in der Zeitschrift "Scientific Data" ergab, dass nur eine kleine Anzahl von Artikeln in Zeitschriften für Hydrologie und Wasserressourcen aufgrund der Nichtverfügbarkeit von Daten reproduziert werden können. Die Studie "schätzte mit 95%iger Sicherheit, dass die Ergebnisse nur für 0,6% bis 6,8% aller 1.989 Artikel reproduziert werden können".<ref>{{Cite journal|last=Stagge|first=James H.|last2=Rosenberg|first2=David E.|last3=Abdallah|first3=Adel M.|last4=Akbar|first4=Hadia|last5=Attallah|first5=Nour A.|last6=James|first6=Ryan|date=2019-02-26|title=Assessing data availability and research reproducibility in hydrology and water resources|journal=Scientific Data|language=en|volume=6|pages=190030|doi=10.1038/sdata.2019.30|pmid=30806638|pmc=6390703|issn=2052-4463|bibcode=2019NatSD...690030S}}</ref><ref>[https://www.nature.com/articles/sdata201930#f2 https://www.nature.com/articles/sdata201930#f2]</ref><ref>[https://replicationnetwork.com/2019/03/01/surveying-reproducibility/ https://replicationnetwork.com/2019/03/01/surveying-reproducibility/]</ref><br/> Diese Studie bezieht sich vor allem auf die Qualität der Dokumentation von origninalem Material, die offensichtlich nur wenig oder gar nicht gegeben ist. Da keine Rohdaten vorliegen, kann die faktische Validität der wissenschaftlichen Artikel nicht abgeschätzt werden, aber die wissenschaftliche Nicht-Reproduzierbarkeit ist damit nicht nachgewiesen.
 +
 +
=== Exakte Wissenschaften ===
 +
 +
Im Gegensatz zu den Sozial- und Biowissenschaften würden die meisten davon ausgehen, dass die "exakten Wissenschaften" – Physik, Chemie, Biologie, Astronomie, etc. – von dieser Krise nicht betroffen seien. Dennoch scheint es dort auch einige Probleme zu geben. "Sogar die Physik ist betroffen, wie William Wilson feststellt. "Zwei der am meisten gepriesenen physikalischen Ergebnisse der letzten Jahre – die angekündigte Entdeckung sowohl der kosmischen Inflation als auch der Gravitationswellen beim BICEP2-Experiment in der Antarktis und die vermeintliche Entdeckung von superluminalen Neutrinos an der schweizerisch-italienischen Grenze – wurden nun zurückgezogen, und das mit weitaus weniger Fanfare als bei ihrer ersten Veröffentlichung." Siehe [http://phys.org/news/2015-02-cosmic-inflation-bicep2-results.html dies über das erstere] und [http://press.cern/press-releases/2011/09/opera-experiment-reports-anomaly-flight-time-neutrinos-cern-gran-sasso dies über das letztere].”<ref>[ https://fabiusmaximus.com/2016/04/19/replication-crisis-in-science-95394/ The replication crisis in science has just begun. It will be big.] by Larry Kummer, Editor Science & Nature 19 April 2016 on Fabius Maximus website, here referring to W.Wilson – Scientific Regress (siehe unter weiterführender Literatur unten)</ref>
 +
 +
=== Naturkonstanten ===
 +
 +
Eine der Säulen der Physik und aller Wissenschaften, die auf den in der Physik beschriebenen Gesetzen basieren, ist die Annahme einer Beständigkeit der Naturkonstanten. Diese Konstanz ist eine allgemeine Annahme, da sie grundsätzlich nicht nachgewiesen werden kann. Man kann nur sagen, dass sie einigermaßen konstant waren, solange der Mensch sie messen kann, was im Vergleich zum Alter des Universums eine extrem kurze Zeitspanne ist.<br/> Dennoch gibt es guten Grund, selbst an dieser Grundannahme der Physik zu zweifeln: "Ende 1998 hat die CODATA sogar beschlossen, die Unsicherheit des akzeptierten Wertes für die Gravitationskonstante von 128 ppm auf 1500 ppm zu erhöhen. Dieser bemerkenswerte Schritt, die Unsicherheit zu erhöhen, anstatt sie zu verringern, wurde unternommen, um die Diskrepanzen zwischen den jüngsten Experimenten wiederzuspiegeln, die einen weiten Bereich von mehr als 0,7 % umfassen."<ref>Ulf Kleinevoß: Bestimmung der Newtonschen Gravitationskonstanten, Dissertation Januar 2002, Wuppertal, S.1, Abstract;
 +
[http://elpub.bib.uni-wuppertal.de/edocs/dokumente/fb08/diss2002/kleinevoss/d080201.pdf]</ref><br/> Und in seiner Arbeit "The Science Delusion - Freeing the Spirit of Enquiry" diskutiert der Biologe und Philosoph [[Rupert_Sheldrake|Rupert Sheldrake]]<ref>Rupert Sheldrake: The Science Delusion - Freeing the Spirit of Enquiry; London 2012, Hodder& Stoughton, ISBN 978 1 444 72795 1 Kapitel 3: Are the Laws of Nature Fixed?</ref> dieses Problem und gibt viele Beispiele dafür, dass die fundamentalen Konstanten nicht so ewig sein können, wie gedacht, sondern sich mit der Zeit ändern. Er sieht die "Konstanten" eher als Gewohnheiten der Natur denn als ewige Gesetze. Sheldrake weist darauf hin, dass die grundlegenden physikalischen Konstanten künstlich als konstant gehalten werden, indem man sie so definiert, alle Messungen auf den Mittelwert reduziert und stark abweichende Messungen von der Zählung eliminiert. Tatsächlich liefern wissenschaftliche Messungen der Konstanten ständig ganz unterschiedliche Ergebnisse, die vom ''Committee on Data for Science and Technology'' ([https://howlingpixel.com/i-de/CODATA CODATA]) gesammelt und normiert werden, um per Definition immer konstant zu bleiben.<ref>[https://howlingpixel.com/i-de/Physikalische_Konstante] und Sheldrake, Science Delusion</ref>.
  
  

Version vom 7. September 2019, 00:09 Uhr

Unterstützen Sie FreeWiki

Der folgende Textabschnitt basiert auf dem Artikel „Replication Crisis“ aus Wikipedia, gelesen am 31.8.2019, und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung). In der Wikipedia ist auf der genannten Seite eine Liste der Autoren verfügbar. Änderungen möglich.

Diese FreeWiki-Seite ist noch als ein Fragment zu betrachten, d. h. es ist keine strukturierte Seite, sondern nur eine Sammlung von Material oder Textvorschlägen.
Der entsprechende Wikipedia-Artikel wird für nicht ausreichend, nicht zuverlässig und / oder manipuliert gehalten. Hier im FreeWiki wird versucht, eine sachlich korrekte Seite zu erstellen.

Dieser Artikel ist eng mit dem Artikel über den Decline Effect verbunden, welcher Teil dieser Krise ist. Für weitere Erklärungen und Material siehe auch dort.

Die Replikationskrise (oder Wiederholbarkeitskrise oder Reproduzierbarkeitskrise) ist eine andauernde (2019) methodische Krise, in der festgestellt wurde, dass viele wissenschaftliche Studien schwer oder unmöglich zu reproduzieren oder zu wiederholen sind. Die Replikationskrise betrifft die Sozial- und Biowissenschaften am stärksten, [1][2], während die exakten Wissenschaften immer noch zögern, sich dem Problem überhaupt zu stellen und in ihrer Forschung meistens nicht einmal Verblindung verwenden.[3] Die Krise hat langjährige Wurzeln. Der Begriff selbst wurde Anfang 2010 geprägt[4] als Teil eines wachsenden Problembewusstseins. Die Replikationskrise bildet in der Wissenschaftstheorie einen wichtigen Forschungsgegenstand. [5]

Da die Reproduzierbarkeit von Experimenten ein wesentlicher Bestandteil der wissenschaftlichen Methode ist,[6] hat die Unmöglichkeit, die Studien anderer zu replizieren, potenziell schwerwiegende Folgen für viele Wissenschaftsbereiche, in denen bedeutende Theorien auf nicht reproduzierbaren experimentellen Arbeiten basieren. Die Replikationskrise wurde insbesondere im Bereich der Psychologie (insbesondere der Sozialpsychologie) und in der Medizin diskutiert, wo eine Reihe von Bemühungen unternommen wurden, klassische Ergebnisse neu zu untersuchen und zu versuchen, sowohl die Zuverlässigkeit der Ergebnisse als auch, wenn sie sich als unzuverlässig erweisen, die Gründe für das Scheitern der Replikation zu bestimmen.[7][8]

Umfang der Krise

Insgesamt

Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).[9] Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.[10]

Psychologie

Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.[11] Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,[12] obwohl andere Bereiche der Psychologie wie die klinische Psychologie,[13][14] Entwicklungspsychologie,[15] und Bildungsforschung ebenfalls einbezogen wurden.[16][17] According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".[18]

Erstens wurden fragwürdige Forschungspraktiken („questionable research practices“ = QRPs) als üblich im Bereich.[19] Solche Praktiken, obwohl sie nicht absichtlich betrügerisch sind, beinhalten die Nutzung der Grauzone akzeptabler wissenschaftlicher Praktiken oder die Nutzung der Flexibilität bei der Datenerfassung, -analyse und -berichterstattung, oft in dem Bestreben, ein gewünschtes Ergebnis zu erzielen. Beispiele für QRPs sind selektive Berichterstattung oder teilweise Veröffentlichung von Daten (nur einige der Studienbedingungen oder gesammelte abhängige Messungen in einer Publikation), optionales Stoppen (Wahl, wann die Datenerhebung gestoppt werden soll, oft basierend auf der statistischen Signifikanz von Tests), p-Wertrundung (Aufrunden der p-Werte auf 0.05, um statistische Signifikanz nahezulegen), den Schubladeneffekt (Nichtveröffentlichung von Daten), das Post-Hoc-Storytelling (Framing explorativer Analysen als Bestätigungsanalysen) und die Manipulation von Ausreißern (entweder das Entfernen von Ausreißern oder das Belassen von Ausreißern in einem Datensatz, um einen statistischen Test signifikant wirken zu lassen).[19][20][21][22] Eine Umfrage unter über 2.000 Psychologen ergab, dass eine Mehrheit der Befragten die Verwendung mindestens eines QRP zugelassen hat.[19] Falsch positive Schlussfolgerungen, die sich oft aus dem Druck zur Veröffentlichung oder des eigenen „confirmation bias“ des Autors ergeben, sind eine inhärente Gefahr für das Feld und erfordern ein gewisses Maß an Skepsis seitens der Leser.[23]

Zweitens haben sich insbesondere die Psychologie und die Sozialpsychologie im Mittelpunkt mehrerer Skandale wiedergefunden. bei denen es um echten Forschungsbetrug ging, vor allem die eingestandene Erfindung von Daten durch Diederik Stapel[24] sowie Vorwürfe gegen andere. Die meisten Wissenschaftler erkennen jedoch an, dass Betrug vielleicht der geringere Beitrag zu Replikationskrisen ist.

Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "Judgment and Decision Making" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind.

Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.[25] Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift Sozialpsychologie, die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.[26] Eine Sonderausgabe der Zeitschrift Perspectives on Psychological Science aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom publication bias bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.[27] Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.[28]

Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.[29]

Obwohl die britische Zeitung The Independent schrieb, dass die Ergebnisse des Reproduzierbarkeitsprojektes zeigen, dass ein Großteil der veröffentlichten Forschung nur "Psycho-Gequatsche" ist,[30] bedeutet die Replikationskrise nicht unbedingt, dass Psychologie unwissenschaftlich ist.[31][32][33] Vielmehr ist dieser Prozess ein gesunder, wenn auch manchmal bitterer Teil des wissenschaftlichen Prozesses, in dem alte Ideen oder solche, die einer sorgfältigen Prüfung nicht standhalten können, beschnitten werden,[34][35] auch wenn dieser Stutzungsprozess nicht immer effektiv ist.[36][37] Die Konsequenz ist, dass einige Bereiche der Psychologie, die einst als solide angesehen wurden, wie z.B. Social Priming, aufgrund gescheiterter Replikationen zunehmend unter die Lupe genommen werden.[38]

Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.[39] Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.[39] Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam[40] (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen).

Replikationsraten in der Psychologie

Ein Bericht derOpen Science Collaboration vom August 2015, der von Brian Nosek koordiniert wurde, schätzte die Reproduzierbarkeit von 100 psychologischen Studien aus drei hochrangigen psychologischen Zeitschriften.[41] Insgesamt lieferten 36% der Replikationen signifikante Ergebnisse (p Wert unter 0,05) im Vergleich zu 97% der ursprünglichen Studien, die signifikante Effekte hatten. Die mittlere Effektgröße in den Replikationen war etwa halb so groß wie die in den Originalstudien berichteten Effekte.

Im gleichen Beitrag wurden die Reproduzierbarkeitsraten und Effektgrößen nach Zeitschriften untersucht (Journal of Personality and Social Psychology[JPSP], Journal of Experimental Psychology: Learning, Memory, and Cognition [JEP:LMC], Psychological Science [PSCI]) und nach Disziplinen (Sozialpsychologie, kognitive Psychologie). Die Replikationsraten der Studien lagen bei 23% für JPSP, 38% für JEP:LMC und 38% für PSCI. Studien im Bereich der kognitiven Psychologie hatten eine höhere Replikationsrate (50%) als Studien im Bereich der Sozialpsychologie (25%).

Eine Analyse der Publikationsgeschichte in den Top-100-Psychologiezeitschriften zwischen 1900 und 2012 ergab, dass etwa 1,6% aller psychologischen Publikationen Replikationsversuche waren.[40] Artikel wurden als Replikationsversuch betrachtet, wenn der Begriff "Replikation" im Text erschien. Eine Teilmenge dieser Studien (500 Studien) wurde nach dem Zufallsprinzip für weitere Untersuchungen ausgewählt und ergab eine geringere Replikationsrate von 1,07% (342 der 500 Studien [68,4%] waren tatsächlich Replikationen). In der Teilmenge von 500 Studien zeigte die Analyse, dass 78,9% der veröffentlichten Replikationsversuche erfolgreich waren. Die Rate der erfolgreichen Replikation war signifikant höher, wenn mindestens ein Autor der Originalstudie Teil des Replikationsversuchs war (91,7% gegenüber 64,6%).

Eine 2018 in der Zeitschrift Nature Human Behaviour veröffentlichte Studie versuchte, 21 sozial- und verhaltenswissenschaftliche Arbeiten aus Nature und Science zu replizieren, wobei festgestellt wurde, dass nur 13 erfolgreich repliziert werden konnten.[42][43] Ebenso in einer Studie, die unter der Schirmherrschaft des Center for Open Science, ein Team von 186 Forschern aus 60 verschiedenen Labors (die 36 verschiedene Nationalitäten aus 6 verschiedenen Kontinenten repräsentieren), Replikationen von 28 klassischen und zeitgenössischen Erkenntnissen in der Psychologie durchführte.[44] Der Fokus der Studie lag nicht nur darauf, ob die Ergebnisse aus den Originalarbeiten repliziert wurden oder nicht, sondern auch darauf, inwieweit die Ergebnisse in Abhängigkeit von Variationen in Proben und Kontexten variierten. Insgesamt konnten 14 der 28 Befunde trotz erheblicher Stichprobengröße nicht repliziert werden. Wenn ein Befund jedoch repliziert wurde, wurde er in den meisten Stichproben repliziert, während er, wenn er nicht repliziert wurde, mit geringer Variation zwischen Stichproben und Kontexten nicht repliziert werden konnte. Dieser Nachweis steht im Widerspruch zu einer populären Erklärung, dass Versäumnisse bei der Replikation in der Psychologie wahrscheinlich auf Änderungen in der Stichprobe zwischen Original- und Replikationsstudie zurückzuführen sind.[45]

Ein soziales Dilemma der ganzen Disziplin

Im Versuch, die soziale Struktur herauszuarbeiten, die die Replikation in der Psychologie verhindert, zählten Brian D. Earp und Jim A. C. Everett fünf Punkte auf, warum Replikationsversuche ungewöhnlich sind:[46][47]

"#Unabhängige, direkte Replikationen der Ergebnisse anderer können für den replizierenden Forscher zeitaufwendig sein.

  1. "[Replikationen] werden wahrscheinlich Energie und Ressourcen direkt von anderen Projekten abziehen, die das eigene ursprüngliche Denken widerspiegeln.
  2. "[Replikationen] sind im Allgemeinen schwieriger zu veröffentlichen (größtenteils, weil sie als unoriginell angesehen werden).
  3. "Selbst wenn [Replikationen] veröffentlicht werden, werden sie wahrscheinlich als "Maurerarbeiten" angesehen, und nicht als wichtige Beiträge zum Thema.
  4. "[Replikationen] bringen ihren Autoren weniger Anerkennung und Belohnung und sogar weniger grundlegende Karrieresicherheit"[48]

Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.

Medizin

Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.[49] Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.

Von 49 medizinischen Studien von 1990-2003, mit mehr als 1000 Zitierungen, behaupteten 45, dass die studierte Therapie wirksam sei. Von diesen Studien wurden 16% durch Folgestudien widerlegt, 16% hatten stärkere Effekte gefunden als Folgestudien, 44% wurden repliziert, und 24% blieben weitgehend unangefochten.[50] Die US Food and Drug Administration fand in den Jahren 1977-1990 Fehler in 10-20% der medizinischen Studien.[51] In einer 2012 veröffentlichten Arbeit stellten Glenn Begley, ein Biotech-Berater, der bei Amgen arbeitet, und Lee Ellis von der University of Texas fest, dass nur 11% der vorklinischen Krebsstudien repliziert werden könnten.[52][53]

Ein Artikel vonJohn Ioannidis, Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".[54] Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"[55] bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.

Marketing

Marketing ist eine weitere Disziplin mit einem "dringenden Bedarf" an Replikation.[56] Viele berühmte Marketingstudien können beim Replikationsversuch nicht wiederholt werden, ein bemerkenswertes Beispiel ist der "too-many-choices"-Effekt, bei dem eine hohe Anzahl von Produktwahlen die Kaufwahrscheinlichkeit für einen Verbraucher verringern soll.[57] Zusätzlich zu den oben genannten Argumenten sind Replikationsstudien im Marketing erforderlich, um die Anwendbarkeit von Theorien und Modellen über Länder und Kulturen hinweg zu untersuchen, was aufgrund möglicher Einflüsse der Globalisierung besonders wichtig ist.[58]

Wirtschaftswissenschaften

Eine Studie aus dem Jahr 2016 in der Zeitschrift Science ergab, dass ein Drittel von 18 experimentellen Studien aus zwei hochrangigen Wirtschaftszeitschriften (American Economic Review und dem Quarterly Journal of Economics) nicht erfolgreich repliziert werden konnte.[59][60] Eine Studie aus dem Jahr 2017 im Economic Journal schlug vor, dass "die Mehrheit der durchschnittlichen Effekte in der empirischen Wirtschaftsliteratur um den Faktor 2 und mindestens ein Drittel um den Faktor 4 oder mehr übertrieben sind".[61]

Sportwissenschaften

Eine Studie aus dem Jahr 2018 stellte das Gebiet der Bewegungs- und Sportwissenschaften vor die Aufgabe, unzureichende Replikationsstudien, begrenzte Berichterstattung über Nullergebnisse und triviale Ergebnisse sowie unzureichende Forschungstransparenz zu liefern.[62] Statistiker haben die Sportwissenschaft für die allgemeine Anwendung einer umstrittenen statistischen Methode namens "magnitude-based inference" kritisiert, die es Sportwissenschaftlern ermöglicht hat, scheinbar signifikante Ergebnisse aus dem Datenrauschen zu extrahieren, wo normale Hypothesentests keine gefunden hätten.[63]

Hydrologie

Eine Studie aus dem Jahr 2019 in der Zeitschrift "Scientific Data" ergab, dass nur eine kleine Anzahl von Artikeln in Zeitschriften für Hydrologie und Wasserressourcen aufgrund der Nichtverfügbarkeit von Daten reproduziert werden können. Die Studie "schätzte mit 95%iger Sicherheit, dass die Ergebnisse nur für 0,6% bis 6,8% aller 1.989 Artikel reproduziert werden können".[64][65][66]
Diese Studie bezieht sich vor allem auf die Qualität der Dokumentation von origninalem Material, die offensichtlich nur wenig oder gar nicht gegeben ist. Da keine Rohdaten vorliegen, kann die faktische Validität der wissenschaftlichen Artikel nicht abgeschätzt werden, aber die wissenschaftliche Nicht-Reproduzierbarkeit ist damit nicht nachgewiesen.

Exakte Wissenschaften

Im Gegensatz zu den Sozial- und Biowissenschaften würden die meisten davon ausgehen, dass die "exakten Wissenschaften" – Physik, Chemie, Biologie, Astronomie, etc. – von dieser Krise nicht betroffen seien. Dennoch scheint es dort auch einige Probleme zu geben. "Sogar die Physik ist betroffen, wie William Wilson feststellt. "Zwei der am meisten gepriesenen physikalischen Ergebnisse der letzten Jahre – die angekündigte Entdeckung sowohl der kosmischen Inflation als auch der Gravitationswellen beim BICEP2-Experiment in der Antarktis und die vermeintliche Entdeckung von superluminalen Neutrinos an der schweizerisch-italienischen Grenze – wurden nun zurückgezogen, und das mit weitaus weniger Fanfare als bei ihrer ersten Veröffentlichung." Siehe dies über das erstere und dies über das letztere.”[67]

Naturkonstanten

Eine der Säulen der Physik und aller Wissenschaften, die auf den in der Physik beschriebenen Gesetzen basieren, ist die Annahme einer Beständigkeit der Naturkonstanten. Diese Konstanz ist eine allgemeine Annahme, da sie grundsätzlich nicht nachgewiesen werden kann. Man kann nur sagen, dass sie einigermaßen konstant waren, solange der Mensch sie messen kann, was im Vergleich zum Alter des Universums eine extrem kurze Zeitspanne ist.
Dennoch gibt es guten Grund, selbst an dieser Grundannahme der Physik zu zweifeln: "Ende 1998 hat die CODATA sogar beschlossen, die Unsicherheit des akzeptierten Wertes für die Gravitationskonstante von 128 ppm auf 1500 ppm zu erhöhen. Dieser bemerkenswerte Schritt, die Unsicherheit zu erhöhen, anstatt sie zu verringern, wurde unternommen, um die Diskrepanzen zwischen den jüngsten Experimenten wiederzuspiegeln, die einen weiten Bereich von mehr als 0,7 % umfassen."[68]
Und in seiner Arbeit "The Science Delusion - Freeing the Spirit of Enquiry" diskutiert der Biologe und Philosoph Rupert Sheldrake[69] dieses Problem und gibt viele Beispiele dafür, dass die fundamentalen Konstanten nicht so ewig sein können, wie gedacht, sondern sich mit der Zeit ändern. Er sieht die "Konstanten" eher als Gewohnheiten der Natur denn als ewige Gesetze. Sheldrake weist darauf hin, dass die grundlegenden physikalischen Konstanten künstlich als konstant gehalten werden, indem man sie so definiert, alle Messungen auf den Mittelwert reduziert und stark abweichende Messungen von der Zählung eliminiert. Tatsächlich liefern wissenschaftliche Messungen der Konstanten ständig ganz unterschiedliche Ergebnisse, die vom Committee on Data for Science and Technology (CODATA) gesammelt und normiert werden, um per Definition immer konstant zu bleiben.[70].


Fußnoten

  1. Schooler, J. W. (2014). "Metascience could rescue the 'replication crisis'". Nature. 515 (7525): 9. Bibcode:2014Natur.515....9S. doi:10.1038/515009a. PMID 25373639.
  2. Smith, Noah. "Why 'Statistical Significance' Is Often Insignificant". Bloomberg. Retrieved 7 November 2017.
  3. Rupert Sheldrake: The Science Delusion – Freeing the Spirit of Enquiry; London 2012, Hodder& Stoughton, ISBN 978 1 444 72795 1. Chapter 11. Illusions of Objectivity.
  4. Pashler, Harold; Wagenmakers, Eric Jan (2012). "Editors' Introduction to the Special Section on Replicability in Psychological Science: A Crisis of Confidence?". Perspectives on Psychological Science. 7 (6): 528–530. doi:10.1177/1745691612465253. PMID 26168108.
  5. Fidler, Fiona; Wilcox, John (2018). "Reproducibility of Scientific Results". The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University. Retrieved 19 May 2019.
  6. Staddon, John (2017) Scientific Method: How science works, fails to work or pretends to work. Taylor and Francis.
  7. Gary Marcus (May 1, 2013). "The Crisis in Social Psychology That Isn't". The New Yorker.
  8. Jonah Lehrer (December 13, 2010). "The Truth Wears Off". The New Yorker.
  9. "Is There a Reproducibility Crisis in Science?". Nature Video, Scientific American. 28 May 2016. Retrieved 15 August 2019.
  10. Fanelli, Daniele (29 May 2009). "How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data". PLOS ONE. 4 (5): e5738. Bibcode:2009PLoSO...4.5738F. doi:10.1371/journal.pone.0005738. PMC 2685008. PMID 19478950.
  11. Achenbach, Joel. "No, science's reproducibility problem is not limited to psychology". The Washington Post. Retrieved 10 September 2015.
  12. Dominus, Susan (2017-10-18). "When the Revolution Came for Amy Cuddy". The New York Times (in English). ISSN 0362-4331. Retrieved 2017-10-19.
  13. Leichsenring, Falk; Abbass, Allan; Hilsenroth, Mark J.; Leweke, Frank; Luyten, Patrick; Keefe, Jack R.; Midgley, Nick; Rabung, Sven; Salzer, Simone; Steiner, Christiane (April 2017). "Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research". Psychological Medicine. 47 (6): 1000–1011. doi:10.1017/S003329171600324X. PMID 27955715.
  14. Hengartner, Michael P. (February 28, 2018). "Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?". Frontiers in Psychology. Frontiers Media. 9: 256. doi:10.3389/fpsyg.2018.00256. PMC 5835722. PMID 29541051.
  15. Frank, Michael C.; Bergelson, Elika; Bergmann, Christina; Cristia, Alejandrina; Floccia, Caroline; Gervain, Judit; Hamlin, J. Kiley; Hannon, Erin E.; Kline, Melissa; Levelt, Claartje; Lew-Williams, Casey; Nazzi, Thierry; Panneton, Robin; Rabagliati, Hugh; Soderstrom, Melanie; Sullivan, Jessica; Waxman, Sandra; Yurovsky, Daniel (9 March 2017). "A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building" (PDF). Infancy. 22 (4): 421–435. doi:10.1111/infa.12182. hdl:10026.1/9942. Retrieved 19 December 2018.
  16. Tyson, Charlie (14 August 2014). "Failure to Replicate". Inside Higher Ed. Retrieved 19 December 2018.
  17. Makel, Matthew C.; Plucker, Jonathan A. (1 August 2014). "Facts Are More Important Than Novelty: Replication in the Education Sciences". Educational Researcher. 43 (6): 304–316. doi:10.3102/0013189X14545513. Retrieved 19 December 2018.
  18. Stanley, T. D.; Carter, Evan C.; Doucouliagos, Hristos (2018). "What meta-analyses reveal about the replicability of psychological research". Psychological Bulletin (in English). 144 (12): 1325–1346. doi:10.1037/bul0000169. ISSN 1939-1455. PMID 30321017.
  19. 19,0 19,1 19,2 John, Leslie K.; Loewenstein, George; Prelec, Drazen (2012-05-01). "Measuring the Prevalence of Questionable Research Practices With Incentives for Truth Telling" (PDF). Psychological Science. 23 (5): 524–532. doi:10.1177/0956797611430953. ISSN 0956-7976. PMID 22508865.
  20. "The Nine Circles of Scientific Hell". Perspectives on Psychological Science. 7 (6): 643–644. 2012-11-01. doi:10.1177/1745691612459519. ISSN 1745-6916. PMID 26168124.
  21. "Research misconduct - The grey area of Questionable Research Practices". www.vib.be. Retrieved 2015-11-13.
  22. Fiedler, Klaus; Schwarz, Norbert (2015-10-19). "Questionable Research Practices Revisited". Social Psychological and Personality Science. 7: 45–52. doi:10.1177/1948550615612150. ISSN 1948-5506.
  23. Simmons, Joseph; Nelson, Leif; Simonsohn, Uri (November 2011). "False-Positive Psychology: Undisclosed Flexibility in Data Collection and Analysis Allows Presenting Anything as Significant". Psychological Science. 22 (11): 1359–1366. doi:10.1177/0956797611417632. ISSN 0956-7976. PMID 22006061.
  24. Shea, Christopher (13 November 2011). "Fraud Scandal Fuels Debate Over Practices of Social Psychology". The Chronicle of Higher Education.
  25. Kahneman, Daniel. "A New Etiquette for Replication" – via Scribd.
  26. "Link to issue". Social Psychology. Hogrefe Publishing. 45 (3). 2014. Archived from the original on 30 May 2014.
  27. Inhaltsverzeichnis
  28. Open Science Collaboration (2015). "Estimating the reproducibility of Psychological Science" (PDF). Science. 349 (6251): aac4716. doi:10.1126/science.aac4716. hdl:10722/230596. PMID 26315443.
  29. Coyne, James (April 15, 2014). "Are meta analyses conducted by professional organizations more trustworthy?". Mind the Brain. Retrieved September 13, 2016.
  30. Connor, Steve (27 August 2015). "Study reveals that a lot of psychology research really is just 'psycho-babble'". The Independent. London.
  31. Meyer, Michelle N.; Chabris, Christopher (31 July 2014). "Why Psychologists' Food Fight Matters" – via Slate.
  32. "Psychology Is Starting To Deal With Its Replication Problem". 27 August 2015.
  33. "Science Isn't Broken". 19 August 2015.
  34. Etchells, Pete (28 May 2014). "Psychology's replication drive: it's not about you". The Guardian.
  35. Wagenmakers, Eric-Jan; Wetzels, Ruud; Borsboom, Denny; Maas, Han L. J. van der; Kievit, Rogier A. (2012-11-01). "An Agenda for Purely Confirmatory Research". Perspectives on Psychological Science. 7 (6): 632–638. doi:10.1177/1745691612463078. ISSN 1745-6916. PMID 26168122.
  36. Ioannidis, John P. A. (2012-11-01). "Why Science Is Not Necessarily Self-Correcting". Perspectives on Psychological Science. 7 (6): 645–654. doi:10.1177/1745691612464056. ISSN 1745-6916. PMID 26168125.
  37. Pashler, Harold; Harris, Christine R. (2012-11-01). "Is the Replicability Crisis Overblown? Three Arguments Examined". Perspectives on Psychological Science. 7 (6): 531–536. doi:10.1177/1745691612463401. ISSN 1745-6916. PMID 26168109.
  38. Bartlett, Tom (30 January 2013). "Power of Suggestion". The Chronicle of Higher Education.
  39. 39,0 39,1 Chambers, Chris (10 June 2014). "Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?". The Guardian.
  40. 40,0 40,1 Makel, Matthew C.; Plucker, Jonathan A.; Hegarty, Boyd (2012-11-01). "Replications in Psychology Research How Often Do They Really Occur?". Perspectives on Psychological Science. 7 (6): 537–542. doi:10.1177/1745691612460688. ISSN 1745-6916. PMID 26168110.
  41. Collaboration, Open Science (2015-08-28). "Estimating the reproducibility of psychological science" (PDF). Science. 349 (6251): aac4716. doi:10.1126/science.aac4716. hdl:10722/230596. ISSN 0036-8075. PMID 26315443.
  42. "The Science Behind Social Science Gets Shaken Up—Again". WIRED (in English). Retrieved 2018-08-28.
  43. Camerer, Colin F.; Dreber, Anna; et al. (27 August 2018). "Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015" (PDF). Nature Human Behaviour. 2 (9): 637–644. doi:10.1038/s41562-018-0399-z. PMID 31346273.
  44. Klein, R.A. (2018). "Many Labs 2: Investigating Variation in Replicability Across Samples and Settings". Advances in Methods and Practices in Psychological Science. 1 (4): 443–490. doi:10.1177/2515245918810225.
  45. Witkowski, Tomasz (2019). "Is the glass half empty or half full? Latest results in the replication crisis in Psychology". Skeptical Inquirer. 43 (2): 5–6.
  46. See also Earp and Trafimow, 2015
  47. Everett, Jim Albert Charlton; Earp, Brian D. (2015-01-01). "A tragedy of the (academic) commons: interpreting the replication crisis in psychology as a social dilemma for early-career researchers". Frontiers in Psychology. 6: 1152. doi:10.3389/fpsyg.2015.01152. PMC 4527093. PMID 26300832.
  48. "Resolving the replication crisis in social psychology? A new proposal". Society for Personality and Social Psychology. Retrieved 2015-11-18.
  49. Believe it or not: how much can we rely on published data on potential drug targets? by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)
  50. Ioannidis JA (13 July 2005). "Contradicted and initially stronger effects in highly cited clinical research". JAMA. 294 (2): 218–228. doi:10.1001/jama.294.2.218. PMID 16014596.
  51. Glick, J. Leslie (1 January 1992). "Scientific data audit—A key management tool". Accountability in Research. 2 (3): 153–168. doi:10.1080/08989629208573811.
  52. Begley, C. G.; Ellis, L. M. (2012). "Drug Development: Raise Standards for Preclinical Cancer Research". Nature. 483 (7391): 531–533. Bibcode:2012Natur.483..531B. doi:10.1038/483531a. PMID 22460880.
  53. Begley, C. G. (2013). "Reproducibility: Six red flags for suspect work". Nature. 497 (7450): 433–434. Bibcode:2013Natur.497..433B. doi:10.1038/497433a.
  54. Ioannidis, JPA (2016). "Why Most Clinical Research Is Not Useful". PLoS Med. 13 (6): e1002049. doi:10.1371/journal.pmed.1002049. PMC 4915619. PMID 27328301.
  55. Ioannidis, John P. A. (August 1, 2005). "Why Most Published Research Findings Are False". PLoS Medicine. 2 (8): e124. doi:10.1371/journal.pmed.0020124. ISSN 1549-1277. PMC 1182327. PMID 16060722.
  56. Hunter, John E. (2001-06-01). "The desperate need for replications". Journal of Consumer Research. 28 (1): 149–158. doi:10.1086/321953.
  57. Armstrong, J. S.; Green, Kesten (30 January 2017). "Guidelines for Science: Evidence and Checklists". Working Paper.
  58. Aichner, Thomas; Coletti, Paolo; Forza, Cipriano; Perkmann, Urban; Trentin, Alessio (2016-03-22). "Effects of Subcultural Differences on Country and Product Evaluations: A Replication Study". Journal of Global Marketing. 29 (3): 115–127. doi:10.1080/08911762.2015.1138012.
  59. Camerer, Colin F.; Dreber, Anna; Forsell, Eskil; Ho, Teck-Hua; Huber, Jürgen; Johannesson, Magnus; Kirchler, Michael; Almenberg, Johan; Altmejd, Adam (2016-03-25). "Evaluating replicability of laboratory experiments in economics". Science (in English). 351 (6280): 1433–1436. Bibcode:2016Sci...351.1433C. doi:10.1126/science.aaf0918. ISSN 0036-8075. PMID 26940865.
  60. "About 40% of economics experiments fail replication survey". Science (in English). 2016-03-03. Retrieved 2017-10-25.
  61. Ioannidis, John P. A.; Stanley, T. D.; Doucouliagos, Hristos (2017-10-01). "The Power of Bias in Economics Research". The Economic Journal (in English). 127 (605): F236–F265. doi:10.1111/ecoj.12461. ISSN 1468-0297.
  62. Halperin, Israel; Vigotsky, Andrew D.; Foster, Carl; Pyne, David B. (2018-02-01). "Strengthening the Practice of Exercise and Sport-Science Research". International Journal of Sports Physiology and Performance. 13 (2): 127–134. doi:10.1123/ijspp.2017-0322. ISSN 1555-0273. PMID 28787228.
  63. "How Shoddy Statistics Found A Home In Sports Research". FiveThirtyEight (in English). 2018-05-16. Retrieved 2018-05-16.
  64. Stagge, James H.; Rosenberg, David E.; Abdallah, Adel M.; Akbar, Hadia; Attallah, Nour A.; James, Ryan (2019-02-26). "Assessing data availability and research reproducibility in hydrology and water resources". Scientific Data (in English). 6: 190030. Bibcode:2019NatSD...690030S. doi:10.1038/sdata.2019.30. ISSN 2052-4463. PMC 6390703. PMID 30806638.
  65. https://www.nature.com/articles/sdata201930#f2
  66. https://replicationnetwork.com/2019/03/01/surveying-reproducibility/
  67. [ https://fabiusmaximus.com/2016/04/19/replication-crisis-in-science-95394/ The replication crisis in science has just begun. It will be big.] by Larry Kummer, Editor Science & Nature 19 April 2016 on Fabius Maximus website, here referring to W.Wilson – Scientific Regress (siehe unter weiterführender Literatur unten)
  68. Ulf Kleinevoß: Bestimmung der Newtonschen Gravitationskonstanten, Dissertation Januar 2002, Wuppertal, S.1, Abstract; [1]
  69. Rupert Sheldrake: The Science Delusion - Freeing the Spirit of Enquiry; London 2012, Hodder& Stoughton, ISBN 978 1 444 72795 1 Kapitel 3: Are the Laws of Nature Fixed?
  70. [2] und Sheldrake, Science Delusion