Wissenschaftlicher Betrug ist schlüpfrig zu fangen – aber leichter zu bekämpfen


Wie vieles von das Internet, PubPeer ist die Art von Ort, an dem Sie vielleicht anonym bleiben möchten. Dort unter zufällig vergebenen taxonomischen Namen wie Actinopolyspora biskrensis (ein Bakterium) und Hoya camphorifolia (eine blühende Pflanze) dokumentieren „Spürhunde“ akribisch Fehler in der wissenschaftlichen Literatur. Obwohl sie über alle möglichen Fehler schreiben, von verpfuschten Statistiken bis hin zu unsinniger Methodik, liegt ihr kollektives Fachwissen in manipulierten Bildern: Proteinwolken, die verdächtig scharfe Kanten aufweisen, oder identische Anordnungen von Zellen in zwei angeblich unterschiedlichen Experimenten. Manchmal bedeuten diese Unregelmäßigkeiten nichts anderes, als dass ein Forscher versucht hat, eine Figur zu verschönern, bevor er sie bei einer Zeitschrift einreichte. Aber sie hissen trotzdem rote Fahnen.

PubPeers kleine Gemeinschaft von wissenschaftlichen Detektiven hat eine unwahrscheinliche Berühmtheit hervorgebracht: Elisabeth Bik, die ihren unheimlichen Scharfsinn dafür einsetzt Stellen Sie Bildduplizierungen fest das wäre für praktisch jeden anderen Beobachter unsichtbar. Solche Vervielfältigungen können es Wissenschaftlern ermöglichen, Ergebnisse aus dem Nichts zu zaubern, indem sie Teile vieler Bilder zusammenfügen, oder zu behaupten, dass ein Bild zwei separate Experimente darstellt, die zu ähnlichen Ergebnissen geführt haben. Aber auch Biks übernatürliches Auge hat Grenzen: Es ist möglich, Experimente vorzutäuschen, ohne dasselbe Bild tatsächlich zweimal zu verwenden. „Wenn es eine kleine Überschneidung zwischen den beiden Fotos gibt, kann ich Sie festnageln“, sagt sie. „Aber wenn Sie die Probe etwas weiter verschieben, kann ich keine Überlappung finden.“ Wenn der weltweit bekannteste Experte Betrug nicht immer erkennen kann, scheint es unmöglich, ihn zu bekämpfen – oder ihn sogar zu untersuchen.

Dennoch können gute wissenschaftliche Praktiken die Auswirkungen von Betrug – d. h. offenkundiger Fälschung – auf die Wissenschaft wirksam verringern, unabhängig davon, ob er jemals entdeckt wird oder nicht. Betrug „kann nicht aus der Wissenschaft ausgeschlossen werden, genauso wie wir Mord in unserer Gesellschaft nicht ausschließen können“, sagt Marcel van Assen, leitender Forscher am Meta-Forschungszentrum der Tillburg School of Social and Behavioral Sciences. Aber da Forscher und Befürworter die Wissenschaft weiterhin zu mehr Offenheit und Unparteilichkeit drängen, sagt er, wird Betrug „in Zukunft weniger verbreitet sein“.

Neben Detektiven wie Bik sind „Metawissenschaftler“ wie van Assen die Betrugsexperten der Welt. Diese Forscher verfolgen systematisch die wissenschaftliche Literatur, um sicherzustellen, dass sie so genau und robust wie möglich ist. Die Metawissenschaft existiert in ihrer jetzigen Form seit 2005, als John Ioannidis – ein einst gepriesener Professor der Stanford University, der es kürzlich getan hat in Verruf geraten für seine Ansichten zur Covid-19-Pandemie, wie z. B. eine heftige Opposition gegen Lockdowns – veröffentlichte ein Papier mit dem provokativen Titel „Warum die meisten veröffentlichten Forschungsergebnisse falsch sind.“ Kleine Stichprobengrößen und Voreingenommenheit, argumentierte Ioannidis, bedeuten, dass falsche Schlussfolgerungen oft in der Literatur landen und diese Fehler zu selten entdeckt werden, weil Wissenschaftler viel lieber ihre eigene Forschungsagenda vorantreiben würden, als zu versuchen, die Arbeit von Kollegen zu replizieren. Seit diesem Artikel haben Metawissenschaftler ihre Techniken zur Untersuchung von Vorurteilen verfeinert, ein Begriff, der alles abdeckt, von sogenannten „fragwürdigen Forschungspraktiken“ – beispielsweise das Versäumnis, negative Ergebnisse zu veröffentlichen oder die wiederholte Anwendung statistischer Tests, bis man etwas Interessantes findet – bis hin zur regelrechten Datenfabrikation oder -verfälschung.

Sie messen dieser Voreingenommenheit den Puls, indem sie nicht auf einzelne Studien, sondern auf Gesamtmuster in der Literatur schauen. Wenn kleinere Studien zu einem bestimmten Thema tendenziell dramatischere Ergebnisse zeigen als beispielsweise größere Studien, kann dies eine sein Indikator für Voreingenommenheit. Kleinere Studien sind variabler, sodass einige von ihnen zufällig dramatisch werden – und in einer Welt, in der dramatische Ergebnisse bevorzugt werden, werden diese Studien häufiger veröffentlicht. Andere Ansätze beinhalten die Betrachtung von p-Werten, Zahlen, die angeben, ob ein bestimmtes Ergebnis statistisch signifikant ist oder nicht. Wenn in der Literatur zu einer bestimmten Forschungsfrage zu viele p-Werte signifikant erscheinen und zu wenige nicht, dann Wissenschaftler möglicherweise fragwürdige Ansätze verwenden zu versuchen, ihre Ergebnisse aussagekräftiger erscheinen zu lassen.

Aber diese Muster zeigen nicht, wie viel von dieser Verzerrung eher auf Betrug als auf unehrliche Datenanalyse oder unschuldige Fehler zurückzuführen ist. In gewisser Weise ist Betrug an sich nicht messbar, sagt Jennifer Byrne, Professorin für molekulare Onkologie an der Universität von Sydney, die dies getan hat daran gearbeitet, potenziell betrügerische Papiere zu identifizieren in der Krebsliteratur. „Bei Betrug geht es um Absicht. Es ist ein psychologischer Geisteszustand“, sagt sie. „Wie leitet man aus einer veröffentlichten Arbeit eine Geisteshaltung und Absicht ab?“

source-114

Leave a Reply