Der Einsatz von KI dringt in wissenschaftliche Fachzeitschriften ein – und es erweist sich als schwer zu erkennen


Experten sagen, dass in der akademischen Welt beim Einsatz generativer KI ein Gleichgewicht gefunden werden muss: Sie könnte den Schreibprozess effizienter machen und Forschern dabei helfen, ihre Ergebnisse klarer zu vermitteln. Aber auch die Technologie – wenn sie in vielen Arten des Schreibens eingesetzt wird – ist zurückgegangen gefälschte Referenzen in seine Antworten ein, erfand Dinge und wiederholte sie sexistische und rassistische Inhalte aus dem Internet, was alles problematisch wäre, wenn es in veröffentlichten wissenschaftlichen Texten enthalten wäre.

Wenn Forscher diese generierten Antworten ohne strenge Überprüfung oder Offenlegung in ihrer Arbeit verwenden, werfen sie große Glaubwürdigkeitsprobleme auf. Die Nichtoffenlegung der Nutzung von KI würde bedeuten, dass Autoren generative KI-Inhalte als ihre eigenen ausgeben, was als Plagiat angesehen werden könnte. Möglicherweise verbreiten sie auch die Halluzinationen der KI oder ihre unheimliche Fähigkeit, Dinge zu erfinden und als Tatsachen darzustellen.

Es sei ein großes Problem, sagt David Resnik, Bioethiker am National Institute of Environmental Health Sciences, über den Einsatz von KI in der wissenschaftlichen und akademischen Arbeit. Dennoch, sagt er, sei generative KI nicht nur schlecht – sie könnte Forschern helfen, deren Muttersprache nicht Englisch ist, bessere Arbeiten zu schreiben. „KI könnte diesen Autoren helfen, die Qualität ihres Schreibens und ihre Chancen auf die Annahme ihrer Arbeiten zu verbessern“, sagt Resnik. Aber wer KI nutzt, sollte es offenlegen, fügt er hinzu.

Derzeit ist es unmöglich zu wissen, in welchem ​​Umfang KI im wissenschaftlichen Publizieren eingesetzt wird, da es keine narrensichere Möglichkeit gibt, den Einsatz von KI zu überprüfen, wie es bei Plagiaten der Fall ist. Der Ressourcenrichtlinie Der Artikel erregte die Aufmerksamkeit eines Forschers, weil die Autoren offenbar versehentlich einen Hinweis auf die mögliche Beteiligung eines großen Sprachmodells hinterlassen hatten. „Das sind wirklich die Spitzen des Eisbergs“, sagt Elisabeth Bik, Beraterin für wissenschaftliche Integrität und Betreiberin des Blogs Science Integrity Digest. „Ich denke, das ist ein Zeichen dafür, dass es in sehr großem Umfang geschieht.“

Im Jahr 2021 fand Guillaume Cabanac, Professor für Informatik an der Universität Toulouse in Frankreich, in wissenschaftlichen Artikeln seltsame Formulierungen wie „gefälschtes Bewusstsein“ statt „künstliche Intelligenz“. Er und ein Team prägten die Idee, nach „gequälte Phrasen„“ oder Wortsuppe anstelle einfacher Begriffe, als Anzeichen dafür, dass ein Dokument wahrscheinlich von Textgeneratoren stammt. Er ist auch in Fachzeitschriften auf der Suche nach generativer KI und hat darauf aufmerksam gemacht Ressourcenrichtlinie Studie zu X.

Cabanac untersucht Studien, die möglicherweise problematisch sind, und er hat auf potenziell nicht offengelegte KI-Nutzung hingewiesen. Um die wissenschaftliche Integrität bei der Weiterentwicklung der Technologie zu schützen, müssen sich Wissenschaftler weiterbilden, sagt er. „Wir als Wissenschaftler müssen handeln, indem wir uns weiterbilden und über die Betrügereien Bescheid wissen“, sagt Cabanac. „Es ist ein Whack-a-Mole-Spiel. Es gibt neue Möglichkeiten zu täuschen.

Seitdem haben technische Fortschritte diese Sprachmodelle noch überzeugender gemacht – und als Schreibpartner noch attraktiver. Im Juli, zwei Forscher nutzte ChatGPT, um in einer Stunde eine komplette Forschungsarbeit zu schreiben, um die Wettbewerbsfähigkeit des Chatbots in der Welt der wissenschaftlichen Veröffentlichungen zu testen. Es war nicht perfekt, aber auf Anregung des Chatbots wurde ein Papier mit einer soliden Analyse zusammengestellt.

source-114

Leave a Reply