Studie zeigt, dass ein KI-Programm Wikipedia-Zitate überprüfen und so die Zuverlässigkeit verbessern könnte


Man kann sich nicht auf alles verlassen, weshalb es wichtig ist, dass Sie sich auf die in den Fußnoten zitierten Originalquellen beziehen. Aber manchmal können sogar die Primärquellen . Forscher haben eine KI entwickelt, auf die sie sich konzentriert von Wikipedia-Referenzen, indem die Algorithmen trainiert werden, fragwürdige Zitate auf der Website zu identifizieren.

Das Programm namens SIDE hat zwei Aufgaben: Es prüft, ob eine Primärquelle korrekt ist, und schlägt neue vor. Allerdings geht die KI davon aus, dass eine Wikipedia-Behauptung wahr ist. Das bedeutet, dass es zwar die Gültigkeit einer Quelle überprüfen kann, die in einem Eintrag gemachten Behauptungen jedoch nicht wirklich überprüfen kann.

In einem In 70 Prozent der Fälle zogen die Leute die von der KI vorgeschlagenen Zitate dem Original vor. Die Forscher fanden heraus, dass SIDE in fast 50 Prozent der Fälle eine Quelle präsentierte, die bereits von Wikipedia als Top-Referenz verwendet wurde. Und in 21 Prozent der Fälle war SIDE einen Schritt voraus, wenn es eine Empfehlung aussprach, die von menschlichen Kommentatoren in der Studie bereits als angemessen erachtet wurde.

Während die KI zu demonstrieren scheint, dass sie einem Redakteur effektiv dabei helfen kann, Wikipedia-Behauptungen zu überprüfen, geben die Forscher zu, dass alternative Programme ihr aktuelles Design sowohl in Qualität als auch in Geschwindigkeit übertreffen könnten. SIDE ist in seinen Fähigkeiten eingeschränkt – das Programm berücksichtigt nämlich nur Verweise, die sich auf Webseiten beziehen. In Wirklichkeit zitiert Wikipedia Bücher, wissenschaftliche Artikel und Informationen, die über andere Medien als Text wie Bilder und Videos hinaus präsentiert werden. Über die technischen Grenzen hinaus geht Wikipedia jedoch davon aus, dass jeder Autor irgendwo einen Verweis auf ein Thema zuweisen kann. Die Forscher vermuten, dass die Nutzung von Wikipedia selbst die Studie einschränken könnte. Sie weisen darauf hin, dass Personen, die Zitate in die Website einfügen, abhängig von der Art der betreffenden Themen Voreingenommenheit verbreiten könnten.

Mittlerweile wissen wir alle, dass jedes Programm, insbesondere eine KI, die auf Training angewiesen ist, anfällig für die Offenlegung der . Die zum Trainieren und Bewerten der SIDE-Modelle verwendeten Daten könnten in dieser Hinsicht begrenzt sein. Dennoch könnten die Vorteile des Einsatzes von KI zur Rationalisierung der Faktenprüfung oder zumindest als unterstützendes Werkzeug auch anderswo nachhallen. Wikipedia und müssen sich mit böswilligen Akteuren und Bots auseinandersetzen, die digitale Stadtplätze mit falschen Informationen überschwemmen. Dies gilt insbesondere jetzt und ist wichtiger denn je, da sich in den USA und in den USA Fehlinformationen verbreiten. Die Notwendigkeit, Fehlinformationen im Internet einzudämmen, könnte durch KI-Tools wie SIDE beschleunigt werden, die genau für diesen Zweck entwickelt wurden. Aber es müssen noch einige Fortschritte gemacht werden, bevor dies gelingt.

source-115

Leave a Reply