Was du wissen musst
- Angesichts der raschen Verbreitung und Akzeptanz von KI haben mehrere Publikationen die Technologie schnell in ihre Arbeitsabläufe integriert und sogar einige ihrer Mitarbeiter entlassen.
- KI kann Nachrichtenartikel im Bruchteil einer Sekunde generieren, ohne jedoch Rücksicht auf Genauigkeit, Zuordnungen oder gar Grammatik zu nehmen.
- CNET ist eine der Publikationen, die diese Technologie zum Schreiben einiger ihrer Artikel nutzten.
- Diese Strategie hat sich negativ auf die Bewertung auf Wikipedia ausgewirkt, von einer vertrauenswürdigen und zuverlässigen Quelle zu einer allgemein unzuverlässigen Quelle.
KI-generierte Artikel scheinen eine praktische Lösung für Veröffentlichungen zu sein, gefährden jedoch deren Ruf, Glaubwürdigkeit und Suchmaschinenranking. Dies geschah mit CNET von Red Ventures, einer Website für technische Nachrichten und Rezensionen (über den Futurismus).
Im Jahr 2022 Die Publikation begann, KI zur Generierung einiger Artikel zu verwenden. Doch dieser Hype schien nur von kurzer Dauer zu sein, da einige Artikel schwerwiegende Grammatikprobleme und Plagiate aufwiesen. Dieser Effekt veranlasste die Veröffentlichung dazu, die von der KI generierten Artikel zu pausieren, aber das Ausmaß des verursachten Schadens war bereits zu groß.
Dies wirkte sich negativ auf das Ranking der Publikation auf Wikipedia als verlässliche Informationsquelle aus. Wikipedia hat eine synchronisierte Seite Zuverlässige Quellen/beständige Quellen, Dort werden glaubwürdige und zuverlässige Nachrichtenquellen aufgeführt.
Die Nachricht, dass CNET KI zur Generierung einiger seiner Inhalte einsetzt, verbreitete sich wie ein Lauffeuer. Infolgedessen löst dies eine breite Diskussion unter den Wikipedia-Redakteuren über das Problem auf der Projektseite „Reliable Sources“ aus.
Wikipedia-Redakteure diskutierten über das neue Projekt der Veröffentlichung, das KI zur Generierung von Artikeln nutzt. Einer der Redakteure erwähnte, dass das Projekt nicht reibungslos lief, da einige Stücke voller grammatikalischer Fehler und ungenauer Informationen waren.
Wir wissen, dass die KI auf eine ganze Reihe von Rückschlägen und Herausforderungen stößt. Erinnern Sie sich daran, als in einem KI-generierten Artikel eine Lebensmittelbank als Touristenattraktion empfohlen wurde oder in einem anderen bizarren Artikel ein verstorbener NBA-Spieler als nutzlos bezeichnet wurde?
Damals galt die Publikation als verlässliche Informationsquelle, doch dieses Projekt hatte sie in ein schlechtes Licht gerückt. Die Redakteure gaben kategorisch an, dass sie aktiv nach einigen KI-generierten Artikeln suchten, die möglicherweise irrtümlicherweise auf Wikipedia gelangten, um sie zu entfernen.
Die Einschaltquoten von CNET haben seitdem einen erheblichen Rückschlag erlitten, wie aus der Liste der mehrjährigen Quellen von Wikipedia hervorgeht. Wikipedia hat seine Glaubwürdigkeit in drei Stufen unterteilt. Die erste Stufe stellt die Bewertungen der Publikation vor Oktober dar, als sie als „allgemein zuverlässige“ Quelle eingestuft wurde.
Die zweite Ebene stellt den Zustand der Website zwischen Oktober 2020 und heute dar. Wikipedia stellt außerdem fest, dass Red Ventures in diesem Zeitraum CNET übernommen hat, was weiter darauf hindeutet, dass auf der Website eine „Verschlechterung der redaktionellen Standards“ zu beobachten war. Diese Beobachtung führte letztendlich zu der Bewertung „Kein Konsens hinsichtlich der Zuverlässigkeit“.
Die dritte Stufe schließlich stuft CNET als „im Allgemeinen unzuverlässig“ ein. Wikipedia führte dies darauf zurück, dass die Website KI nutzte, um Artikel mit ungenauen Informationen und vielen Affiliate-Links zu generieren.
Während er mit Futurism sprach, gab ein CNET-Sprecher an:
„CNET ist der weltweit größte Anbieter von unvoreingenommenen, technologieorientierten Nachrichten und Ratschlägen. Wir genießen seit fast 30 Jahren aufgrund unserer strengen Redaktions- und Produktbewertungsstandards Vertrauen. Es ist wichtig klarzustellen, dass CNET KI nicht aktiv zur Erstellung neuer Inhalte einsetzt . Obwohl wir keine konkreten Pläne für einen Neustart haben, würden alle zukünftigen Initiativen unserer öffentlichen KI-Richtlinie folgen.“
Wie hoch sind die Kosten für die Veröffentlichung KI-generierter Artikel im Internet?
Während laut dem Work Trend Index Report von Microsoft nur 49 % der an der Umfrage teilnehmenden Teilnehmer angaben, sie seien besorgt darüber, dass KI ihre Arbeitsplätze übernehmen könnte, hat KI einige Berufe möglicherweise bereits überflüssig und obsolet gemacht. Dieses Ergebnis umfasst Architektur-, Design- und Codierungsjobs. Jensen Huang, CEO von NVIDIA, deutete kürzlich an, dass das Programmieren für die zukünftige Generation möglicherweise keine praktikable Karriereoption sei. Er fügte hinzu, dass es am besten sei, den Sektor der KI zu überlassen und anderswo lukrative Möglichkeiten zu erkunden.
Auch Veröffentlichungen blieben nicht außen vor. Angesichts der breiten Verfügbarkeit von KI-gestützten Chatbots wie Microsoft Copilot und ChatGPT entließen viele Websites schnell einige ihrer Mitarbeiter. Microsoft gab kürzlich bekannt, dass es eine neue Initiative gestartet hat, um Journalisten auf zukünftige Nachrichtenredaktionen mit KI vorzubereiten. Diese Initiative umfasst die Vermittlung von Fähigkeiten und Best Practices zur Nutzung des Tools zur Verbesserung ihres Arbeitsablaufs.
KI ist beim Schreiben von Artikeln und beim Suchen nach Informationen im Internet deutlich schneller. Aber wenn man sich an den oben genannten Beispielen orientieren kann, weisen KI-generierte Artikel häufig kritische Probleme in Bezug auf die Genauigkeit auf. Diese Woche machte ein Journalist einen ähnlichen Vorfall ausfindig, als er versuchte, die Fähigkeiten von Microsoft Copilot zu nutzen, um einen Nachrichtenartikel über den jüngsten Tod des russischen Oppositionsführers Alexej Nawalny zu schreiben. Der Chatbot brachte Präsident Biden und Präsident Putin offensichtlich mit den gefälschten Presseerklärungen in Verbindung.