Der AP legt den Grundstein für eine KI-gestützte Nachrichtenredaktion


Die Associated Press hat heute in seinem Newsroom Standards für den generativen KI-Einsatz veröffentlicht. Die Organisation, die eine Lizenzvereinbarung mit dem ChatGPT-Hersteller OpenAI hat, hat eine ziemlich restriktive und vernünftige Liste aufgeführt Liste der Maßnahmen informiert über die aufkeimende Technologie und warnt seine Mitarbeiter davor, KI zur Erstellung veröffentlichungsfähiger Inhalte zu verwenden. Obwohl nichts in den neuen Richtlinien besonders umstritten ist, könnten weniger gewissenhafte Medien dies einsehen APs Segen als Lizenz, generative KI exzessiver oder hinterhältiger einzusetzen.

Das KI-Manifest der Organisation unterstreicht die Überzeugung, dass Inhalte mit künstlicher Intelligenz als das fehlerhafte Werkzeug behandelt werden sollten, das sie sind – und nicht als Ersatz für ausgebildete Autoren, Redakteure und Reporter, die nach bestem Wissen und Gewissen handeln. „Wir sehen KI in keiner Weise als Ersatz für Journalisten“, sagte der APAmanda Barrett, Vizepräsidentin für Standards und Inklusion, schrieb in einem Artikel über ihren heutigen Ansatz zur KI. „Es liegt in der Verantwortung von AP Journalisten sind für die Richtigkeit und Fairness der von uns weitergegebenen Informationen verantwortlich.“

Der Artikel weist seine Journalisten an, KI-generierte Inhalte als „ungeprüftes Quellmaterial“ zu betrachten, auf das die Redaktion „ihr redaktionelles Urteilsvermögen anwenden muss und.“ AP„s Sourcing-Standards bei der Prüfung von Informationen zur Veröffentlichung.“ Es heißt, dass Mitarbeiter „mit Vorsicht mit ChatGPT experimentieren“, aber keine veröffentlichungsfähigen Inhalte damit erstellen dürfen. Dazu gehören auch Bilder. „Gemäß unseren Standards verändern wir keine Elemente unserer Fotos, Videos oder Audioinhalte“, heißt es darin. „Daher gestatten wir den Einsatz generativer KI zum Hinzufügen oder Entfernen von Elementen nicht.“ Es wurde jedoch eine Ausnahme für Geschichten geschaffen, in denen KI-Illustrationen oder Kunst das Thema einer Geschichte sind – und selbst dann muss es klar als solche gekennzeichnet werden.

Barrett warnt vor dem Potenzial von KI zur Verbreitung von Fehlinformationen. Um die versehentliche Veröffentlichung von allem zu verhindern, was von der KI erstellt wurde und authentisch erscheint, sagt sie AP Journalisten „sollten die gleiche Vorsicht und Skepsis an den Tag legen, die sie normalerweise an den Tag legen würden, einschließlich des Versuchs, die Quelle des Originalinhalts zu ermitteln, eine umgekehrte Bildsuche durchzuführen, um die Herkunft eines Bildes zu überprüfen, und nach Berichten mit ähnlichen Inhalten von vertrauenswürdigen Medien suchen.“ Zum Schutz der Privatsphäre verbieten die Richtlinien Autoren außerdem, „vertrauliche oder sensible Informationen in KI-Tools“ einzugeben.

Obwohl dies ein relativ vernünftiges und unumstrittenes Regelwerk ist, waren andere Medien weniger anspruchsvoll. CNET wurde Anfang dieses Jahres dabei erwischt, wie er fehlerbehaftete, KI-generierte Finanzerklärartikel veröffentlichte (die nur dann als computererstellt gekennzeichnet wurden, wenn man auf die Verfasszeile des Artikels klickte). Gizmodo stand diesen Sommer in einem ähnlichen Rampenlicht, als es a Star Wars-Artikel voller Ungenauigkeiten. Es ist nicht schwer, sich andere Medien vorzustellen, die verzweifelt auf der Suche nach einem Vorsprung in der hart umkämpften Medienlandschaft sind und sich das ansehen APDer (sehr eingeschränkte) Einsatz von KI dient als grünes Licht, um den Roboterjournalismus zu einer zentralen Figur in ihren Nachrichtenredaktionen zu machen, indem sie schlecht bearbeitete/ungenaue Inhalte veröffentlichen oder KI-generierte Arbeit nicht als solche kennzeichnen.

source-115

Leave a Reply