Wie WIRED generative KI-Tools verwenden wird


Wie so ziemlich alle anderen In den letzten Monaten haben Journalisten generative KI-Tools wie ChatGPT ausprobiert, um zu sehen, ob sie uns helfen können, unsere Arbeit besser zu machen. KI-Software kann keine Quellen aufrufen und ihnen Informationen entlocken, aber sie kann halbwegs anständige Transkripte dieser Anrufe erstellen, und neue generative KI-Tools können Hunderte von Seiten dieser Transkripte zu einer Zusammenfassung verdichten.

Geschichten zu schreiben ist jedoch eine andere Sache. Ein paar Veröffentlichungen haben versucht—Manchmal mit katastrophale Ergebnisse. Es stellt sich heraus, dass aktuelle KI-Tools sehr gut darin sind, überzeugende (wenn auch formelhafte) Kopien voller Unwahrheiten zu produzieren.

Dies ist WIRED, also wollen wir an vorderster Front der neuen Technologie stehen, aber auch ethisch und angemessen umsichtig sein. Hier sind also einige Grundregeln, wie wir die aktuellen generativen KI-Tools verwenden. Wir sind uns bewusst, dass sich die KI weiterentwickeln und unsere Perspektive im Laufe der Zeit ändern kann, und wir werden alle Änderungen in diesem Beitrag anerkennen. Wir freuen uns über Feedback in den Kommentaren.

Textgeneratoren (z. B. LaMDA, ChatGPT)

Wir veröffentlichen keine Geschichten mit von KI generiertem Text, außer wenn die Tatsache, dass es KI-generiert ist, der springende Punkt der Geschichte ist. (In solchen Fällen legen wir die Verwendung offen und weisen auf Fehler hin.) Dies gilt nicht nur für ganze Geschichten, sondern auch für Ausschnitte – zum Beispiel das Ordnen einiger Sätze von Textbausteinen darüber, wie Crispr funktioniert oder was Quantencomputing ist. Dies gilt auch für redaktionelle Texte auf anderen Plattformen, wie z. B. E-Mail-Newslettern. (Wenn wir es für nicht-redaktionelle Zwecke wie Marketing-E-Mails verwenden, die bereits automatisiert sind, werden wir dies offenlegen.)

Dies hat offensichtliche Gründe: Die aktuellen KI-Tools sind sowohl fehleranfällig als auch voreingenommen und produzieren oft langweilige, unoriginelle Texte. Darüber hinaus denken wir, dass jemand, der beruflich schreibt, ständig darüber nachdenken muss, wie er komplexe Ideen am besten in eigenen Worten ausdrücken kann. Schließlich kann ein KI-Tool versehentlich die Worte eines anderen plagiieren. Wenn ein Autor damit Text zur Veröffentlichung ohne Offenlegung erstellt, behandeln wir dies als Plagiat.

Wir veröffentlichen auch keine von AI bearbeiteten Texte. Während die Verwendung von KI, um beispielsweise eine bestehende Geschichte mit 1.200 Wörtern auf 900 Wörter zu verkleinern, weniger problematisch erscheinen mag, als eine Geschichte von Grund auf neu zu schreiben, sind wir der Meinung, dass sie immer noch Fallstricke hat. Abgesehen von dem Risiko, dass das KI-Tool sachliche Fehler oder Bedeutungsänderungen einführt, ist die Bearbeitung auch eine Frage des Urteils darüber, was an dem Stück am relevantesten, originellsten oder unterhaltsamsten ist. Dieses Urteil hängt davon ab, sowohl das Thema als auch die Leserschaft zu verstehen, was die KI nicht leisten kann.

Wir können versuchen, KI zu verwenden, um Überschriften oder Text für kurze Social-Media-Beiträge vorzuschlagen. Wir generieren derzeit viele Vorschläge manuell, und ein Redakteur muss die endgültige Auswahl auf Genauigkeit genehmigen. Die Verwendung eines KI-Tools zur Beschleunigung der Ideengenerierung wird diesen Prozess nicht wesentlich ändern.

Wir können versuchen, KI zu verwenden, um Ideen für Geschichten zu generieren. Eine KI könnte den Prozess des Brainstormings mit einer Aufforderung wie „Schlagen Sie Geschichten über die Auswirkungen von Gentests auf die Privatsphäre vor“ oder „Geben Sie eine Liste von Städten an, in denen vorausschauende Polizeiarbeit umstritten war“ unterstützen. Dies kann einige Zeit sparen und wir werden weiter untersuchen, wie dies nützlich sein kann. Einige begrenzte Tests, die wir durchgeführt haben, haben jedoch gezeigt, dass dies auch zu falschen Hinweisen oder langweiligen Ideen führen kann. In jedem Fall besteht die eigentliche Arbeit, die nur Menschen leisten können, darin, zu bewerten, welche es wert sind, weiterverfolgt zu werden. Wenn möglich, werden wir für jedes von uns verwendete KI-Tool die Quellen anerkennen, die es zur Generierung von Informationen verwendet hat.

source-114

Leave a Reply