Medienunternehmen setzen sich sowohl innerhalb als auch außerhalb von Nachrichtenredaktionen mit KI auseinander

Viele führende Medienunternehmen haben sich dagegen ausgesprochen, künstliche Intelligenz (KI) wie ChatGPT von OpenAI in ihren Nachrichtenredaktionen zuzulassen, und haben der KI die Erlaubnis verweigert, ihre Inhalte im Web zu scannen.

Es ist gewesen gemeldet dass mehrere Mainstream-Medienunternehmen, darunter CNN, The New York Times und Reuters, ihre Plattformen so programmiert haben, dass der Webcrawler GPTBot von OpenAI keinen Zugriff auf ihre Inhalte hat.

Der Webcrawler wurde am 8. August veröffentlicht, um möglicherweise zukünftige ChatGPT-Modelle durch die Indizierung von Inhalten von Websites im gesamten Web zu verbessern.

Darüber hinaus behauptete ein CNN-Bericht, dass auch andere Nachrichten- und Mediengiganten dasselbe getan hätten, darunter Disney, Bloomberg, The Washington Post, The Atlantic, Axios, Insider, ABC News und ESPN. Auch große Verlage wie Condé Nast und Vox Media haben Maßnahmen gegen KI ergriffen.

Danielle Coffey, Präsidentin und CEO der News Media Alliance, sagte einem CNN-Reporter, dass mit KI im Bild:

„Ich sehe eine erhöhte Dringlichkeit, wenn es darum geht, gegen die Nutzung und den Missbrauch unserer Inhalte vorzugehen.“

KI-Entwickler wurden bereits mit Klagen wegen Urheberrechtsverletzungen durch Material konfrontiert, das zum Trainieren von Modellen verwendet wurde. Am 12. Juli wurde Google wegen seiner damals neuen Datenschutzrichtlinie zum Daten-Scraping mit künstlicher Intelligenz verklagt.

Zuvor hatten die Autorin Sarah Silverman und zwei andere Meta und OpenAI verklagt, weil sie ihr urheberrechtlich geschütztes Werk zum Trainieren ihrer Systeme ohne die entsprechende Zustimmung verwendet hatten.

Bereits im April hatte der CEO von News Corp Australia die Nase vorn, als er argumentierte, dass ChatGPT und ähnliche KI-Systeme für die konsumierten Nachrichten bezahlen müssen.

Verbieten oder nicht verbieten

Es sind nicht nur Medienunternehmen, die proaktiv den Einsatz von KI-Chatbots am Arbeitsplatz verbieten oder den Systemen den Zugriff auf Inhalte verbieten.

Im Mai haben die Technologiegiganten Samsung und Apple beide die interne Nutzung von KI-Chatbots wie ChatGPT verboten, weil sie befürchten, dass sensible interne Daten von den Modellen ausgelagert werden.

Verwandt: Die Wissenschaft ist gespalten über ChatGPTs linke politische Voreingenommenheit

Zuvor hatten eine Reihe von Finanzdienstleistungsunternehmen, wie z JP MorganBank of America, Goldman Sachs und Citigroup haben ebenfalls den internen Einsatz generativer KI-Tools verboten.

Am 26. Juni verbot das Repräsentantenhaus der Vereinigten Staaten seinen Mitgliedern die Verwendung aller KI-Chatbots mit Ausnahme von ChatGPT Plus, da dieser über „wichtige Datenschutzfunktionen“ verfügt, die zum Schutz sensibler Daten beitragen können.

Medien setzen auf KI – im Guten wie im Schlechten

Während viele sich vor der Invasivität der Technologie hüten, haben andere sie im Auge behalten – und sogar damit experimentiert.

Der Unterhaltungsriese Netflix scheint auf die eine oder andere Weise darüber nachzudenken, KI zu integrieren, wie aus Stellenausschreibungen im Juli mit hochbezahlten KI-Stellen hervorgeht.

Die Medienseite BuzzFeed hat kürzlich ihre Nachrichtenabteilung geschlossen und 180 Mitarbeiter entlassen. Kurz darauf gab sie in ihrer Telefonkonferenz zu den Ergebnissen für das erste Quartal bekannt, dass sie sich „auf KI konzentrieren“ werde.

Ein Beispiel dafür, dass die Integration von KI in Medien schiefgeht, ereignete sich im Mai, als sich eine irische Tageszeitung dafür entschuldigen musste, dass sie unwissentlich einen KI-generierten Artikel veröffentlicht hatte. Es wurde behauptet, man sei „absichtlich getäuscht“ worden und habe geglaubt, die Identität eines Gastautors sei menschlich; Es stellte sich jedoch heraus, dass es sich um KI handelte.

KI für Unternehmen

Ein am 28. August durchgeführter Bericht ergab auch, dass die Besorgnis auf die Verbraucher übergreift: Fast drei Viertel sind besorgt über den unethischen Einsatz von KI durch Unternehmen.

Dies geschieht kurz nachdem OpenAI eine Version seines ChatGPT-KI-Chatbots für Unternehmen veröffentlicht hat, die viermal so leistungsstark ist wie die Verbraucherversion. Es wird behauptet, dass die Unternehmensversion doppelt so schnell ist wie GPT-4 und über verbesserte Datenschutz- und Sicherheitsstandards verfügt.

Vor der Veröffentlichung des unternehmensorientierten Chatbots sagte ein Blockchain- und KI-Experte von IBM, dass das Modell mehrere „Hauptrisiken“ für die geschäftliche Nutzung birgt. Dabei ging es in erster Linie um das Risiko der Kompromittierung sensibler interner Daten, was für viele der oben genannten Unternehmen, die Chatbots verboten haben, ein großes Problem darstellte.

Zeitschrift: Sollten wir Ransomware-Zahlungen verbieten? Es ist eine attraktive, aber gefährliche Idee