Google ebnet mit neuer Richtlinie den Weg für KI-produzierte Inhalte

Am 16. September Google Aktualisiert die Beschreibung seines hilfreichen Inhaltssystems. Das System soll Website-Administratoren dabei helfen, Inhalte zu erstellen, die in der Suchmaschine von Google eine gute Leistung erbringen.

Google legt nicht alle Mittel und Wege offen, die es zum „Ranken“ von Websites einsetzt, da dies den Kern seines Geschäftsmodells und seines wertvollen geistigen Eigentums darstellt, aber es gibt Tipps dazu, was dort enthalten sein sollte und was nicht.

Bis zum 16. September konzentrierte sich Google unter anderem darauf, wer den Inhalt geschrieben hat. Dabei wurden Websites stärker gewichtet, von denen man annahm, dass sie von echten Menschen geschrieben wurden, um qualitativ hochwertigere, von Menschen geschriebene Inhalte von denen abzuheben, die höchstwahrscheinlich mit einem Tool der künstlichen Intelligenz (KI) wie ChatGPT geschrieben wurden.

In der Beschreibung des hilfreichen Inhaltssystems wurde dieser Punkt hervorgehoben: „Das hilfreiche Inhaltssystem der Google-Suche erzeugt ein Signal, das von unseren automatisierten Ranking-Systemen verwendet wird, um besser sicherzustellen, dass Menschen originelle, hilfreiche Inhalte sehen.“ von Menschen geschriebenfür Personen, in Suchergebnissen.“

In der neuesten Version entdeckten aufmerksame Leser jedoch eine subtile Änderung:

„Das hilfreiche Content-System der Google-Suche erzeugt ein Signal, das von unseren automatisierten Ranking-Systemen verwendet wird, um besser sicherzustellen, dass Menschen in den Suchergebnissen originelle, hilfreiche Inhalte sehen, die für Menschen erstellt wurden.“

Es scheint, dass von Menschen geschriebene Inhalte für Google kein Problem mehr darstellen, und dies wurde dann von einem Google-Sprecher bestätigt erzählt Gizmodo: „Diese Bearbeitung war eine kleine Änderung […] um es besser an unsere Leitlinien zu KI-generierten Inhalten in der Suche anzupassen. Bei der Suche geht es vor allem um die Qualität der von uns bewerteten Inhalte im Vergleich dazu, wie sie erstellt wurden. Wenn Inhalte ausschließlich zu Ranking-Zwecken erstellt werden (sei es durch Menschen oder durch Automatisierung), würde das gegen unsere Spam-Richtlinien verstoßen, und wir würden dies in der Suche beheben, so wie wir es seit Jahren erfolgreich mit massenproduzierten Inhalten tun.“

Dies wirft natürlich mehrere interessante Fragen auf: Wie definiert Google Qualität? Und woher erkennt der Leser den Unterschied zwischen einem von Menschen erstellten Artikel und einem von einer Maschine erstellten, und wird es ihn interessieren?

Mike Bainbridge, dessen Projekt Don’t Believe The Truth sich mit der Frage der Überprüfbarkeit und Legitimität im Internet befasst, sagte gegenüber Cointelegraph:

„Dieser politische Wandel ist, um ehrlich zu sein, atemberaubend. Es ist atemberaubend, ihre Hände von etwas so Grundlegendem loszuwaschen. Es öffnet die Schleusen für eine Welle unkontrollierter Informationen ohne Quellenangabe, die durch das Internet fegt.“

Die Wahrheit vs. KI

Was die Qualität angeht, zeigen ein paar Minuten Online-Recherche, welche Richtlinien Google zur Definition von Qualität verwendet. Zu den Faktoren gehören die Länge des Artikels, die Anzahl der enthaltenen Bilder und Unterüberschriften, Rechtschreibung, Grammatik usw.

Es geht auch tiefer und untersucht, wie viel Inhalt eine Website produziert und wie oft, um eine Vorstellung davon zu bekommen, wie „seriös“ die Website ist. Und das funktioniert ziemlich gut. Was es natürlich nicht tut, ist tatsächlich Lektüre was auf der Seite steht und beurteilt den Stil, die Struktur und die Genauigkeit.

Als ChatGPT vor fast einem Jahr auf den Markt kam, drehte sich das Gespräch um seine Fähigkeit, schöne und vor allem überzeugende Texte praktisch ohne Fakten zu erstellen.

Anfang 2023 wurde eine Anwaltskanzlei in den Vereinigten Staaten gegründet mit einer Geldstrafe belegt für die Einreichung einer Klage, die Verweise auf Fälle und Gesetze enthält, die einfach nicht existieren. Ein engagierter Anwalt hatte ChatGPT lediglich gebeten, eine ausführliche Akte über den Fall zu erstellen, und das tat es auch, indem es Präzedenzfälle und Ereignisse anführte, die es aus dem Nichts heraufbeschworen hatte. Die Leistungsfähigkeit der KI-Software ist so groß, dass die von ihr produzierten Texte für das ungeübte Auge völlig echt erscheinen.

Was kann ein Leser also tun, um zu wissen, dass die gefundenen Informationen oder der Artikel, den er gerade liest, von einem Menschen geschrieben wurden und ob diese überhaupt korrekt sind? Für die Überprüfung solcher Dinge stehen zwar Tools zur Verfügung, doch wie sie funktionieren und wie genau sie sind, ist ein Rätsel. Darüber hinaus ist es unwahrscheinlich, dass der durchschnittliche Internetnutzer alles überprüft, was er online liest.

Bisher herrschte fast blinder Glaube daran, dass das, was auf dem Bildschirm erschien, echt sei, wie Text in einem Buch. Dass irgendjemand irgendwo den gesamten Inhalt auf Fakten überprüft und seine Legitimität sichergestellt hat. Und auch wenn es nicht allgemein bekannt war, tat Google das auch für die Gesellschaft, aber nicht mehr.

In diesem Sinne herrschte bereits der blinde Glaube, dass Google gut genug darin sei, zu erkennen, was echt ist und was nicht, und es entsprechend zu filtern, aber wer kann schon sagen, wie gut es dabei ist? Möglicherweise ist ein großer Teil der konsumierten Inhalte bereits KI-generiert.

Angesichts der ständigen Verbesserungen der KI ist es wahrscheinlich, dass die Menge zunehmen wird, wodurch möglicherweise die Grenzen verschwimmen und es nahezu unmöglich wird, sie voneinander zu unterscheiden.

Bainbridge fügte hinzu: „Die Entwicklung des Internets ist gefährlich – ein Kampf gegen alle, bei dem die Tastatur wirklich mächtiger wird als das Schwert.“ Gehen Sie auf den Dachboden und entstauben Sie die Enzyklopädien. Sie werden sich als nützlich erweisen!“

Google reagierte nicht auf die Bitte von Cointelegraph um einen Kommentar per Veröffentlichung.