Problem der Kannibalisierung von KI-Inhalten, Threads ein Verlustführer für KI-Daten? – Cointelegraph Magazine

ChatGPT frisst Kannibalen

Der ChatGPT-Hype lässt allmählich nach, da die Google-Suchanfragen nach „ChatGPT“ seit ihrem Höchststand im April um 40 % zurückgegangen sind, während der Webverkehr auf der ChatGPT-Website von OpenAI im letzten Monat um fast 10 % zurückgegangen ist.

Dies ist nur zu erwarten – GPT-4-Benutzer berichten jedoch auch, dass das Modell erheblich dümmer (aber schneller) erscheint als zuvor.

Eine Theorie besagt, dass OpenAI es in mehrere kleinere Modelle aufgeteilt hat, die in bestimmten Bereichen trainiert wurden und zusammenarbeiten können, jedoch nicht ganz auf dem gleichen Niveau.

Aber es gibt eine interessantere Möglichkeit dürfen ebenfalls eine Rolle spielen: KI-Kannibalismus.

Das Web ist mittlerweile mit KI-generierten Texten und Bildern überschwemmt, und diese synthetischen Daten werden als Daten zum Trainieren von KIs ausgenutzt, was zu einer negativen Rückkopplungsschleife führt. Je mehr KI-Daten ein Modell aufnimmt, desto schlechter wird die Ausgabe hinsichtlich Kohärenz und Qualität. Es ist ein bisschen wie das, was passiert, wenn man eine Fotokopie von einer Fotokopie macht und das Bild immer schlechter wird.



Obwohl die offiziellen Trainingsdaten von GPT-4 im September 2021 enden, weiß es eindeutig noch viel mehr, und OpenAI hat es kürzlich geschlossen Surfen im Internet Plugin.

In einem neuen Artikel von Wissenschaftlern der Rice University und der Stanford University wurde ein hübsches Akronym für dieses Problem gefunden: Modell einer Autophagiestörung oder WÜTEND.

„Unsere wichtigste Schlussfolgerung in allen Szenarien ist, dass ohne genügend frische reale Daten in jeder Generation einer autophagischen Schleife zukünftige generative Modelle dazu verdammt sind, dass ihre Qualität (Präzision) oder Vielfalt (Erinnerung) zunehmend abnimmt“, sagten sie.

Im Wesentlichen verlieren die Modelle in einem fortlaufenden Prozess die einzigartigeren, aber weniger gut dargestellten Daten und härten ihre Ergebnisse auf weniger unterschiedliche Daten aus. Die gute Nachricht ist, dass die KIs nun einen Grund haben, die Menschen auf dem Laufenden zu halten, wenn wir einen Weg finden können, menschliche Inhalte für die Modelle zu identifizieren und zu priorisieren. Das ist einer der Pläne von OpenAI-Chef Sam Altman mit seinem augapfelscannenden Blockchain-Projekt Worldcoin.

Tom Goldstein

Ist Threads nur ein Verlustführer beim Trainieren von KI-Modellen?

Der Twitter-Klon Threads ist ein etwas seltsamer Schachzug von Mark Zuckerberg, da er Nutzer von Instagram kannibalisiert. Die Foto-Sharing-Plattform erwirtschaftet bis zu 50 Milliarden US-Dollar pro Jahr, dürfte aber etwa ein Zehntel davon mit Threads verdienen, selbst in dem unrealistischen Szenario, dass sie Twitter 100 % Marktanteil abnimmt. Alex Valaitis von Big Brain Daily prognostiziert, dass es innerhalb von 12 Monaten entweder geschlossen oder wieder in Instagram integriert wird, und argumentiert, dass der wahre Grund für die Einführung jetzt darin bestand, „mehr textbasierte Inhalte zu haben, auf denen Metas KI-Modelle trainiert werden können“.

ChatGPT wurde auf riesigen Datenmengen von Twitter trainiert, aber Elon Musk hat verschiedene unpopuläre Schritte unternommen, um dies in Zukunft zu verhindern (Erhebung von Gebühren für den API-Zugriff, Ratenbegrenzung usw.).

Zuck hat in dieser Hinsicht Form, da Metas Bilderkennungs-KI-Software SEER auf a trainiert wurde Milliarde Fotos auf Instagram gepostet. Dem haben die Nutzer in der Datenschutzerklärung zugestimmt, und nicht wenige haben dies auch getan notiert Die Threads-App sammelt Daten zu allem Möglichen, von Gesundheitsdaten bis hin zu religiösen Überzeugungen und Rasse. Diese Daten werden unweigerlich zum Trainieren von KI-Modellen wie Facebooks LLaMA (Large Language Model Meta AI) verwendet.
Musk hat unterdessen gerade einen OpenAI-Konkurrenten namens „ xAI das die Daten von Twitter für sein eigenes LLM durchsuchen wird.

Gegensozial
Verschiedene Berechtigungen, die für soziale Apps erforderlich sind (CounterSocial)

Religiöse Chatbots sind Fundamentalisten

Wer hätte gedacht, dass es eine schreckliche Idee sein würde, KIs mit religiösen Texten zu trainieren und mit der Stimme Gottes zu sprechen? In Indien weisen hinduistische Chatbots, die sich als Krishna ausgeben, ihre Benutzer immer wieder darauf hin, dass das Töten von Menschen in Ordnung sei, wenn es ihr Dharma oder ihre Pflicht sei.

In den letzten Monaten sind mindestens fünf Chatbots aufgetaucht, die auf der Bhagavad Gita, einer 700-Vers-Schrift, trainiert wurden, aber die indische Regierung hat trotz ethischer Bedenken keine Pläne, die Technologie zu regulieren.

„Es ist eine Fehlkommunikation, eine Fehlinformation, die auf religiösen Texten basiert.“ genannt Die in Mumbai ansässige Anwältin Lubna Yusuf, Mitautorin des AI Book. „Ein Text verleiht dem, was er sagen möchte, einen großen philosophischen Wert, und was macht ein Bot? Es gibt Ihnen eine wörtliche Antwort, und darin liegt die Gefahr.“

Lesen Sie auch

Merkmale

So können Sie mit NFTs ein Vermögen verdienen – und verlieren

Merkmale

Krypto-Indexer bemühen sich, zögerliche Investoren für sich zu gewinnen

KI-Doomer versus KI-Optimisten

Der weltweit führende KI-Doomer, Entscheidungstheoretiker Eliezer Yudkowsky, hat einen TED-Vortrag veröffentlicht, in dem er warnt, dass superintelligente KI uns alle töten wird. Er ist sich nicht sicher, wie oder warum, weil er glaubt, dass eine AGI so viel schlauer sein wird als wir, dass wir nicht einmal verstehen werden, wie und warum sie uns umbringt – wie ein mittelalterlicher Bauer, der versucht, die Funktionsweise einer Klimaanlage zu verstehen. Es könnte uns als Nebeneffekt der Verfolgung eines anderen Ziels töten oder weil „es nicht will, dass wir andere Superintelligenzen entwickeln, um mit ihm zu konkurrieren“.

Er weist darauf hin, dass „niemand versteht, wie moderne KI-Systeme tun, was sie tun.“ Es handelt sich um riesige, undurchschaubare Matrizen aus Gleitkommazahlen.“ Er erwartet keine „marschierenden Roboterarmeen mit leuchtend roten Augen“, sondern glaubt, dass ein „intelligenteres und gleichgültiges Wesen Strategien und Technologien entwickeln wird, die uns schnell und zuverlässig töten und uns dann töten können“. Das Einzige, was dieses Szenario verhindern könnte, wäre ein weltweites Moratorium für die Technologie, gestützt durch die Gefahr eines Dritten Weltkriegs, aber er glaubt nicht, dass das passieren wird.

In seinem Aufsatz „Warum KI die Welt retten wird“, argumentiert Marc Andreessen von A16z, eine solche Position sei unwissenschaftlich: „Was ist die überprüfbare Hypothese?“ Was würde die Hypothese verfälschen? Woher wissen wir, wann wir in eine Gefahrenzone geraten? Diese Fragen bleiben größtenteils unbeantwortet, abgesehen von „Man kann nicht beweisen, dass es nicht passieren wird!““

Microsoft-Chef Bill Gates hat eine veröffentlicht Aufsatz In seinem eigenen Buch mit dem Titel „Die Risiken der KI sind real, aber beherrschbar“ argumentierte er, dass die Menschen vom Auto bis zum Internet „andere transformative Momente überstanden haben und am Ende trotz vieler Turbulenzen besser daraus hervorgegangen sind.“

„Es ist die transformativste Innovation, die jeder von uns in seinem Leben erleben wird, und eine gesunde öffentliche Debatte hängt davon ab, dass jeder über die Technologie, ihre Vorteile und Risiken Bescheid weiß. Die Vorteile werden enorm sein, und der beste Grund zu der Annahme, dass wir die Risiken bewältigen können, ist, dass wir es schon einmal getan haben.“

Der Datenwissenschaftler Jeremy Howard hat sein eigenes veröffentlicht PapierEr argumentiert, dass jeder Versuch, die Technologie zu verbieten oder sie auf ein paar große KI-Modelle zu beschränken, eine Katastrophe wäre, und vergleicht die angstbasierte Reaktion auf KI mit der Zeit vor der Aufklärung, als die Menschheit versuchte, Bildung und Macht auf die Elite zu beschränken.

Lesen Sie auch

Merkmale

Warum virtuelle Realität Blockchain braucht: Ökonomie, Beständigkeit und Knappheit

Merkmale

Krypto-Indexer bemühen sich, zögerliche Investoren für sich zu gewinnen

„Dann setzte sich eine neue Idee durch. Was wäre, wenn wir auf das allgemeine Wohl der Gesellschaft als Ganzes vertrauen würden? Was wäre, wenn jeder Zugang zu Bildung hätte? Zur Abstimmung? Zur Technik? Dies war das Zeitalter der Aufklärung.“

Sein Gegenvorschlag besteht darin, die Open-Source-Entwicklung von KI zu fördern und darauf zu vertrauen, dass die meisten Menschen die Technologie für immer nutzen werden.

„Die meisten Menschen werden diese Modelle zum Schaffen und zum Schutz nutzen. Wie kann man besser sicher sein, als wenn die enorme Vielfalt und das Fachwissen der gesamten menschlichen Gesellschaft ihr Bestes tun, um Bedrohungen zu erkennen und darauf zu reagieren, und dabei die volle Leistungsfähigkeit der KI im Rücken hat?“

Der Code-Interpreter von OpenAI

Der neue Code-Interpreter von GPT-4 ist ein großartiges neues Upgrade, das es der KI ermöglicht, Code bei Bedarf zu generieren und ihn tatsächlich auszuführen. Alles, was Sie sich vorstellen können, kann also den Code generieren und ausführen. Benutzer haben sich verschiedene Anwendungsfälle ausgedacht, darunter das Hochladen von Unternehmensberichten und die Erstellung nützlicher Diagramme der Schlüsseldaten durch die KI, die Konvertierung von Dateien von einem Format in ein anderes, die Erstellung von Videoeffekten und die Umwandlung von Standbildern in Videos. Ein Benutzer hat eine Excel-Datei jedes Leuchtturmstandorts in den USA hochgeladen und mit GPT-4 eine animierte Karte der Standorte erstellt.

Alles Killer, keine Füll-KI-Neuigkeiten

– Untersuchungen der University of Montana ergaben, dass künstliche Intelligenz in der Branche punktet Top 1% an einem standardisierten Kreativitätstest. Der Scholastic Testing Service bewertete die Antworten von GPT-4 auf den Test mit Bestnoten in den Bereichen Kreativität, Geläufigkeit (die Fähigkeit, viele Ideen hervorzubringen) und Originalität.

— Komikerin Sarah Silverman und Autoren Christopher Golden und Richard Kadreyare verklagen OpenAI und Meta wegen Urheberrechtsverletzungen, weil sie ihre jeweiligen KI-Modelle anhand der Bücher des Trios trainiert haben.

– Microsofts AI Copilot für Windows wird irgendwann großartig sein, aber Windows Central hat herausgefunden, dass es sich bei der Insider-Vorschau eigentlich nur um Bing Chat handelt, das über den Edge-Browser läuft und Bluetooth praktisch umschalten kann An.

AnthropischDer ChatGPT-Konkurrent Claude 2 ist jetzt kostenlos in Großbritannien und den USA erhältlich und sein Kontextfenster kann 75.000 Wörter Inhalt verarbeiten, während ChatGPT maximal 3.000 Wörter enthält. Dadurch eignet es sich hervorragend zum Zusammenfassen langer Textabschnitte, und das ist es auch nicht schlecht beim Schreiben von Belletristik.

Video der Woche

Der indische Satellitennachrichtensender OTV News hat seine KI-Nachrichtensprecherin Lisa vorgestellt, die die Nachrichten mehrmals täglich in verschiedenen Sprachen, darunter Englisch und Odia, für das Netzwerk und seine digitalen Plattformen präsentieren wird. „Die neuen KI-Moderatoren sind digitale Kompositaufnahmen, die aus dem Filmmaterial eines menschlichen Moderators erstellt wurden, der die Nachrichten mit synthetisierten Stimmen vorliest“, sagte OTV-Geschäftsführer Jagi Mangat Panda.

Andrew Fenton

Andrew Fenton

Andrew Fenton lebt in Melbourne und ist Journalist und Redakteur für Kryptowährungen und Blockchain. Er hat als nationaler Unterhaltungsautor für News Corp Australia, als Filmjournalist bei SA Weekend und bei The Melbourne Weekly gearbeitet.


source site-3

Leave a Reply