Was kann das neue KI-Modell GPT-4 des ChatGPT-Herstellers?


LONDON (AP) – Das Unternehmen hinter dem Chatbot ChatGPT hat sein neuestes Modell für künstliche Intelligenz, GPT-4, im nächsten Schritt für eine Technologie eingeführt, die die Aufmerksamkeit der Welt auf sich gezogen hat.

Das neue System kann Steuerabzüge berechnen und Fragen beantworten wie ein Shakespeare-Pirat zum Beispiel, aber es „halluziniert“ immer noch Tatsachen und macht Denkfehler.

Hier ist ein Blick auf die neueste Verbesserung der generativen KI-Modelle des in San Francisco ansässigen Startups OpenAI, die lesbaren Text und einzigartige Bilder ausspucken können:

WAS GIBT’S NEUES?

Laut OpenAI zeigt GPT-4 „Leistung auf menschlicher Ebene“. Es ist viel zuverlässiger, kreativer und kann „nuanciertere Anweisungen“ verarbeiten als sein Vorgängersystem GPT-3.5, auf dem ChatGPT aufbaut, OpenAI sagte in seiner Ankündigung.

In einer Online-Demo am Dienstag führte OpenAI-Präsident Greg Brockman einige Szenarien durch, die die Fähigkeiten von GPT-4 demonstrierten, die zu zeigen schienen, dass es sich um eine radikale Verbesserung gegenüber früheren Versionen handelt.

Er demonstrierte, wie das System schnell den richtigen Einkommenssteuerabzug finden konnte, nachdem es mit Unmengen von Steuercodes gefüttert worden war – etwas, das er selbst nicht herausfinden konnte.

„Es ist nicht perfekt, aber du bist es auch nicht. Und zusammen ist es dieses verstärkende Werkzeug, mit dem Sie einfach neue Höhen erreichen können“, sagte Brockman.

WARUM SPIELT ES EINE ROLLE?

Generative KI-Technologien wie GPT-4 könnten die Zukunft des Internets sein, zumindest laut Microsoft, das mindestens 1 Milliarde US-Dollar in OpenAI investiert hat und sorgte für Aufsehen, indem es KI-Chatbot-Technologie in seinen Bing-Browser integrierte.

Es ist Teil einer neuen Generation von maschinell lernenden Systemen, die sich unterhalten und bei Bedarf lesbaren Text generieren können und produzieren neuartige Bilder und Videos basierend auf dem, was sie aus einer riesigen Datenbank mit digitalen Büchern und Online-Texten gelernt haben.

Diese neuen KI-Durchbrüche haben das Potenzial, das Internet-Suchgeschäft zu verändern, das lange Zeit von Google dominiert wurde, das versucht, seinen eigenen KI-Chatbot einzuholenund zahlreiche Berufe.

„Mit GPT-4 sind wir der lebensnahen Nachahmung von Kunst einen Schritt näher gekommen“, sagte Mirella Lapata, Professorin für Verarbeitung natürlicher Sprache an der University of Edinburgh. Sie verwies auf die TV-Show „Black Mirror“, die sich auf die dunkle Seite der Technologie konzentriert.

„Menschen werden von der KI in ‚Black Mirror‘ nicht getäuscht, aber sie tolerieren es“, sagte Lapata. „Ebenso ist GPT-4 nicht perfekt, ebnet aber den Weg für den täglichen Einsatz von KI als Commodity-Tool.“

WAS GENAU SIND DIE VERBESSERUNGEN?

GPT-4 ist ein „großes multimodales Modell“, was bedeutet, dass es sowohl mit Text als auch mit Bildern gefüttert werden kann, die es verwendet, um Antworten zu finden.

In einem auf der Website von OpenAI veröffentlichten Beispiel wird GPT-4 gefragt: „Was ist ungewöhnlich an diesem Bild?“ Die Antwort: „Das Ungewöhnliche an diesem Bild ist, dass ein Mann Kleider auf einem Bügelbrett bügelt, das auf dem Dach eines fahrenden Taxis befestigt ist.“

GPT-4 ist auch „steuerbar“, was bedeutet, dass Benutzer es anpassen können, indem sie beispielsweise im Stil eines Shakespeare-Piraten nach Antworten fragen, anstatt eine Antwort im „klassischen“ festen Ton und der Ausführlichkeit von ChatGPT zu erhalten.

In seiner Demo bat Brockman sowohl GPT-3.5 als auch GPT-4, in einem Satz einen Artikel zusammenzufassen, der den Unterschied zwischen den beiden Systemen erklärt. Der Haken an der Sache war, dass jedes Wort mit dem Buchstaben G beginnen musste.

GPT-3.5 versuchte es nicht einmal und spuckte einen normalen Satz aus. Die neuere Version reagierte schnell: „GPT-4 generiert bahnbrechende, grandiose Gewinne, die verallgemeinerte KI-Ziele stark anregen.“

WIE GUT FUNKTIONIERT ES?

ChatGPT kann alberne Gedichte und Lieder schreiben oder schnell so ziemlich alles erklären, was im Internet zu finden ist. Es erlangte auch Berühmtheit für Ergebnisse, die weit davon entfernt sein könnten, wie z. B. die selbstbewusste Bereitstellung einer detaillierten, aber falschen Darstellung des Super Bowl-Spiels Tage bevor es stattfand, oder sogar abfällig gegenüber den Benutzern war.

OpenAI räumte ein, dass GPT-4 immer noch Einschränkungen hat, und warnte die Benutzer, vorsichtig zu sein. GPT-4 sei „immer noch nicht vollständig zuverlässig“, weil es Fakten „halluziniere“ und Denkfehler mache, hieß es.

„Bei der Verwendung von Sprachmodellausgaben ist große Vorsicht geboten, insbesondere in Kontexten mit hohem Einsatz“, sagte das Unternehmen, fügte jedoch hinzu, dass Halluzinationen stark reduziert wurden.

Auch Experten rieten zur Vorsicht.

„Wir sollten uns daran erinnern, dass Sprachmodelle wie GPT-4 nicht menschenähnlich denken, und wir sollten uns nicht von ihrer Sprachkompetenz täuschen lassen“, sagte Nello Cristianini, Professor für künstliche Intelligenz an der University of Bath.

Ein weiteres Problem ist, dass GPT-4 nicht viel über alles weiß, was nach September 2021 passiert ist, da dies der Stichtag für die Daten war, auf denen es trainiert wurde.

GIBT ES SICHERHEITSHINWEISE?

OpenAI sagt, dass die verbesserten Fähigkeiten von GPT-4 „zu neuen Risikooberflächen führen“, so dass es die Sicherheit verbessert hat, indem es darauf trainiert wurde, Anfragen abzulehnen für sensible oder „unerlaubte“ Informationen.

Es ist weniger wahrscheinlich, Fragen zu beantworten, wie man beispielsweise eine Bombe baut oder billige Zigaretten kauft.

Dennoch warnt OpenAI, dass es zwar schwieriger ist, GPT „schlechtes Verhalten zu entlocken“, „dies aber immer noch möglich ist“.

source-123

Leave a Reply