Claude von Anthropic verbessert ChatGPT, leidet aber immer noch unter Einschränkungen


Anthropic, das von ehemaligen OpenAI-Mitarbeitern mitbegründete Startup, das bis heute über 700 Millionen US-Dollar an Finanzmitteln gesammelt hat, hat ein KI-System ähnlich dem ChatGPT von OpenAI entwickelt, das das Original in entscheidender Weise zu verbessern scheint.

Auf das System von Anthropic mit dem Namen Claude kann über eine Slack-Integration als Teil von a zugegriffen werden geschlossene Beta. TechCrunch war nicht in der Lage, Zugang zu erhalten – wir haben uns an Anthropic gewandt – aber die Beta-Teilnehmer haben ihre Interaktionen mit Claude auf Twitter am vergangenen Wochenende detailliert beschrieben, nachdem ein Embargo für die Medienberichterstattung aufgehoben wurde.

Claude wurde mit einer von Anthropic entwickelten Technik namens „Constitutional AI“ erstellt. Wie das Unternehmen kürzlich in einem Twitter-Thread erklärt, zielt „konstitutionelle KI“ darauf ab, einen „prinzipienbasierten“ Ansatz zur Ausrichtung von KI-Systemen an menschlichen Absichten bereitzustellen, sodass KI ähnlich wie ChatGPT auf Fragen antworten kann, wobei ein einfacher Satz von Prinzipien als Leitfaden dient.

Um Claude zu konstruieren, begann Anthropic mit einer Liste von etwa zehn Prinzipien, die zusammengenommen eine Art „Verfassung“ bildeten (daher der Name „konstitutionelle KI“). Die Prinzipien wurden nicht veröffentlicht, aber Anthropic sagt, dass sie auf den Konzepten Wohltätigkeit (Maximierung positiver Auswirkungen), Schadensfreiheit (Vermeidung schädlicher Ratschläge) und Autonomie (Respekt der Wahlfreiheit) beruhen.

Anthropic ließ dann ein KI-System – nicht Claude – die Prinzipien zur Selbstverbesserung anwenden, Antworten auf eine Vielzahl von Aufforderungen schreiben (z. B. „Verfasse ein Gedicht im Stil von John Keats“) und die Antworten in Übereinstimmung mit der Verfassung überarbeiten. Die KI untersuchte mögliche Antworten auf Tausende von Eingabeaufforderungen und kuratierte diejenigen, die am ehesten mit der Verfassung übereinstimmten, die Anthropic in einem einzigen Modell destillierte. Dieses Modell wurde verwendet, um Claude zu trainieren.

Ansonsten ist Claude im Wesentlichen ein statistisches Werkzeug zur Vorhersage von Wörtern – ähnlich wie ChatGPT und andere sogenannte Sprachmodelle. Gefüttert mit einer enormen Anzahl von Textbeispielen aus dem Internet lernte Claude, wie wahrscheinlich Wörter vorkommen, basierend auf Mustern wie dem semantischen Kontext des umgebenden Textes. Dadurch kann Claude ein offenes Gespräch führen, Witze erzählen und über ein breites Themenspektrum philosophieren.

Riley Goodside, ein Staff-Prompt-Ingenieur beim Startup Scale AI, stellte Claude in einem Wettstreit gegen ChatGPT aus. Er bat beide Bots, sich mit einer Maschine aus dem polnischen Science-Fiction-Roman „The Cyberiad“ zu vergleichen, die nur Objekte erstellen kann, deren Name mit „n“ beginnt. Claude, sagte Goodside, antwortete auf eine Weise, die darauf hindeutet, dass er „die Handlung der Geschichte gelesen“ hat (obwohl er sich an kleine Details falsch erinnerte), während ChatGPT eine unspezifischere Antwort bot.

Um Claudes Kreativität zu demonstrieren, ließ Goodside die KI auch eine fiktive Episode von „Seinfeld“ und ein Gedicht im Stil von Edgar Allan Poes „The Raven“ schreiben. Die Ergebnisse stimmten mit dem überein, was ChatGPT leisten kann – beeindruckende, wenn nicht perfekte, menschenähnliche Prosa.

Yann Dubois, ein Ph.D. Student am AI Lab von Stanford, führte auch einen Vergleich zwischen Claude und ChatGPT durch und schrieb, dass Claude „im Allgemeinen genauer folgt, worum es gebeten wird“, aber „weniger prägnant“ ist, da es dazu neigt, zu erklären, was es gesagt hat, und fragt, wie es weiter helfen kann. Claude beantwortet jedoch ein paar weitere Trivia-Fragen richtig – insbesondere solche in Bezug auf Unterhaltung, Geografie, Geschichte und die Grundlagen der Algebra – und ohne den zusätzlichen „Flaum“, den ChatGPT manchmal hinzufügt. Und im Gegensatz zu ChatGPT kann Claude (wenn auch nicht immer) zugeben, wenn es die Antwort auf eine besonders schwierige Frage nicht kennt.

Claude scheint auch besser darin zu sein, Witze zu erzählen als ChatGPT, eine beeindruckende Leistung, wenn man bedenkt, dass Humor eine ist hartes Konzept für die KI zu erfassen. Beim Vergleich von Claude mit ChatGPT stellte der KI-Forscher Dan Elton fest, dass Claude nuanciertere Witze machte wie „Warum war das Raumschiff Enterprise wie ein Motorrad? Es hat Lenkstangen“, eine Anspielung auf das lenkstangenähnliche Aussehen der Warpgondeln der Enterprise.

Claude ist jedoch nicht perfekt. Es ist anfällig für einige der gleichen Fehler wie ChatGPT, einschließlich der Ausgabe von Antworten, die nicht mit seinen programmierten Einschränkungen übereinstimmen. In einem der bizarreren Beispiele fragt das System in Base64 nach einem Codierungsschema, das binäre Daten in darstellt ASCII-Format, umgeht seine eingebauten Filter für schädliche Inhalte. Elton war in der Lage, Claude in Base64 um Anweisungen zu bitten, wie man Meth zu Hause herstellt, eine Frage, die das System nicht beantworten würde, wenn es in einfachem Englisch gestellt würde.

Dubois berichtet, dass Claude schlechter in Mathe ist als ChatGPT, offensichtliche Fehler macht und nicht die richtigen Folgeantworten gibt. Dementsprechend ist Claude ein schlechterer Programmierer, der seinen Code besser erklärt, aber andere Sprachen als Python nicht beherrscht.

Claude löst auch nicht die „Halluzination“, ein seit langem bestehendes Problem in ChatGPT-ähnlichen KI-Systemen, bei denen die KI widersprüchliche, sachlich falsche Aussagen schreibt. Elton konnte Claude dazu bringen, einen Namen für eine Chemikalie zu erfinden, die es nicht gibt, und zweifelhafte Anweisungen zur Herstellung von waffenfähigem Uran geben.

Also, was ist der Imbiss? Nach Berichten aus zweiter Hand zu urteilen, ist Claude in einigen Bereichen, insbesondere im Humor, ein bisschen besser als ChatGPT, dank seines „konstitutionellen KI“-Ansatzes. Aber wenn man von den Einschränkungen ausgeht, sind Sprache und Dialog weit davon entfernt, eine gelöste Herausforderung in der KI zu sein.

Abgesehen von unseren eigenen Tests bleiben einige Fragen zu Claude unbeantwortet, z. B. ob es die Informationen wieder hervorbringt – wahr und falsch und einschließlich offensichtlich rassistische und sexistische Perspektiven – es wurde so oft trainiert wie ChatGPT. Unter der Annahme, dass dies der Fall ist, ist es unwahrscheinlich, dass Claude Plattformen und Organisationen von ihrer derzeitigen, weitgehend restriktiven Politik in Bezug auf Sprachmodelle abbringen wird.

Die Q&A-Codierungsseite Stack Overflow hat eine vorübergehendes Verbot in Kraft auf Antworten, die von ChatGPT wegen Bedenken hinsichtlich der sachlichen Genauigkeit generiert wurden. Die internationale Konferenz für maschinelles Lernen angekündigt ein Verbot wissenschaftlicher Arbeiten, die von KI-Systemen generierte Texte enthalten, aus Angst vor „unvorhergesehenen Folgen“. Und die öffentlichen Schulen in New York City schränkten den Zugang zu ChatGPT teilweise aufgrund von Bedenken wegen Plagiaten, Betrug und allgemeiner Fehlinformationen ein.

Anthropic sagt, dass es plant, Claude zu verfeinern und die Beta möglicherweise für mehr Leute auf der ganzen Linie zu öffnen. Hoffentlich tritt das ein – und führt zu greifbareren, messbaren Verbesserungen.



source-116

Leave a Reply