ChatGPT hat mit Claude 2 einen neuen Herausforderer vor sich, den die Macher als „freundlichen, enthusiastischen Kollegen oder persönlichen Assistenten“ bezeichnen.
Das in San Francisco ansässige KI-Unternehmen Anthropic hat die zweite Generation seines Chatbots zur Erzeugung natürlicher Sprache auf den Markt gebracht und mit der kühnen Behauptung auf den Markt gebracht, er sei schlauer als 90 % der College-Studenten in den USA und Kanada.
Laut Anthropic schneidet Claude 2 besser ab, kann längere Antworten geben und weist Verbesserungen in den Bereichen Codierung, Mathematik und Argumentation auf. Claude 2 kann außerdem 100 Eingabe- oder Ausgabe-Token verarbeiten, was bis zu 75.000 Wörtern an Informationen entspricht, was bedeutet, dass es alles von einfachen Fragen bis hin zu komplexen Berichten verarbeiten und generieren kann.
In der realen Welt erzielte Claude 2 laut Anthropic 76,5 % im Multiple-Choice-Teil der Anwaltsprüfung, gegenüber 73,0 % bei Claude 1,3, und erreichte bei den GRE-Lese- und Schreibprüfungen im Vergleich zu College-Studenten, die sich für einen Abschluss bewerben, eine Punktzahl über dem 90. Perzentil Schule.
Ich versuchte es
Die Verwendung von Claude 2 ist ziemlich einfach und angesichts der Tatsache, dass Anthropic den Chatbot an Unternehmen lizenzieren möchte, sollte das vielleicht nicht überraschen. Doch in der begrenzten Zeit, die ich es genutzt habe, konnte Claude 2 meine Fragen schnell beantworten.
Es schien sich auch daran zu erinnern, wie ich die Präsentation meiner Informationen mag, und entschied mich für eine Reihe von Aufzählungspunkten für alle zukünftigen Fragen, nachdem ich sie gestellt hatte, um eine längere Antwort zu vereinfachen.
Claude 2 hat offenbar seine Programmierfähigkeiten verbessert und erzielte beim Python-Codierungstest, dem Codex HumanEval, eine Punktzahl von 71,2 %, während die erste Generation nur 56,0 % erreichen konnte. Bei GSM8k, einer großen Reihe von Mathematikaufgaben für die Grundschule, erzielte Claude 2 eine Steigerung von 88,0 % gegenüber 85,2 %.
Anthropic sagte außerdem, dass für Claude 2 „eine spannende Roadmap zur Verbesserung der Fähigkeiten“ geplant sei. Wenn Sie diese Fähigkeiten testen möchten, hat Anthropic eine öffentliche Beta von Claude 2 für Einwohner in den USA und Großbritannien gestartet
Insgesamt ist die Erfahrung einfach. Die Antworten, die ich erhalten habe, waren korrekt und persönlich, aber es wird interessant sein zu sehen, wie weit wir Claude mit mehr Zeit testen können.
Neue Sicherheitstechniken
Der neue Chatbot ist einer der ersten, der die neuen Sicherheitstechniken nutzt, die Anthropic im letzten Jahr angekündigt hat, um Ergebnisse zu verbessern und gefährliche Nutzungen generativer KI zu verhindern.
Zu diesen Techniken gehören Trainingsmodelle mit verstärkendem Lernen aus menschlichem Feedback (RLHF), damit Claude 2 die Fähigkeit zur „moralischen Selbstkorrektur“ hat, sowie konstitutionelle KI, die eine unangemessene Anfrage identifizieren und erklären kann, warum sie nicht darauf eingeht Anfrage.
Dadurch ist Claude 2 doppelt so gut darin, harmlose Antworten zu geben als Claude 1.3, sein Vorgänger.
Die Bemühungen, die Verwendung von Chatbots sicherer zu machen, könnten Regierungsbehörden gefallen, die sich zunehmend auf potenzielle Risiken konzentrieren, die sich aus dem Aufkommen generativer KI-Modelle wie Chatbots und Deepfakes ergeben.
Das Weiße Haus hat einen Entwurf für eine KI-Regulierung entworfen, der Bereiche wie Voreingenommenheit, Datenschutz und Fehlinformationen abdeckt. In Europa hat die EU strengere Regeln für Hochrisiko-KI-Systeme mit Transparenz- und Aufsichtsgarantien vorgeschlagen, und die FTC hat Unternehmen auch gewarnt, Täuschungen durch generative KI zu verhindern, und sich dabei auf Gesetze zur Wahrung der Wahrheit in der Werbung berufen.
Aufsichtsbehörden im Vereinigten Königreich, in Australien und anderswo haben ebenfalls Bedenken hinsichtlich personenbezogener Daten geäußert, die zum Trainieren von Modellen und zum Missbrauch verwendet werden, um schädliche Inhalte zu erzeugen. Die Gesetzgeber erwägen neue Gesetze, um die Verbreitung von Fehlinformationen, Identitätsbetrug und andere Schäden zu verhindern.
Genauigkeit steht seit der Veröffentlichung von ChatGPT Ende 2022 im Fokus von Gesetzgebern und Regulierungsbehörden und hat über eine Million Nutzer dazu veranlasst, sich anzumelden, um den KI-Chatbot auszuprobieren. Inspiriert durch seine Beliebtheit haben andere Technologiegiganten ihre eigenen riesigen generativen Sprachmodelle wie Googles Bard, SoundDrown von Meta und Bing Chat von Microsoft auf den Markt gebracht. Auch kleinere Startups beteiligen sich am Wettlauf um die Bereitstellung kreativer generativer KI-Apps für Schreiben, Kunst und Codierung.