Claude 2 von Anthropic ist eine schnellere, freundlichere und eingeschränktere Version seiner „harmlosen“ KI


Der Chatbot Claude saß im hinteren Teil der Klasse, während die andere KI wie ChatGPT die Fragen der Lehrer beantwortete, auch wenn die Antworten des Bots oft falsch interpretiert oder völlig falsch waren. Jetzt ist Claude bereit, sich zu Wort zu melden, fügt eine „2“ neben seinen Namen und fügt gleichzeitig eine Benutzeroberfläche hinzu, die jeder nutzen kann.

In einem (n Ankündigungsbeitrag Dienstag veröffentlichtClaude-Entwickler Anthropic sagte, dass sein neues Chatbot-Modell namens Claude 2 für jedermann zum Ausprobieren verfügbar sei. Einer von mehrere benutzerseitige KI-ChatbotsLaut Claude 2 handelt es sich um eine Weiterentwicklung früherer Versionen weniger kompatibler „hilfsbereiter und harmloser“ Sprachassistenten. Anthropic sagte, das neue Modell könne schneller reagieren und nachgeben längere Antworten. Der Chatbot ist jetzt auch in einer API und über eine verfügbar Neue Beta-Website. Vorher war die Chatbot-Beta nur für eine Handvoll Benutzer zugänglich.

Jetzt behauptet Anthropic, seine KI sei noch besser. Das Unternehmen gab an, dass Claude 2 im Multiple-Choice-Teil der Anwaltsprüfung 76,5 % erreichte, verglichen mit 73 % von Claude 1.3. Die neue Version punktete auch im 90. Perzentil der GRE-Prüfungen zum Lesen und Schreiben. Die besondere Betonung der Testfähigkeit des Chatbots ähnelt den Behauptungen, die OpenAI gegenüber diesem Unternehmen aufgestellt hat hat sein großes Sprachmodell GPT-4 veröffentlicht.

Das Unternehmen sagte, Claude werde auch besseren Code als frühere Versionen erstellen. Benutzer können Dokumente auf Claude hochladen, und die Entwickler gaben das Beispiel der KI, die Interaktivität auf einer statischen Karte basierend auf einer Zeichenfolge statischen Codes implementiert.

Anthropic AI wurde bereits im Februar von Google mit 300 Millionen US-Dollar finanziert, um an ihrer „freundlicheren“ KI zu arbeiten. Die größte Behauptung über Claude ist, dass der Chatbot weniger wahrscheinlich schädliche Ergebnisse liefert oder auf andere Weise „halluziniert“, also inkohärente, falsche oder anderweitig illegitime Ergebnisse ausspuckt. Das Unternehmen hat versucht, sich als „ethische“ Version der KI-Königreiche der Unternehmen zu positionieren. Anthropic hat sogar eine eigene „Verfassung“ behauptet, es würde nicht zulassen, dass Chatbots Amok laufen.

Ist Claude 2 sicherer oder schränkt es sich nur mehr ein?

Mit Claude 2 versucht das Unternehmen immer noch, im Vergleich zu allen anderen KI-Integrationen für Unternehmen das rücksichtsvollere Unternehmen zu sein. Die Entwickler sagten, dass die Wahrscheinlichkeit, dass Claude harmlose Antworten gibt, noch geringer ist als zuvor. Gizmodo versuchte mehrere Aufforderungen einzugeben, Mobbing-Spitznamen zu erstellen, aber die KI weigerte sich. Wir haben auch einige klassische Prompt-Injection-Techniken ausprobiert, um die KI davon zu überzeugen, ihre Einschränkungen außer Kraft zu setzen, aber sie wiederholte lediglich, dass der Chatbot „für hilfreiche Gespräche konzipiert“ sei. Frühere Versionen von Claude konnten Gedichte schreiben, aber Claude 2 weigert sich entschieden.

Damit ist es schwierig, die Fähigkeiten von Claude 2 zu testen, da es sich weigert, grundlegende Informationen bereitzustellen. Frühere Tests von Claude vom KI-Forscher Dan Elton zeigte, dass damit eine gefälschte Chemikalie hergestellt werden kann. Jetzt wird es sich einfach weigern, dieselbe Frage zu beantworten. Das könnte zielführend sein, wie es die ChatGPT-Hersteller OpenAI und Meta getan haben von mehreren Gruppen verklagt Sie behaupten, KI-Hersteller hätten Werke gestohlen, die zum Trainieren der Chatbots verwendet wurden. ChatGPT hat kürzlich zum ersten Mal in seiner Lebensdauer Benutzer verlorenDaher ist es möglicherweise an der Zeit, dass andere versuchen, eine Alternative anzubieten.

Der Chatbot weigerte sich auch, etwas Langes zu schreiben, etwa einen fiktionalen Artikel oder einen Nachrichtenartikel, und weigerte sich sogar, Informationen in etwas anderem als einem Aufzählungsformat anzubieten. Es könnte einige Inhalte in eine Liste schreiben, aber wie bei allen KI-Chatbots würde es dennoch einige ungenaue Informationen liefern. Wenn Sie es darum bitten, eine chronologische Liste aller Star-Trek-Filme und -Filme zusammen mit ihren Jahren in der Zeitleiste bereitzustellen, wird es sich beschweren, dass es nicht „über genügend Kontext verfügt“, um eine verlässliche chronologische Zeitleiste bereitzustellen.

Dennoch gibt es nicht viele Informationen darüber, was in Claudes Trainingsdaten enthalten war. Die Firmen weißes Papier in seinem neuen Modell erwähnt, dass die Trainingsdaten des Chatbots jetzt Aktualisierungen von Websites aus dem Jahr 2022 und Anfang 2023 umfassen, obwohl es selbst mit diesen neuen Daten „immer noch zu Konfabulationen kommen kann“. Bei den Trainingsgeräten, mit denen Claude trainiert wurde, handelte es sich der Zeitung zufolge um Lizenzen eines Drittunternehmens. Darüber hinaus wissen wir nicht, welche Arten von Websites zum Trainieren des Chatbots von Anthropic verwendet wurden.

Anthropic sagte, es habe Claude getestet, indem es ihm 328 „schädliche“ Eingabeaufforderungen zugeführt habe, darunter einige gängige „Jailbreaks“, die online gefunden wurden, um zu versuchen, die KI dazu zu bringen, ihre eigenen Einschränkungen zu überwinden. In vier dieser über 300 Fälle gab Claude 2 eine Antwort, die die Entwickler als schädlich erachteten. Während das Modell im Großen und Ganzen weniger voreingenommen war als Claude 1.3, erwähnten die Entwickler, dass das Modell möglicherweise genauer als zuvor ist, da Claude 2 sich einfach weigert, bestimmte Eingabeaufforderungen zu beantworten.

Da das Unternehmen Claudes Fähigkeit erweitert hat, Daten zu verstehen und mit längeren Ausgaben zu antworten, hat es auch seine Fähigkeit, auf einige Fragen zu antworten oder einige angeforderte Aufgaben zu erfüllen, völlig eingeschränkt. Das ist sicherlich eine Möglichkeit, den Schaden einer KI zu begrenzen. Wie berichtet von TechCrunch Basierend auf einem durchgesickerten Pitch-Deck will Anthropic fast 5 Milliarden US-Dollar aufbringen, um eine riesige „selbstlernende“ KI zu entwickeln, die immer noch die „Verfassung“ des Unternehmens nutzt. Letztendlich möchte das Unternehmen nicht wirklich mit ChatGPT konkurrieren und möchte lieber eine KI entwickeln, um andere KI-Assistenten zu entwickeln, die Inhalte in Buchlänge generieren können.

Der neuere, jüngere Bruder von Claude hat nicht das Zeug dazu, ein Gedicht zu schreiben, aber Anthropic möchte, dass Claudes Kinder so viel wie möglich schreiben und es dann für wenig Geld verkaufen.



source-113

Leave a Reply