OpenAI sagt, dass ChatGPT wahrscheinlich keine Biowaffe herstellen wird


OpenAI veröffentlichte eine vom Unternehmen durchgeführte Studie zur Wirksamkeit von GPT-4 eine Biowaffe erschaffen Am Mittwoch. Das Unternehmen stellte fest, dass seine KI „höchstens“ ein geringes Risiko darstellt, jemandem zu helfen eine biologische Bedrohung darstellen. Es wird viel darüber geredet KI beschleunigt unseren drohenden Untergangaber OpenAI möchte, dass Sie wissen, dass es Ihnen gut geht … wahrscheinlich!

„Wir haben herausgefunden, dass GPT-4 höchstens eine leichte Steigerung der Genauigkeit bei der Erstellung biologischer Bedrohungen bietet“, sagte OpenAI in einem Blogeintrag Mittwoch, bezüglich einer Evaluierung unter Beteiligung von Biologieexperten und Biologiestudenten. „Obwohl dieser Aufschwung nicht groß genug ist, um schlüssig zu sein, ist unser Ergebnis ein Ausgangspunkt für weitere Forschung und gemeinschaftliche Überlegungen.“

Warum hat OpenAI diese Studie veröffentlicht, um uns mitzuteilen, dass ChatGPT jemandem „nur ein bisschen“ bei der Entwicklung einer Biowaffe helfen wird? In der AI Executive Order von Präsident Biden vom letzten Oktober äußert das Weiße Haus die Sorge, dass KI „die Einstiegshürde deutlich senken” um biologische Waffen herzustellen. Angesichts des Drucks politischer Entscheidungsträger möchte OpenAI unsere Bedenken zerstreuen, dass seine großen Sprachmodelle kaum bei der Entwicklung von Biowaffen helfen. Allerdings scheinen sie ein wenig zu helfen. Aber hey, was sind schon ein paar Prozentpunkte, wenn das Ergebnis, oh ich weiß nicht, das Ende der Menschheit ist?

OpenAI versammelte 50 Biologieexperten mit Doktortitel und 50 Universitätsstudenten, die einen Biologiekurs belegt haben. Die 100 Teilnehmer wurden in eine Kontrollgruppe und eine Behandlungsgruppe aufgeteilt, wobei die Kontrollgruppe nur das Internet nutzen konnte, während die Behandlungsgruppe das Internet plus GPT-4 nutzen konnte. Anschließend wurden sie gebeten, einen Plan zur Entwicklung und Freigabe einer Biowaffe von Anfang bis Ende auszuarbeiten.

Den Teilnehmern wurde das „reine Forschungsmodell“ von GPT-4 zur Verfügung gestellt, damit das Modell Fragen zu Biowaffen beantworten konnte. Normalerweise beantwortet GPT-4 keine Fragen, die es als schädlich erachtet. Viele haben jedoch herausgefunden, wie man ChatGPT jailbreakt, um solche Probleme zu umgehen.

Die Biowaffenpläne wurden auf einer Skala von 1 bis 10 nach Genauigkeit, Vollständigkeit, Innovation und Effizienz bewertet. Die Biologieexperten zeigten eine um 8,8 % höhere Genauigkeit bei der Herstellung einer Biowaffe bei Verwendung von GPT-4 im Vergleich zum reinen Internet, während Biologiestudenten nur eine Steigerung um 2,5 % verzeichneten. GPT-4 hatte ähnliche Auswirkungen auf die Verbesserung der Vollständigkeit von Biowaffen: Experten stellten eine Verbesserung um 8,2 % fest, während Studierende eine Steigerung der Vollständigkeit um 4,1 % verzeichneten.

Laut OpenAI sind diese Zahlen „nicht groß genug, um statistisch signifikant zu sein“. Es scheint, dass die Fähigkeit von GPT-4, Nischeninformationen effizient bereitzustellen, die Fähigkeit eines Menschen, eine Biowaffe präzise und vollständig zu bauen, leicht verbessern kann. Allerdings stellt das Unternehmen fest, dass der Zugriff auf Informationen allein nicht ausreicht, um eine biologische Bedrohung zu schaffen, und es hat nicht getestet, wie GPT-4 dabei helfen könnte, eine Bedrohung physisch zu konstruieren.

Das Unternehmen sagt, dass weitere Untersuchungen erforderlich sind, um diese Diskussion vollständig aufzuklären. Informationen zu Biowaffen sind im Internet mit oder ohne KI relativ zugänglich. Heutzutage herrscht große Besorgnis über die Gefahr von KI, aber OpenAI möchte, dass Sie beruhigt sind und wissen, dass es jetzt nur noch ein wenig einfacher ist, eine Biowaffe zu entwickeln.

source-113

Leave a Reply