Insider-Fragen und Antworten: OpenAI CTO Mira Murati über das Hüten von ChatGPT


OpenAI baute sich im Bereich der künstlichen Intelligenz einen guten Ruf auf, war aber kein bekannter Name, als Mira Murati 2018 dem gemeinnützigen Forschungslabor beitrat.

Bald darauf begann das Labor in San Francisco mit einer großen Transformation. Es hat sich zu einem Unternehmen entwickelt, das als Hersteller von ChatGPT weltweite Aufmerksamkeit erregt hat.

Murati ist jetzt Chief Technology Officer und leitet die Forschungs-, Produkt- und Sicherheitsteams von OpenAI. Sie leitete die Entwicklung und Einführung seiner KI-Modelle, einschließlich ChatGPT, des Bildgenerators DALL-E und des neuesten GPT-4.

Sie sprach mit The Associated Press über KI-Schutzmaßnahmen und die Vision des Unternehmens für das futuristische Konzept der künstlichen allgemeinen Intelligenz, bekannt als AGI. Das Interview wurde aus Gründen der Länge und Klarheit bearbeitet.

F: Was bedeutet künstliche allgemeine Intelligenz für OpenAI?

A: Mit künstlicher allgemeiner Intelligenz meinen wir normalerweise hochautonome Systeme, die in der Lage sind, wirtschaftliche Leistung zu erbringen, eine beträchtliche wirtschaftliche Leistung. Mit anderen Worten, Systeme, die über verschiedene Domänen hinweg verallgemeinern können. Es ist eine Fähigkeit auf menschlicher Ebene. Die spezifische Vision von OpenAI ist es, es sicher zu bauen und herauszufinden, wie man es so baut, dass es auf menschliche Absichten ausgerichtet ist, damit die KI-Systeme die Dinge tun, die wir von ihnen wollen, und dass es möglichst vielen Menschen maximal zugute kommt wie möglich da draußen, am besten alle.

F: Gibt es einen Weg zwischen Produkten wie GPT-4 und AGI?

A: Wir sind weit davon entfernt, ein sicheres, zuverlässiges und abgestimmtes AGI-System zu haben. Unser Weg dorthin hat ein paar wichtige Vektoren. Vom Standpunkt der Forschung aus versuchen wir, Systeme zu bauen, die ein robustes Verständnis der Welt haben, ähnlich wie wir Menschen. Systeme wie GPT-3 wurden ursprünglich nur mit Textdaten trainiert, aber unsere Welt besteht nicht nur aus Text, also haben wir auch Bilder und dann haben wir begonnen, andere Modalitäten einzuführen. Der andere Blickwinkel hat diese Systeme skaliert, um ihre Allgemeingültigkeit zu erhöhen. Bei GPT-4 haben wir es mit einem viel leistungsfähigeren System zu tun, insbesondere im Hinblick auf die Argumentation. Diese Fähigkeit ist der Schlüssel. Wenn das Modell intelligent genug ist, um eine mehrdeutige Richtung oder eine Richtung auf hoher Ebene zu verstehen, können Sie herausfinden, wie Sie es dazu bringen können, dieser Richtung zu folgen. Aber wenn es nicht einmal dieses übergeordnete Ziel oder diese übergeordnete Richtung versteht, ist es viel schwieriger, es auszurichten. Es reicht nicht aus, diese Technologie im luftleeren Raum in einem Labor zu bauen. Wir brauchen diesen Kontakt mit der Realität, mit der wirklichen Welt, um zu sehen, wo die Schwachstellen sind, wo die Bruchstellen sind, und versuchen, dies kontrolliert und risikoarm zu tun und so viel Feedback wie möglich zu erhalten.

F: Welche Sicherheitsmaßnahmen ergreifen Sie?

A: Wir denken in jeder Phase über Interventionen nach. Wir redigieren bestimmte Daten aus der Erstausbildung am Modell. Mit DALL-E wollten wir schädliche Verzerrungsprobleme reduzieren, die wir sahen. Wir haben das Verhältnis von weiblichen und männlichen Bildern im Trainingsdatensatz angepasst. Aber Sie müssen sehr vorsichtig sein, weil Sie ein anderes Ungleichgewicht schaffen könnten. Sie müssen ständig auditieren. In diesem Fall haben wir eine andere Tendenz, weil viele dieser Bilder sexueller Natur waren. Dann müssen Sie es also erneut anpassen und bei jedem Eingriff sehr vorsichtig sein, um zu sehen, was sonst noch gestört wird. Im Modelltraining, insbesondere mit ChatGPT, haben wir Verstärkungslernen mit menschlichem Feedback durchgeführt, um das Modell besser an die menschlichen Vorlieben anzupassen. Im Grunde versuchen wir, das zu verstärken, was als gutes Verhalten gilt, und dann das, was als schlechtes Verhalten gilt, zu de-amplifizieren.

F: Sollten diese Systeme reguliert werden?

A: Ja, absolut. Diese Systeme sollten reguliert werden. Bei OpenAI sprechen wir ständig mit Regierungen und Regulierungsbehörden und anderen Organisationen, die diese Systeme entwickeln, um sich zumindest auf Unternehmensebene auf ein gewisses Maß an Standards zu einigen. Daran haben wir in den letzten Jahren mit großen Entwicklern von Sprachmodellen gearbeitet, um einige grundlegende Sicherheitsstandards für die Bereitstellung dieser Modelle auszurichten. Aber ich denke, es muss noch viel mehr passieren. Staatliche Regulierungsbehörden sollten sicherlich sehr involviert sein.

F: Ein Schreiben, in dem eine 6-monatige Industriepause beim Bau von KI-Modellen gefordert wird, die leistungsfähiger als GPT-4 sind, hat viel Aufmerksamkeit erregt. Was halten Sie von der Petition und ihrer Annahme über KI-Risiken?

A: Sehen Sie, ich denke, dass das Entwerfen von Sicherheitsmechanismen in komplexen Systemen schwierig ist. Hier gibt es viele Nuancen. Einige der Risiken, auf die der Brief hinweist, sind völlig gültig. Bei OpenAI sprechen wir seit Jahren sehr offen darüber und studieren sie auch. Ich denke nicht, dass die Unterzeichnung eines Briefes ein effektiver Weg ist, um Sicherheitsmechanismen aufzubauen oder die Akteure im Raum zu koordinieren. Einige der Aussagen in dem Brief über die Entwicklung von GPT-4 oder GPT-5 waren schlichtweg falsch. Wir trainieren nicht GPT-5. Wir haben keine Pläne, dies in den nächsten sechs Monaten zu tun. Und wir haben GPT-4 nicht überstürzt herausgebracht. Wir haben tatsächlich sechs Monate gebraucht, um uns ausschließlich auf die sichere Entwicklung und den Einsatz von GPT-4 zu konzentrieren. Schon damals haben wir es mit einer hohen Anzahl von Leitplanken und einem sehr koordinierten und langsamen Rollout eingeführt. Es ist nicht für jedermann leicht zugänglich und sicherlich nicht Open Source. Das soll alles sagen, dass ich denke, dass die Sicherheitsmechanismen und Koordinationsmechanismen in diesen KI-Systemen und jedem komplexen technologischen System schwierig sind und viel Nachdenken, Erforschung und Koordination zwischen den Spielern erfordern.

F: Wie sehr hat sich OpenAI seit Ihrem Beitritt verändert?

A: Als ich zu OpenAI kam, war es eine gemeinnützige Organisation. Ich dachte, dies sei die wichtigste Technologie, die wir jemals als Menschheit aufbauen werden, und ich hatte wirklich das Gefühl, dass ein Unternehmen mit der Mission von OpenAI am ehesten dafür sorgen würde, dass es gut läuft. Im Laufe der Zeit haben wir unsere Struktur geändert, weil diese Systeme teuer sind. Sie benötigen viel Finanzierung. Wir haben darauf geachtet, die Incentives so zu gestalten, dass wir dennoch dem gemeinnützigen Auftrag dienen. Deshalb haben wir eine „Capped Profit“-Struktur. Die Menschen bei OpenAI sind intrinsisch motiviert und auf Mission ausgerichtet, und das hat sich von Anfang an nicht geändert. Aber im Laufe von fünf Jahren hat sich unser Denken stark weiterentwickelt, wenn es darum geht, was die beste und sicherste Art der Bereitstellung ist. Das ist wohl der krasseste Unterschied. Ich denke, es ist eine gute Abwechslung.

F: Haben Sie die Reaktion auf ChatGPT vor der Veröffentlichung am 30. November erwartet?

A: Die zugrunde liegende Technologie gab es schon seit Monaten. Wir hatten großes Vertrauen in die Einschränkungen des Modells von Kunden, die es bereits über eine API verwendet hatten. Aber wir haben ein paar Änderungen am Basismodell vorgenommen. Wir haben es an den Dialog angepasst. Dann haben wir das den Forschern über eine neue ChatGPT-Schnittstelle zur Verfügung gestellt. Wir hatten es intern mit einer kleinen, vertrauenswürdigen Gruppe untersucht, und wir erkannten, dass der Engpass darin bestand, mehr Informationen und mehr Daten von Menschen zu erhalten. Wir wollten es auf mehr Menschen da draußen ausdehnen, in dem, was wir eine Forschungsvorschau nennen, kein Produkt. Die Absicht war, Feedback zum Verhalten des Modells zu sammeln und diese Daten zu verwenden, um das Modell zu verbessern und besser aufeinander abzustimmen. Wir haben nicht erwartet, in welchem ​​Maße die Leute so fasziniert davon sein würden, mit einem KI-System zu sprechen. Es war nur eine Forschungsvorschau. Die Anzahl der Benutzer und so, wir haben nicht mit diesem Aufregungsgrad gerechnet.

source-123

Leave a Reply