Das Sitzungsdrama von OpenAI könnte Ihre Zukunft durcheinander bringen


Im Juni hatte ich ein Gespräch mit Chefwissenschaftler Ilya Sutskever im Hauptquartier von OpenAI, als ich über die Oktober-Titelgeschichte von WIRED berichtete. Zu den Themen, die wir besprachen, gehörte auch die ungewöhnliche Struktur des Unternehmens.

OpenAI begann als gemeinnütziges Forschungslabor, dessen Aufgabe es war, auf sichere Weise künstliche Intelligenz auf Augenhöhe oder über das menschliche Niveau hinaus zu entwickeln – sogenannte künstliche allgemeine Intelligenz oder AGI. Das Unternehmen entdeckte einen vielversprechenden Weg in großen Sprachmodellen, die auffallend flüssige Texte erzeugen, aber die Entwicklung und Implementierung dieser Modelle erforderte riesige Mengen an Computerinfrastruktur und Berge von Geld. Dies veranlasste OpenAI dazu, eine kommerzielle Einheit zu gründen, um externe Investoren anzulocken, und gewann einen wichtigen Partner: Microsoft. Praktisch jeder im Unternehmen arbeitete für diesen neuen gewinnorientierten Zweig. Dem Geschäftsleben des Unternehmens wurden jedoch Grenzen gesetzt. Der Gewinn, der den Anlegern zugute kam, sollte begrenzt werden – für die ersten Unterstützer auf das Hundertfache ihrer Einzahlung –, wonach OpenAI wieder zu einer reinen Non-Profit-Organisation würde. Der ganze Kram wurde vom Vorstand der ursprünglichen gemeinnützigen Organisation geleitet, der sich nur auf die Ziele der ursprünglichen Mission und vielleicht auf Gott konzentrierte.

Sutskever mochte es nicht, als ich scherzte, dass das bizarre Organigramm, das diese Beziehung darstellte, wie etwas aussah, das sich ein zukünftiger GPT ausdenken könnte, wenn er aufgefordert wird, eine Steuerhinterziehung zu entwerfen. „Wir sind das einzige Unternehmen auf der Welt, das eine begrenzte Gewinnstruktur hat“, ermahnte er mich. „Hier ist der Grund, warum es Sinn macht: Wenn Sie wie wir glauben, dass diese GPUs, wenn wir wirklich erfolgreich sind, meinen Job und Ihren Job und den Job aller anderen wegnehmen werden, wäre es schön, wenn dieses Unternehmen das nicht wirklich machen würde unbegrenzte Renditen.“ Um in der Zwischenzeit sicherzustellen, dass der gewinnorientierte Teil des Unternehmens nicht vor seinem Engagement scheut, dafür zu sorgen, dass die KI nicht außer Kontrolle gerät, gibt es diesen Vorstand, der die Dinge im Auge behält.

Bei diesem Möchtegern-Hüter der Menschlichkeit handelt es sich um denselben Vorstand, der am vergangenen Freitag Sam Altman entlassen hat, mit der Begründung, er habe kein Vertrauen mehr in den CEO, weil „er in seiner Kommunikation mit dem Vorstand nicht durchweg offen war, was ihn daran hindert, seine Verantwortung wahrzunehmen.“ ” Es wurden keine Beispiele für dieses angebliche Verhalten vorgelegt, und fast niemand im Unternehmen wusste von der Entlassung, bis sie öffentlich bekannt gegeben wurde. Microsoft-Chef Satya Nadella und andere Investoren erhielten keine Vorankündigung. Die vier Direktoren, die die Mehrheit des sechsköpfigen Vorstands repräsentieren, haben auch den Präsidenten und Vorsitzenden von OpenAI, Greg Brockman, aus dem Vorstand geworfen. Brockman trat schnell zurück.

Nachdem ich mit jemandem gesprochen habe, der mit der Denkweise des Vorstands vertraut ist, scheint es mir, dass die Direktoren mit der Entlassung von Altman glaubten, sie würden ihre Mission erfüllen, sicherzustellen, dass das Unternehmen leistungsstarke KI sicher entwickelt – was der einzige Grund für seine Existenz war. Die Steigerung der Gewinne oder der ChatGPT-Nutzung, die Aufrechterhaltung der Atmosphäre am Arbeitsplatz und die Zufriedenheit von Microsoft und anderen Investoren waren nicht ihr Anliegen. Nach Ansicht der Regisseure Adam D’Angelo, Helen Toner und Tasha McCauley – und Sutskever – ging Altman nicht direkt mit ihnen um. Fazit: Der Vorstand traute Altman nicht mehr zu, die Mission von OpenAI zu verfolgen. Wenn der Vorstand dem CEO nicht vertrauen kann, wie kann er dann den Fortschritt der Mission schützen oder sogar überwachen?

Ich kann nicht sagen, ob Altmans Verhalten die Mission von OpenAI wirklich gefährdet hat, aber ich weiß eines: Der Vorstand scheint die Möglichkeit übersehen zu haben, dass eine schlecht erklärte Hinrichtung eines geliebten und charismatischen Anführers dieser Mission schaden könnte. Die Direktoren dachten offenbar, sie würden Altman seine Laufpapiere geben und unkompliziert einen Ersatz einsetzen. Stattdessen waren die Folgen unmittelbar und vulkanisch. Altman, bereits so etwas wie ein Kultheld, wurde in dieser neuen Erzählung sogar verehrt. Er tat wenig oder gar nichts, um den darauf folgenden Aufschrei zu unterdrücken. Für den Vorstand sind Altmans Bemühungen, seinen Posten zurückzuerobern, und die Mitarbeiterrevolte der letzten Tage eine Art Rechtfertigung dafür, dass es richtig war, ihn zu entlassen. Der kluge Sam hat immer noch etwas vor! In der Zwischenzeit ist das gesamte Silicon Valley in die Luft gesprengt, was den Status von OpenAI möglicherweise dauerhaft getrübt hat.

Altmans Fingerabdrücke erscheinen nicht in dem offenen Brief, der gestern veröffentlicht und von mehr als 95 Prozent der rund 770 Mitarbeiter von OpenAI unterzeichnet wurde und in dem es heißt, die Direktoren seien „unfähig, OpenAI zu überwachen“. Darin heißt es, dass, wenn die Vorstandsmitglieder Altman nicht wieder einstellen und zurücktreten, die Arbeiter, die unterschrieben haben, möglicherweise kündigen und einer neuen Abteilung für fortgeschrittene KI-Forschung bei Microsoft beitreten, die von Altman und Brockman gegründet wurde. Diese Drohung schien der Entschlossenheit der Direktoren keinen Abbruch zu tun, da sie offenbar das Gefühl hatten, von ihnen verlangt zu werden, mit Terroristen zu verhandeln. Vermutlich geht es einem Regisseur anders – Sutskever, der jetzt sagt, dass er seine Taten bereue. Seine Unterschrift erscheint auf dem „Du kündigst oder wir kündigen“-Brief. Die beiden haben offenbar sein Misstrauen gegenüber Altman beseitigt Liebesbriefe verschicken miteinander auf X, der Plattform eines anderen Mitbegründers von OpenAI, der sich nun vom Projekt getrennt hat.



source-114

Leave a Reply