In Sudden Alarm fordern Tech Doyens eine Pause auf ChatGPT


Ein offener Brief unterzeichnet von Hunderten von prominenten Experten für künstliche Intelligenz, Technologieunternehmern und Wissenschaftlern fordert eine Pause bei der Entwicklung und Erprobung von KI-Technologien, die leistungsfähiger sind als das Sprachmodell GPT-4 von OpenAI, damit die Risiken, die es darstellen kann, angemessen untersucht werden können.

Es warnt davor, dass Sprachmodelle wie GPT-4 bei einer wachsenden Bandbreite von Aufgaben bereits mit Menschen konkurrieren können und zur Automatisierung von Jobs und zur Verbreitung von Fehlinformationen verwendet werden könnten. Der Brief wirft auch die ferne Aussicht auf KI-Systeme auf, die Menschen ersetzen und die Zivilisation neu gestalten könnten.

„Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind (einschließlich des derzeit trainierten GPT-5), unverzüglich für mindestens 6 Monate zu unterbrechen“, heißt es in dem Schreiben, zu dessen Unterzeichnern Yoshua Bengio gehört. ein Professor an der Universität von Montreal, der als Pionier der modernen KI gilt, der Historiker Yuval Noah Harari, der Skype-Mitbegründer Jaan Tallinn und der Twitter-CEO Elon Musk.

Der Brief, der von der geschrieben wurde Institut Zukunft des Lebens, eine Organisation, die sich auf technologische Risiken für die Menschheit konzentriert, fügt hinzu, dass die Pause „öffentlich und überprüfbar“ sein und alle diejenigen einbeziehen sollte, die an fortschrittlichen KI-Modellen wie GPT-4 arbeiten. Es wird nicht vorgeschlagen, wie ein Entwicklungsstopp überprüft werden könnte, aber es wird hinzugefügt, dass „wenn eine solche Pause nicht schnell erlassen werden kann, die Regierungen eingreifen und ein Moratorium einführen sollten“, was unwahrscheinlich ist innerhalb von sechs Monaten.

Microsoft und Google haben auf Bitten um Stellungnahme zu dem Schreiben nicht geantwortet. Zu den Unterzeichnern gehören offenbar Mitarbeiter zahlreicher Technologieunternehmen, die fortschrittliche Sprachmodelle entwickeln, darunter Microsoft und Google. Laut Hannah Wong-Silva, einer Sprecherin von OpenAI, hat das Unternehmen nach dem Training des Modells mehr als sechs Monate an der Sicherheit und Ausrichtung von GPT-4 gearbeitet. Sie fügt hinzu, dass OpenAI GPT-5 derzeit nicht trainiert.

Der Brief kommt, während KI-Systeme immer mutigere und beeindruckendere Sprünge machen. GPT-4 wurde erst vor zwei Wochen angekündigt, aber seine Fähigkeiten haben erhebliche Begeisterung und eine Menge Besorgnis geweckt. Das Sprachmodell, das über ChatGPT, den beliebten Chatbot von OpenAI, verfügbar ist, punktet bei vielen akademische Prüfungen, und kann knifflige Fragen richtig lösen, von denen allgemein angenommen wird, dass sie eine fortgeschrittenere Intelligenz erfordern, als KI-Systeme bisher gezeigt haben. Doch GPT-4 macht auch viel her triviale, logische Fehler. Und wie seine Vorgänger „halluziniert“ es manchmal falsche Informationen, verrät tief verwurzelte gesellschaftliche Vorurteile und kann dazu veranlasst werden, hasserfüllte oder potenziell schädliche Dinge zu sagen.

Ein Teil der von den Unterzeichnern des Briefes geäußerten Besorgnis besteht darin, dass OpenAI, Microsoft und Google einen gewinnorientierten Wettlauf begonnen haben, um so schnell wie möglich neue KI-Modelle zu entwickeln und zu veröffentlichen. Bei einem solchen Tempo, so argumentiert der Brief, vollziehen sich Entwicklungen schneller, als die Gesellschaft und die Regulierungsbehörden damit fertig werden können.

Das Tempo des Wandels – und das Ausmaß der Investitionen – ist erheblich. Microsoft hat 10 Milliarden US-Dollar in OpenAI gesteckt und nutzt seine KI in seiner Suchmaschine Bing sowie in anderen Anwendungen. Obwohl Google einen Teil der KI entwickelt hat, die zum Erstellen von GPT-4 erforderlich ist, und zuvor eigene leistungsstarke Sprachmodelle erstellt hat, entschied es sich bis zu diesem Jahr, sie aus ethischen Bedenken nicht zu veröffentlichen.

source-114

Leave a Reply