Technologieführer riefen einst nach KI-Regulierung. Jetzt lautet die Botschaft „Langsamer“


Neulich Abend nahm ich an einem Presseessen teil, das von einem Unternehmen namens Box veranstaltet wurde. Zu den weiteren Gästen gehörten die Leiter zweier datenorientierter Unternehmen, Datadog und MongoDB. Normalerweise benehmen sich die Führungskräfte bei solchen Soireen von ihrer besten Seite, insbesondere wenn die Diskussion öffentlich stattfindet, wie bei dieser. Daher erschreckte mich ein Gespräch mit Box-CEO Aaron Levie, der uns erzählte, dass er beim Nachtisch einen harten Stopp einlegen musste, weil er an diesem Abend nach Washington, D.C. flog. Er war auf dem Weg zu einem Special-Interest-Tag namens TechNet Day, bei dem das Silicon Valley mit Dutzenden von Kongressabgeordneten zusammenkommt, um zu bestimmen, womit die (ungebetene) Öffentlichkeit leben muss. Und was wollte er von dieser Gesetzgebung? „So wenig wie möglich“, antwortete Levie. „Ich werde allein dafür verantwortlich sein, die Regierung zu stoppen.“

Darüber machte er Witze. Irgendwie. Er fuhr fort, dass es zwar sinnvoll sei, klaren Missbrauch von KI wie Deepfakes zu regulieren, es aber noch viel zu früh sei, über Beschränkungen nachzudenken, etwa Unternehmen zu zwingen, große Sprachmodelle an staatlich anerkannte KI-Polizisten zu übermitteln, oder Chatbots auf Dinge wie Voreingenommenheit oder die Fähigkeit dazu zu überprüfen Hacken Sie die reale Infrastruktur. Als Beispiel dafür verwies er auf Europa, das bereits Beschränkungen für KI eingeführt hat nicht machen. „Was Europa tut, ist ziemlich riskant“, sagte er. „In der EU herrscht die Ansicht vor, dass man eine Atmosphäre der Innovation schafft, wenn man zuerst reguliert“, sagte Levie. „Das hat sich empirisch als falsch erwiesen.“

Levies Äußerungen stehen im Widerspruch zu einer Standardposition unter den KI-Eliten des Silicon Valley wie Sam Altman. „Ja, reguliere uns!” Sie sagen. Aber Levie stellt fest, dass der Konsens auseinanderbricht, wenn es darum geht, was genau die Gesetze sagen sollen. „Wir als Technologiebranche wissen nicht, was wir eigentlich fordern“, sagte Levie, „Ich war noch nie bei einem Abendessen mit mehr als fünf KI-Leuten, bei dem es eine einzige Vereinbarung darüber gab, wie man KI regulieren würde.“ Nicht, dass es wichtig wäre – Levie glaubt, dass Träume von einem umfassenden KI-Gesetz zum Scheitern verurteilt sind. „Die gute Nachricht ist, dass die USA niemals auf diese Weise koordiniert werden könnten. In den USA wird es einfach kein KI-Gesetz geben.“

Levie ist für seine respektlose Geschwätzigkeit bekannt. Aber in diesem Fall ist er einfach offener als viele seiner Kollegen, deren „Regulieren Sie uns bitte“-Position eine Art raffiniertes Tauziehen ist. Die einzige öffentliche Veranstaltung des TechNet Day war, zumindest soweit ich es beurteilen konnte, eine Livestream-Panel Diskussion über KI-Innovation, an der Kent Walker, Präsident für globale Angelegenheiten von Google, und Michael Kratsios, der jüngste US-amerikanische Chief Technology Officer und jetzt leitende Angestellte bei Scale AI, teilnahmen. Diese Diskussionsteilnehmer waren der Meinung, dass sich die Regierung darauf konzentrieren sollte, die Führungsrolle der USA in diesem Bereich zu schützen. Sie räumten zwar ein, dass die Technologie Risiken birgt, argumentierten jedoch, dass die bestehenden Gesetze die potenziellen Gefahren weitgehend abdecken.

Walker von Google schien besonders beunruhigt darüber zu sein, dass einige Bundesstaaten ihre KI-Gesetzgebung selbst entwickelten. „Allein in Kalifornien sind heute 53 verschiedene KI-Gesetze in der Legislative anhängig“, sagte er, und er prahlte nicht. Walker weiß natürlich, dass dieser Kongress kaum in der Lage ist, die Regierung selbst am Leben zu halten, und die Aussicht, dass beide Kammern dieses heiße Eisen in einem Wahljahr erfolgreich jonglieren, ist ebenso unwahrscheinlich wie Google die acht Autoren des Transformer-Papiers wieder einstellt.

Der US-Kongress hat eine Gesetzesvorlage in der Schwebe. Und es kommen immer wieder Rechnungen – manche vielleicht weniger aussagekräftig als andere. Diese Woche stellte der Abgeordnete Adam Schiff, ein kalifornischer Demokrat, einen Gesetzentwurf mit dem Titel „ das Generative AI Copyright Disclosure Act von 2024. Es schreibt vor, dass große Sprachmodelle dem Urheberrechtsamt „eine ausreichend detaillierte Zusammenfassung aller urheberrechtlich geschützten Werke vorlegen müssen, die im Trainingsdatensatz verwendet werden“. Es ist nicht klar, was „ausreichend detailliert“ bedeutet. Wäre es in Ordnung zu sagen: „Wir haben einfach das offene Netz abgekratzt?“ Schiffs Mitarbeiter erklärten mir, dass sie eine Maßnahme im KI-Gesetz der EU übernehmen würden.

source-114

Leave a Reply