Meta führte ein riesiges Governance-Experiment durch. Jetzt kommt es auf KI an


Ende letzten Monats, Meta gab in aller Stille die Ergebnisse eines ehrgeizigen, nahezu globalen deliberativen „demokratischen“ Prozesses bekannt, um Entscheidungen über die Verantwortung des Unternehmens für das von ihm geschaffene Metaversum zu treffen. Dies war keine gewöhnliche Unternehmensübung. Daran waren über 6.000 Personen beteiligt, die demografisch repräsentativ für 32 Länder und 19 Sprachen ausgewählt wurden. Die Teilnehmer verbrachten viele Stunden im Gespräch in kleinen Online-Gruppensitzungen und hörten von Nicht-Meta-Experten etwas über die diskutierten Themen. 82 Prozent der Teilnehmer gaben an, dass sie dieses Format als Entscheidungshilfe für Unternehmen in der Zukunft weiterempfehlen würden.

Meta hat sich nun öffentlich dazu verpflichtet, einen ähnlichen Prozess für generative KI durchzuführen, ein Schritt, der mit dem enormen Anstieg des Interesses an demokratischen Innovationen zur Steuerung oder Steuerung von KI-Systemen übereinstimmt. Damit schließt sich Meta Google, DeepMind, OpenAI, Anthropic und anderen Organisationen an, die beginnen, Ansätze zu erforschen, die auf der Art der deliberativen Demokratie basieren Ich und andere gewesen sein sich dafür einsetzen. (Offenlegung: Ich bin Mitglied des Bewerbungsbeirats für die OpenAI Demokratische Beiträge zur KI Grant.) Nachdem ich den Prozess von Meta von innen gesehen habe, freue ich mich darüber, dass dies ein wertvoller Beweis für das Konzept einer transnationalen demokratischen Regierungsführung ist. Damit ein solcher Prozess jedoch wirklich demokratisch sein kann, bräuchten die Teilnehmer mehr Macht und Entscheidungsfreiheit, und der Prozess selbst müsste öffentlicher und transparenter sein.

Einige der Mitarbeiter, die für die Einrichtung der Community-Foren von Meta (wie diese Prozesse später genannt wurden) verantwortlich sind, lernte ich erstmals im Frühjahr 2019 während einer eher traditionellen externen Konsultation mit dem Unternehmen kennen, um seine Richtlinien zu „manipulierten Medien“ festzulegen. Ich war gewesen Schreiben Und Apropos über die potenziellen Risiken dessen, was heute als generative KI bezeichnet wird, und wurde (zusammen mit anderen Experten) gebeten, Beiträge zu den Richtlinien zu liefern, die Meta entwickeln sollte, um damit umzugehen Probleme wie Fehlinformationen Das könnte durch die Technologie noch verschärft werden.

Etwa zur gleichen Zeit erfuhr ich zum ersten Mal davon repräsentative Beratungen– ein Ansatz zur demokratischen Entscheidungsfindung, der sich wie ein Lauffeuer durchgesetzt hat, mit zunehmend öffentlichkeitswirksamen Bürgerversammlungen und beratenden Umfragen auf der ganzen Welt. Die Grundidee besteht darin, dass Regierungen der Öffentlichkeit schwierige politische Fragen zur Entscheidung vorlegen. Anstelle eines Referendums oder einer Wahl wird ein repräsentativer Mikrokosmos der Bevölkerung per Lotterie ausgewählt. Diese Gruppe wird tage- oder sogar wochenlang (mit Vergütung) zusammengebracht, um von Experten, Interessenvertretern und untereinander zu lernen, bevor sie zu einer endgültigen Reihe von Empfehlungen gelangt.

Repräsentative Beratungen lieferten eine mögliche Lösung für ein Dilemma, mit dem ich schon lange gerungen habe: wie man Entscheidungen über Technologien trifft, die Menschen über Ländergrenzen hinweg beeinflussen. Ich begann sich für Unternehmen einsetzen diese Prozesse zu steuern, um Entscheidungen rund um sie zu treffen schwierigste Themen. Als Meta eigenständig ein solches Pilotprojekt startete, wurde ich informeller Berater des Governance Lab des Unternehmens (das das Projekt leitete) und dann eingebetteter Beobachter bei der Gestaltung und Durchführung seines riesigen 32-Länder-Community-Forum-Prozesses (ich akzeptierte das nicht). Entschädigung für diese Zeit).

Das Community-Forum war vor allem deshalb spannend, weil es zeigte, dass die Durchführung eines solchen Prozesses trotz der immensen logistischen Hürden tatsächlich möglich ist. Die Partner von Meta in Stanford leiteten das Verfahren größtenteils, und ich sah keine Hinweise darauf, dass Meta-Mitarbeiter versuchten, ein Ergebnis zu erzwingen. Das Unternehmen hielt auch an seiner Zusage fest, diese Partner in Stanford zu haben direkt über die Ergebnisse berichten, egal was sie waren. Darüber hinaus war klar, dass zumindest in einigen Teilen des Unternehmens ernsthaft darüber nachgedacht wurde, wie die potenziellen Ergebnisse des Forums am besten umgesetzt werden könnten. Die Ergebnisse beinhalteten schließlich Perspektiven darüber, welche Auswirkungen für die Gastgeber von Metaverse-Räumen bei wiederholtem Mobbing und Belästigung angemessen wären und welche Arten von Moderations- und Überwachungssystemen implementiert werden sollten.

source-114

Leave a Reply