Der Kommunikations- und Digitalausschuss des House of Lords traf sich heute mit Rob Sherman, Vizepräsident für Politik und stellvertretender Chief Privacy Officer bei Meta, und Owen Larter, dem Direktor für globale verantwortungsvolle KI-Politik bei Microsoft, um große und einige weitere Sprachmodelle zu besprechen Auswirkungen von KI. In einem weitreichende Diskussion in dem viele Worte gesagt und nicht viele tatsächliche Informationen vermittelt wurden, erregte ein besonderer Leckerbissen unsere Aufmerksamkeit.
Auf die direkte Frage der Vorsitzenden des Ausschusses, Baroness Stowell of Beeston, ob eines der beiden Unternehmen in der Lage sei, ein KI-Modell zurückzurufen, wenn es „als unsicher identifiziert“ worden sei, oder den weiteren Einsatz zu stoppen, und wie das funktionieren könnte, antwortete: Rob Sherman gab eine etwas weitschweifige Antwort:
„Ich denke, es hängt davon ab, um welche Technologie es sich handelt und wie sie genutzt wird … Eines der Dinge, die sehr wichtig sind, ist, über diese Dinge im Voraus nachzudenken, bevor sie veröffentlicht werden … Es gibt also eine Reihe anderer Maßnahmen, die wir ergreifen können.“ Sobald beispielsweise ein Modell veröffentlicht wird, muss der sogenannte Deployer des Modells eine Menge Arbeit leisten. Es gibt also nicht nur einen Akteur, der für die Bereitstellung dieser Technologie verantwortlich ist …
„Als wir Llama freigelassen haben, [we] Geben Sie einen Leitfaden zur verantwortungsvollen Nutzung heraus, der die Schritte beschreibt, die ein Anwender der Technologie unternehmen kann, um sicherzustellen, dass sie sicher verwendet wird. Dazu gehören Dinge wie das, was wir Feinabstimmung nennen, bei dem das Modell genommen und sichergestellt wird, dass es ordnungsgemäß verwendet wird … und dann auch die Ergebnisse filtern, um sicherzustellen, dass das Modell verantwortungsvoll und mit Bedacht verwendet wird, wenn jemand es in Endfunktion nutzt.“
Owen Larter von Microsoft reagierte unterdessen überhaupt nicht, obwohl die Diskussion fairerweise weitreichend war und etwas Zeit in Anspruch nahm. Unabhängig davon ist die Tatsache, dass Metas Vertreter die Frage nicht direkt beantwortete, sondern seine Antwort stattdessen auf einen umfassenderen Punkt zum verantwortungsvollen Umgang mit anderen ausweitete, nicht ganz überraschend.
Im Laufe der Debatte wurde viel über die Notwendigkeit eines sorgfältigen Umgangs mit KI-Modellen und die potenziellen Risiken und Bedenken gesprochen, die diese neue Technologie mit sich bringen könnte.
Abgesehen von ein paar symbolischen Zugeständnissen an neu entstehende Nutzungsrichtlinien und Partnerschaften, die zur Erörterung des Themas gegründet wurden, wurde die Debatte jedoch schnell unklar, da beide Vertreter an manchen Stellen Schwierigkeiten hatten, zu definieren, worüber sie überhaupt debattierten.
Wie Rob Sherman bereits früher in der Diskussion in Bezug auf die potenziellen Risiken einer unverantwortlichen KI-Nutzung hilfreich sagte:
„Über welche Risiken denken wir nach, welche Instrumente stehen uns zur Verfügung, um zu beurteilen, ob diese Risiken bestehen, und was müssen wir dann tun, um sie zu mindern?“
Während sich beide Teilnehmer darin einig zu sein schienen, dass es ein „Gespräch zu führen“ über die besprochenen Themen gäbe, schien keiner besonders daran interessiert zu sein, dieses Gespräch jetzt zu führen. Jede Frage wurde schnell mit einem schnell fließenden Strom möglicher politischer Maßnahmen, künftiger Risikobewertungsmechanismen und einigen derzeit noch unklar definierten Schritten beantwortet, die bereits ergriffen wurden, was in der Summe auf „Wir arbeiten daran“ hinauszulaufen scheint.
Für diejenigen, die sich Sorgen über die weitreichenden Auswirkungen der KI und die potenziellen Risiken bei der Entwicklung und Veröffentlichung einer Technologie machen, die selbst die Unternehmen, die sie entwickeln, nur schwer in sinnvolle Begriffe fassen können, ist dies alles kein Trost.
Heute bot sich vielleicht die Gelegenheit, einige konkrete Pläne für die Regulierung dieses immer wichtiger werdenden Instruments vorzulegen, aber abgesehen von dem ein oder anderen Zugeständnis an „Sicherheitsmaßnahmen“ und einen „global kohärenten Ansatz“ scheint es, dass die Fortschritte in dieser Hinsicht nur langsam voranschreiten KI sinnvoll steuern und regulieren.