Harris, um sich mit CEOs über Risiken im Bereich der künstlichen Intelligenz zu treffen


WASHINGTON (AP) – Vizepräsidentin Kamala Harris wird sich am Donnerstag mit den CEOs von vier großen Unternehmen treffen, die künstliche Intelligenz entwickeln während die Biden-Regierung eine Reihe von Initiativen einführt, die sicherstellen sollen, dass die sich schnell entwickelnde Technologie das Leben verbessert ohne die Rechte und die Sicherheit der Menschen zu gefährden.

Die demokratische Regierung plant, eine Investition von 140 Millionen Dollar anzukündigen, um sieben neue KI-Forschungsinstitute zu gründen, sagten Verwaltungsbeamte gegenüber Reportern in einer Vorschau auf die Bemühungen.

Darüber hinaus wird erwartet, dass das Office of Management and Budget des Weißen Hauses in den nächsten Monaten Leitlinien herausgibt, wie Bundesbehörden KI-Tools einsetzen können. Darüber hinaus wird es eine unabhängige Verpflichtung führender KI-Entwickler geben, an einer öffentlichen Bewertung ihrer Systeme im August auf der Hacker-Konferenz DEF CON in Las Vegas teilzunehmen.

Harris und Regierungsbeamte planen am Donnerstag, die Risiken, die sie in der aktuellen KI-Entwicklung sehen, mit den CEOs von Alphabet, Anthropic, Microsoft und OpenAI zu erörtern. Die Botschaft der Regierungschefs an die Unternehmen ist, dass sie eine Rolle bei der Reduzierung der Risiken spielen und mit der Regierung zusammenarbeiten können.

Auch die Behörden im Vereinigten Königreich prüfen die mit KI verbundenen Risiken. Der britische Wettbewerbswächter sagte, er öffne eine Überprüfung des KI-Marktesdas sich auf die Technologie konzentriert, die Chatbots wie ChatGPT zugrunde liegt, das von OpenAI entwickelt wurde.

Präsident Joe Biden stellte letzten Monat fest, dass KI helfen kann, Krankheiten und den Klimawandel zu bekämpfen, aber auch die nationale Sicherheit beeinträchtigen und die Wirtschaft auf destabilisierende Weise stören könnte.

Die Veröffentlichung des Chatbots ChatGPT in diesem Jahr hat zu einer verstärkten Debatte über KI und die Rolle der Regierung bei der Technologie geführt. Da KI menschenähnliche Schriften und falsche Bilder erzeugen kann, gibt es ethische und gesellschaftliche Bedenken.

OpenAI hat die Daten, mit denen seine KI-Systeme trainiert wurden, verschwiegen. Das macht es für Personen außerhalb des Unternehmens schwierig zu verstehen, warum sein ChatGPT voreingenommene oder falsche Antworten auf Anfragen gibt, oder Bedenken auszuräumen, ob es urheberrechtlich geschützte Werke stiehlt.

Unternehmen, die befürchten, für etwas in ihren Trainingsdaten haftbar zu sein, haben möglicherweise auch keinen Anreiz, es ordnungsgemäß zu verfolgen, sagte Margaret Mitchell, leitende Ethikwissenschaftlerin beim KI-Startup Hugging Face.

„Ich denke, es ist OpenAI möglicherweise nicht möglich, alle seine Trainingsdaten auf einer Detailebene zu detaillieren, die im Hinblick auf einige der Bedenken in Bezug auf Zustimmung, Datenschutz und Lizenzierung wirklich nützlich wäre“, sagte Mitchell in einem Interview am Dienstag. „Soweit ich über die Tech-Kultur weiß, wird das einfach nicht gemacht.“

Zumindest theoretisch könnte eine Art Offenlegungsgesetz KI-Anbieter dazu zwingen, ihre Systeme für eine stärkere Überprüfung durch Dritte zu öffnen. Aber da KI-Systeme auf früheren Modellen aufbauen, wird es für Unternehmen nicht einfach sein, im Nachhinein für mehr Transparenz zu sorgen.

„Ich denke, es wird wirklich Sache der Regierungen sein, zu entscheiden, ob dies bedeutet, dass Sie all die Arbeit, die Sie geleistet haben, zunichte machen müssen oder nicht“, sagte Mitchell. „Natürlich stelle ich mir irgendwie vor, dass die Entscheidungen zumindest in den USA zu den Unternehmen tendieren und die Tatsache unterstützen werden, dass dies bereits geschehen ist. Es hätte so massive Auswirkungen, wenn all diese Unternehmen all diese Arbeit im Grunde verwerfen und von vorne anfangen müssten.“

___

Verfolgen Sie die Berichterstattung des AP über künstliche Intelligenz unter https://apnews.com/hub/artificial-intelligence.

source-123

Leave a Reply