„Godfather of AI“ verlässt Google und nennt mehrere ethische Probleme im Zusammenhang mit KI und ihrer unregulierten Nutzung


In den letzten Monaten haben wir gehört, dass Google beschlossen hat, in Bezug auf die Entwicklung auf alle Viere zu feuern, und wenn man bedenkt, dass die Google I/O 2023 nur noch wenige Tage entfernt ist, werden wir höchstwahrscheinlich hören mehr darüber, was der Suchmaschinengigant geplant hat. Schließlich will das Unternehmen Bing AI, ChapGPT und anderen Modellen den Kampf ansagen. Der Ansatz von Google erweist sich jedoch als nicht gut für das Unternehmen.

Googles unermüdliches Streben nach Perfektionierung der KI, ohne zu wissen, was richtig und falsch ist, veranlasste Geoffery Hinton, aus dem Unternehmen auszuscheiden

Das teilte Googles Vizepräsident Geoffrey Hinton mit New York Times Anfang April dieses Jahres reichte er seinen Rücktritt bei Google ein. Für diejenigen, die es nicht wissen, Hinton wird von vielen als „Pate der KI“ angesehen, und sein Ausscheiden aus dem Unternehmen könnte ein Zeichen dafür sein, dass sich im Unternehmen einige Probleme zusammenbrauen.

Jetzt sind hochkarätige Exits nichts in der Tech-Welt. Hintons Abgang ist jedoch nicht auf die leichte Schulter zu nehmen. Er verließ Google aufgrund der Gefahren von KI, die weder kontrolliert noch reguliert wird. Hinton drückte bei mehreren Gelegenheiten seine Besorgnis darüber aus, dass Google seine KI-Arbeit intensiviert, um sicherzustellen, dass andere Konkurrenten nicht die erste Position einnehmen. Dadurch öffnete sich Google vielen ethischen Fragen.

Zum Beispiel hat Hinton darüber gesprochen, wie generative KI dazu führen kann, dass die Öffentlichkeit mit Informationen überschwemmt wird, die falsch sind und nur noch sehr schwer von tatsächlichen Informationen zu unterscheiden sind. Darüber hinaus hat Hinton auch darüber gesprochen, wie KI Jobs ersetzen könnte, was für viele Menschen, darunter Synchronsprecher, Schriftsteller, insbesondere Künstler, und mehr, zu einem großen Problem geworden ist.

Es endet jedoch nicht hier. Hinton hat auch darüber gesprochen, wie KI, die nicht kontrolliert oder reguliert wird, tatsächlich zu einem großen Problem bei vollautomatischen Waffen werden könnte, sowie über das Verhalten, das die KI am Ende aus den Trainingsdaten lernen wird, mit denen sie gefüttert wurde. Das hat natürlich nichts mit Google zu tun, aber Hinton ist sich der Gefahren von KI und der möglichen Auswirkungen auf die Zukunft sehr wohl bewusst. Das klingt schließlich wie etwas direkt aus Terminator.

Dies ist nicht das erste Mal, dass KI einige ethische Bedenken aufwirft. Erinnern Sie sich an den Ingenieur, den Google gefeuert hat, weil er darüber sprach, wie das LAMDA-Modell anfing, Gefühle zu entwickeln? Das war nur eine von vielen Entdeckungen, die in den letzten Monaten passiert sind, und obwohl man Hinton oder den besagten Ingenieur als paranoid bezeichnen könnte, ist es sicherlich etwas, worüber man sich Sorgen machen muss, denn wenn man der KI absolute Macht verleiht, könnte dies dazu führen, dass die Grenzen zwischen dem, was wahr ist, und dem, was wahr ist, verwischt werden was falsch ist, und das ist in der Tat eine beängstigende Welt, in der man leben kann.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply