Laut Branchenführern stelle KI ein „Aussterberisiko“ dar, das mit einem Atomkrieg vergleichbar sei


Mit dem Aufkommen von ChatGPT, Bard und anderen großen Sprachmodellen (LLMs) hören wir von beteiligten Personen wie Elon Musk Warnungen vor den Risiken, die von künstlicher Intelligenz (KI) ausgehen. Jetzt hat eine Gruppe hochkarätiger Branchenführer eine einsätzige Erklärung herausgegeben, in der sie diese Befürchtungen effektiv bestätigen.

Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Es war im Zentrum für KI-Sicherheit veröffentlicht, einer Organisation mit der Mission, „die gesellschaftlichen Risiken durch künstliche Intelligenz zu reduzieren“, heißt es auf ihrer Website. Zu den Unterzeichnern gehört das Who-is-Who der KI-Branche, darunter OpenAI-Chef Sam Altman und Google DeepMind-Chef Demis Hassabis. Auch die mit dem Turing-Preis ausgezeichneten Forscher Geoffrey Hinton und Yoshua Bengio, die von vielen als die Paten der modernen KI angesehen werden, haben ihr ihren Namen gegeben.

Es ist die zweite derartige Aussage in den letzten Monaten. Im März forderten Musk, Steve Wozniak und mehr als 1.000 andere eine sechsmonatige Pause bei der KI, damit Industrie und Öffentlichkeit effektiv mit der Technologie Schritt halten können. „In den letzten Monaten waren KI-Labore in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Brief.

Obwohl KI (wahrscheinlich) nicht selbstbewusst ist einige haben Angstbirgt es bereits Risiken für Missbrauch und Schaden durch Deepfakes, automatisierte Desinformation und mehr. Die LLMs könnten auch die Art und Weise verändern, wie Inhalte, Kunst und Literatur produziert werden, was möglicherweise Auswirkungen auf zahlreiche Arbeitsplätze haben könnte.

US-Präsident Joe Biden erklärte kürzlich, dass „es abzuwarten bleibt“, ob KI gefährlich sei, und fügte hinzu: „Technologieunternehmen haben meiner Ansicht nach die Verantwortung, sicherzustellen, dass ihre Produkte sicher sind, bevor sie sie öffentlich machen … KI kann dabei helfen.“ einige sehr schwierige Herausforderungen wie Krankheiten und Klimawandel, aber es muss auch die potenziellen Risiken für unsere Gesellschaft, unsere Wirtschaft und unsere nationale Sicherheit angehen.“ Bei einem kürzlichen Treffen im Weißen Haus sagte Altman forderte eine Regulierung der KI aufgrund möglicher Risiken.

Da viele Meinungen im Umlauf sind, soll die neue, kurze Erklärung eine gemeinsame Besorgnis über KI-Risiken zum Ausdruck bringen, auch wenn die Parteien sich darüber nicht einig sind, was diese sind.

„KI-Experten, Journalisten, politische Entscheidungsträger und die Öffentlichkeit diskutieren zunehmend über ein breites Spektrum wichtiger und dringender Risiken durch KI“, heißt es in der Einleitung der Erklärung. „Trotzdem kann es schwierig sein, Bedenken hinsichtlich einiger der schwerwiegendsten Risiken fortgeschrittener KI zu äußern. Die folgende prägnante Aussage zielt darauf ab, dieses Hindernis zu überwinden und eine Diskussion anzustoßen. Sie soll auch ein gemeinsames Wissen der wachsenden Zahl von Experten und der Öffentlichkeit schaffen Persönlichkeiten, die auch einige der schwerwiegendsten Risiken der fortgeschrittenen KI ernst nehmen.“

source-115

Leave a Reply