Der Einsatz von KI-Chatbots in Kongress- und Gerichtssälen wirft ethische Fragen auf

Das benutzerfreundliche KI-Tool ChatGPT hat seit seiner Einführung im November Hunderte Millionen Benutzer angezogen und wird Branchen auf der ganzen Welt revolutionieren. In den letzten Tagen wurden vom Bot generierte KI-Inhalte im US-Kongress, in kolumbianischen Gerichten und in einer Rede des israelischen Präsidenten verwendet. Ist eine breite Akzeptanz unvermeidlich – und ist sie ethisch vertretbar?

In einer aufgezeichneten Begrüßung für eine Konferenz zur Cybersicherheit in Tel Aviv begann der israelische Präsident Isaac Herzog am Mittwoch eine Rede, die Geschichte schreiben sollte: „Ich bin wirklich stolz darauf, Präsident eines Landes zu sein, das die Heimat eines so lebendigen und innovativen Hi ist -Tech-Industrie. In den letzten Jahrzehnten war Israel stets an der Spitze des technologischen Fortschritts, und unsere Errungenschaften in den Bereichen Cybersicherheit, künstliche Intelligenz (KI) und Big Data sind wirklich beeindruckend.“

Zur Überraschung der Unternehmer, die an Cybertech Global teilnahmen, gab der Präsident dann bekannt, dass seine Kommentare vom KI-Bot ChatGPT geschrieben worden waren, was ihn zum ersten öffentlich bekannten Weltführer machte, der künstliche Intelligenz zum Schreiben einer Rede einsetzte.

Aber nicht der erste Politiker, der das tut. Eine Woche zuvor las der US-Kongressabgeordnete Jake Auchincloss eine Rede, die ebenfalls von ChatGPT im Plenum des Repräsentantenhauses generiert wurde. Eine weitere Premiere, die darauf abzielt, die Aufmerksamkeit auf das äußerst erfolgreiche neue KI-Tool im Kongress zu lenken, „damit wir jetzt eine Debatte über eine zielgerichtete Politik für KI führen“, sagte Auchincloss gegenüber CNN.


Seit seiner Einführung im November 2022 hat ChatGPT (erstellt vom kalifornischen Unternehmen OpenAI) schätzungsweise 100 Millionen aktive Benutzer pro Monat erreicht und ist damit der am schnellsten wachsende Verbraucheranwendung in der Geschichte.

Das benutzerfreundliche KI-Tool nutzt Online-Daten, um sofortige, menschenähnliche Antworten auf Benutzeranfragen zu generieren. Seine Fähigkeit, das Internet nach Informationen zu durchsuchen und schnelle Antworten zu liefern, macht es zu einem potenziellen Rivalen der Suchmaschine von Google, aber es ist auch in der Lage, schriftliche Inhalte zu jedem Thema und in jedem Format – von Essays, Reden und Gedichten bis hin zu Computercode – zu erstellen Sekunden.

Das Tool ist derzeit kostenlos und wird gerühmt rund 13 Mio einzigartige Besucher pro Tag im Januar, fand ein Bericht des Schweizer Bankengiganten UBS heraus.

Ein Teil seiner Massenattraktivität ist „extrem gute Technik – es lässt sich sehr gut mit Millionen von Menschen skalieren, die es verwenden“, sagt Mirco Musolesi, Professor für Informatik am University College London. „Aber es hat auch eine sehr gute Ausbildung in Bezug auf die Qualität der verwendeten Daten, aber auch den Umgang der Ersteller mit problematischen Aspekten.“

In der Vergangenheit haben ähnliche Technologien dazu geführt, dass Bots, die sich von Social-Media-Beiträgen ernährt haben, eine aggressive, beleidigender Ton. Nicht so für ChatGPT, und viele seiner Millionen Benutzer beschäftigen sich aus Neugier mit dem Tool oder zur Unterhaltung.

„Menschen haben diese Vorstellung, etwas ganz Besonderes zu sein, aber dann sieht man diese Maschine, die in der Lage ist, etwas sehr Ähnliches wie wir zu produzieren“, sagt Musolesi. „Wir wussten, dass dies wahrscheinlich möglich ist, aber es tatsächlich zu sehen, ist sehr interessant.“

Ein „Superverbreiter von Fehlinformationen“?

Die potenziellen Auswirkungen der erstmaligen Bereitstellung einer solch hochentwickelten KI für ein Massenpublikum sind jedoch unklar, und verschiedene Sektoren von Bildung über Recht bis hin zu Wissenschaft und Wirtschaft sind auf Disruption gefasst.

Schulen und Hochschulen auf der ganzen Welt haben Schülern schnell die Verwendung von ChatGPT untersagt, um Betrug oder Plagiate zu verhindern.

>> Französische Spitzenuniversität verbietet Studenten die Nutzung von ChatGPT

Wissenschaftszeitschriften haben auch den Bot verboten von der Auflistung als Co-Autor auf Papieren inmitten der Befürchtung, dass Fehler des Tools Eingang in die wissenschaftliche Debatte finden könnten.

OpenAI hat davor gewarnt, dass der Bot Fehler machen kann. Ein Bericht des Medienwächters NewsGuard sagte jedoch zu Themen wie Covid-19, der Ukraine und Schießereien in Schulen, ChatGPT lieferte „beredt, falsch und irreführend“ behauptet 80 Prozent der Zeit.

„Für jeden, der mit den in diesen Inhalten behandelten Fragen oder Themen nicht vertraut ist, könnten die Ergebnisse leicht als legitim und sogar maßgeblich erscheinen“, sagte NewsGuard. Es nannte das Tool „den nächsten großen Fehlinformations-Superverbreiter“.

Trotzdem gab ein Richter in Kolumbien am Dienstag bekannt, dass er den KI-Chatbot verwendet hat, um bei der Entscheidungsfindung in einem Fall für medizinische Rechte von Kindern zu helfen.

Richter Juan Manuel Padilla sagte gegenüber Blu Radio, er habe ChatGPT gefragt, ob ein autistischer Minderjähriger unter anderem von der Zahlung von Gebühren für Therapien befreit werden sollte.

Der Bot antwortete: „Ja, das ist richtig. Gemäß den Vorschriften in Kolumbien sind Minderjährige, bei denen Autismus diagnostiziert wurde, von der Zahlung von Gebühren für ihre Therapien befreit.“

Padilla entschied zugunsten des Kindes – wie der Bot riet. „Indem wir Fragen zum Antrag stellen, hören wir nicht auf, Richter zu sein [and] denkende Wesen“, sagte er dem Radiosender. „Ich vermute, dass viele meiner Kollegen mitmachen und anfangen werden, ihre Regeln mit Hilfe künstlicher Intelligenz ethisch zu konstruieren.“

Obwohl er warnte, dass der Bot als zeitsparender Vermittler eingesetzt werden sollte, und nicht „mit dem Ziel, Richter zu ersetzen“, sagten Kritiker, dass dies keines von beiden sei verantwortlich oder ethisch einen Bot, der in der Lage ist, Fehlinformationen bereitzustellen, als Rechtsinstrument zu verwenden.

Professor Juan David Gutierrez von der Rosario University, Experte für Regulierung und Steuerung künstlicher Intelligenz, sagte, er habe ChatGPT dieselben Fragen gestellt und unterschiedliche Antworten erhalten. In einem Tweet forderte er eine dringende Schulung der Richter in „digitaler Kompetenz“.

Ein Marktführer

Trotz der potenziellen Risiken scheint die Verbreitung von ChatGPT unvermeidlich. Musolesi geht davon aus, dass sie sowohl für positive als auch für negative Zwecke „ausgiebig“ genutzt werden wird – mit dem Risiko von Fehlinformationen und Missbrauch geht das Versprechen einher, dass Informationen und Technologie für eine größere Anzahl von Menschen zugänglicher werden.

OpenAI erhielt im Januar eine Investition in Höhe von mehreren Millionen Dollar von Microsoft, mit der ChatGPT in eine Premium-Version der Messaging-App von Teams integriert wird und Dienste wie das Generieren automatischer Besprechungsnotizen anbietet.

Microsoft hat angekündigt, die Technologie von ChatGPT in alle seine Produkte aufzunehmen und damit die Voraussetzungen dafür zu schaffen, dass das Unternehmen ein führendes Unternehmen auf diesem Gebiet wird, noch vor Googles Muttergesellschaft Alphabet.

>> Alphabet-, Amazon- und Apple-Ergebnisse: Tech-Einnahmen von Trübsinn getroffen

Das Tool kostenlos zu machen, war der Schlüssel zu seinem aktuellen und zukünftigen Erfolg. „Es war eine riesige Marketingkampagne“, sagt Musolesi, „und wenn die Leute es verwenden, verbessern sie den Datensatz für die nächste Version, weil sie dieses Feedback geben.“

Trotzdem hat das Unternehmen diese Woche eine kostenpflichtige Version des Bots auf den Markt gebracht, die Zugang zu neuen Funktionen für 20 US-Dollar pro Monat bietet.

Eine weitere mit Spannung erwartete Neuentwicklung ist ein KI-Klassifikator, ein Softwaretool, mit dem Menschen erkennen können, wann ein Text von künstlicher Intelligenz generiert wurde.

OpenAI sagte in ein Blogbeitrag dass das Tool zwar diese Woche eingeführt wurde, aber noch nicht „vollständig zuverlässig“ ist. Derzeit ist es nur in 26 Prozent der Fälle in der Lage, KI-geschriebene Texte korrekt zu identifizieren.

Das Unternehmen erwartet jedoch, dass es sich durch Schulungen verbessern wird, wodurch das Potenzial für „automatisierte Fehlinformationskampagnen, die Verwendung von KI-Tools für akademische Unehrlichkeit und die Positionierung eines KI-Chatbots als Mensch“ verringert wird.


source site-27

Leave a Reply