Die Untersuchung deckt die düsterere Seite von ChatGPT und der KI-Chatbot-Industrie auf


EIN Untersuchung der Zeit hat die düsterere Seite der KI-Chatbot-Branche aufgedeckt und hervorgehoben, wie mindestens ein Startup fragwürdige Praktiken verwendet hat, um seine Technologie zu verbessern.

Der am Mittwoch veröffentlichte Bericht von Time konzentriert sich auf das von Microsoft unterstützte OpenAI und seinen ChatGPT-Chatbot, eine Technologie, die in letzter Zeit wegen ihrer bemerkenswerten Fähigkeit, sehr natürlichen Gesprächstext zu produzieren, viel Aufmerksamkeit erregt hat.

Die Untersuchung von Time ergab, dass OpenAI zum Trainieren der KI-Technologie die Dienste eines Teams in Kenia nutzte, um Texte zu studieren, die beunruhigende Themen wie sexuellen Missbrauch von Kindern, Sodomie, Mord, Selbstmord, Folter, Selbstverletzung und Inzest enthielten. Und für ihre Bemühungen, die abscheulichen Inhalte zu kennzeichnen, erhielten viele im Team weniger als 2 US-Dollar pro Stunde.

Die Arbeit, die im November 2021 begann, war notwendig, da der Vorgänger von ChatGPT, GPT-3, zwar beeindruckend war, aber dazu neigte, anstößige Inhalte auszuspucken, da sein Trainingsdatensatz zusammengestellt wurde, indem Hunderte Milliarden Wörter aus allen Ecken des Internets geschabt wurden .

Das in Kenia ansässige Team, das von der Firma Sama in San Francisco betrieben wird, würde die anstößigen Inhalte kennzeichnen, um den Chatbot von OpenAI zu trainieren, wodurch sein Datensatz verbessert und die Wahrscheinlichkeit anstößiger Ergebnisse verringert wird.

Time sagte, dass alle vier von ihr befragten Mitarbeiter von Sama beschrieben hätten, dass sie durch ihre Arbeit geistig gezeichnet seien. Sama bot Beratungsgespräche an, aber die Angestellten sagten, dass sie ineffektiv seien und aufgrund der Anforderungen des Jobs selten stattfänden, obwohl ein Sama-Sprecher Time sagte, dass die Therapeuten jederzeit erreichbar seien.

Ein Arbeiter sagte gegenüber Time, dass sich das Lesen des schockierenden Materials manchmal wie „Folter“ anfühle, und fügte hinzu, dass sie sich am Ende der Woche „verstört“ fühlten.

Im Februar 2022 nahmen die Dinge für Sama eine noch dunklere Wendung, als OpenAI ein separates Projekt ohne Bezug zu ChatGPT startete, bei dem sein kenianisches Team Bilder sexueller und gewalttätiger Natur sammeln musste. OpenAI sagte Time, dass die Arbeit notwendig sei, um seine KI-Tools sicherer zu machen.

Innerhalb weniger Wochen nach Beginn dieses bildbasierten Projekts veranlasste die alarmierende Natur der Aufgaben Sama dazu, alle seine Verträge mit OpenAI zu kündigen, obwohl Time andeutet, dass es auch durch die PR-Folgen eines Berichts zu einem ähnlichen Thema veranlasst worden sein könnte ungefähr zur gleichen Zeit über Facebook veröffentlicht.

Open AI teilte Time mit, dass es „ein Missverständnis“ über die Art der Bilder gegeben habe, um deren Sammlung Sama gebeten habe, und bestand darauf, dass es nicht nach den extremsten Bildern gefragt und keine der gesendeten Bilder angesehen habe.

Aber die Beendigung der Verträge wirkte sich auf den Lebensunterhalt der Arbeiter aus, da einige Mitglieder des Teams in Kenia ihre Stelle verloren, während andere in schlechter bezahlte Projekte versetzt wurden.

Untersuchung der Zeit bietet einen unangenehmen, aber wichtigen Einblick in die Art der Arbeit, die in die KI-gestützten Chatbots gesteckt wird, die die Technologiebranche in letzter Zeit so begeistert haben.

Die Technologie ist zwar transformativ und potenziell vorteilhaft, geht aber eindeutig zu Lasten der Menschen und wirft eine Reihe ethischer Fragen darüber auf, wie Unternehmen ihre neuen Technologien entwickeln, und allgemeiner darüber, wie wohlhabendere Länder weiterhin weniger wünschenswerte Aufgaben an ärmere Nationen vergeben einen geringeren finanziellen Aufwand.

Die Startups hinter der Technologie werden in den kommenden Monaten und Jahren gezielter unter die Lupe genommen, und daher täten sie gut daran, ihre Praktiken so bald wie möglich zu überprüfen und zu verbessern.

Digital Trends hat sich an OpenAI gewandt, um einen Kommentar zum Bericht von Time zu erhalten, und wir werden diesen Artikel aktualisieren, wenn wir eine Rückmeldung erhalten.

Empfehlungen der Redaktion






source-103

Leave a Reply