KI ist die nächste Grenze – aber für wen?


Ein paar Wochen Vorher erzählte mir ein Gründer, dass es drei Stunden endlosen Klickens gedauert habe, um ein KI-generiertes Porträt einer schwarzen Frau zu finden. Es erinnerte mich in gewisser Weise an eine Rede, die ich gesehen habe vor drei jahren wann Yasmin Grün, der damalige Direktor für Forschung und Entwicklung bei Jigsaw, sprach darüber, wie menschliche Vorurteile in die Programmierung von KI eindringen. Ihr Vortrag und dieser Gründer, der meilenweit und Jahre voneinander entfernt ist, sind zwei Teile desselben Puzzles.

Diskussionen über Vielfalt sind wichtiger denn je wenn die KI in eine neue goldene Ära eintritt. Jede neue Technologie, die auftaucht, scheint von erschütternden Konsequenzen begleitet zu sein. Bisher hat KI dazu beigetragen Rassistische Stellensuche Taktik u langsamere Heimzulassung Preise für Schwarze. Selbstfahrende Autos haben Probleme beim Erkennen dunkle Hautfarbe, wodurch Schwarze eher von ihnen getroffen werden; in einem Fall Roboter identifizierte schwarze Männer 9 % mehr als Kriminelle als weiße Männer, was in ein neues Licht gerückt würde, wenn Justizsysteme jemals damit beginnen, KI einzuführen.

„Da KI die Gesellschaft durchdringt, ist es für Entwickler und Unternehmen von entscheidender Bedeutung, gute Verwalter dieser Technologie zu sein, aber auch andere Technologen für diese unethischen Anwendungsfälle zur Rechenschaft zu ziehen.“ Isoken Igbinedion, Mitbegründer von Parfait

KI-Ethik ist oft ein separates Gespräch vom KI-Gebäude, aber sie sollten ein und dasselbe sein. Voreingenommenheit ist gefährlich, zumal KI immer mehr in den Alltag eindringt. Über Jahrhunderte hinweg beurteilten Ärzte schwarze Menschen nach Kriterien, die heute als rassistisch gelten, wobei eine vorherrschende Überzeugung darin besteht, dass solche Menschen weniger Schmerzen erlebt. Heute, Algorithmen diskriminieren gegen Schwarze; Eine Studie aus dem Jahr 2019 ergab, dass ein von US-Krankenhäusern verwendeter Algorithmus „schwarze Menschen mit geringerer Wahrscheinlichkeit als weiße Menschen, die gleichermaßen krank waren, an Programme überwies, die darauf abzielen, die Versorgung von Patienten mit komplexen medizinischen Bedürfnissen zu verbessern“.

Im Moment treten Vorurteile in verschiedenen KI-Teilsektoren auf, von Investitionen über Einstellungen bis hin zu Daten und Produktausführung, und jeder Fall von Voreingenommenheit stützt andere. Eghosa Omoiguider Gründer von EchoVC Partners, sagte gegenüber TechCrunch, dass KI zwar „unglaublich leistungsfähig“ sein kann, die Gesellschaft aber noch weit von „fehlerfreier“ künstlicher Intelligenz entfernt ist.

„Das bedeutet, dass die Wahrscheinlichkeit einer KI-Verzerrung bei den Ergebnissen aufgrund der übermäßigen Abhängigkeit von den Quellen, Gewichtungen und Verzerrungen der Trainingsdaten hoch bleibt“, sagte er. „Vielfältige Teams werden dem exquisiten Verständnis und der Sensibilität Priorität einräumen, die erforderlich sind, um globale Wirkung zu erzielen.“

Omoiguis Bruder, Nosadem Gründer der ESG-Compliance-Regulierungsbehörde Weave.AI, wiederholte diesen Punkt. Viele dieser Modelle sind Black Boxes, und die Entwickler haben keine besonderen Einblicke in die inneren Abläufe, wie eine Vorhersage oder Empfehlung erreicht wird, sagte er. Im Vergleich zur Wall Street ist die KI praktisch unreguliert, und da das Governance-Niveau nicht mit ihrem Wachstum Schritt hält, besteht die Gefahr, dass sie abtrünnig wird. Die EU vorgeschlagene Schritte Voreingenommenheit bei KI-gestützten Produkten zu reduzieren und zu berücksichtigen, mit einigem Rückschlag, obwohl der Vorschlag selbst ihn etwas vor den USA setzt.

Tatsächlich sagte Eghosa, dass viele Investoren sich nicht um Vielfalt innerhalb der KI kümmern oder überhaupt darüber nachdenken und dass es eine Gruppendenken-Mentalität gibt, wenn es um maschinengesteuerte Fähigkeiten geht. Er erinnerte sich an die Reaktionen von Investoren, die ihm entgegengebracht wurden, als er half, eine Investitionsrunde für das Softwareunternehmen zu leiten KOSA-KI, die KI auf Verzerrungen und Risiken überwacht.

„Nicht wenige Investoren, mit denen wir über die Gelegenheit gesprochen haben, waren sehr stark davon überzeugt, dass KI-Voreingenommenheit keine Rolle spielt oder dass ein „erwachtes Produkt“ nicht für den Produktmarkt geeignet wäre, was gelinde gesagt überraschend ist“, Eghosa genannt.



source-116

Leave a Reply