Bumble hat sein KI-Tool zum Fangen unerwünschter Akte als Open Source bereitgestellt


Seit 2019 nutzt Bumble maschinelles Lernen, um seine Nutzer vor anzüglichen Fotos zu schützen. Synchronisiert , Die Funktion überprüft Bilder, die von Spielen gesendet werden, um festzustellen, ob sie unangemessene Inhalte darstellen. Es wurde in erster Linie entwickelt, um unerwünschte Nacktfotos aufzunehmen, kann aber auch hemdlose Selfies und Bilder von Waffen kennzeichnen – beides ist auf Bumble nicht erlaubt. Wenn es eine positive Übereinstimmung gibt, verwischt die App das anstößige Bild, sodass Sie entscheiden können, ob Sie es anzeigen, blockieren oder die Person melden möchten, die es Ihnen gesendet hat.

In einem Bumble kündigte an, dass es sich um Open-Source Private Detector handele und das Framework auf verfügbar mache . „Wir hoffen, dass die Funktion von der breiteren Tech-Community angenommen wird, während wir gemeinsam daran arbeiten, das Internet zu einem sichereren Ort zu machen“, sagte das Unternehmen und räumte dabei ein, dass es nur einer von vielen Akteuren auf dem Online-Dating-Markt ist.

Unerwünschte sexuelle Avancen sind für viele Frauen sowohl online als auch in der realen Welt eine häufige Realität. EIN fanden heraus, dass 57 Prozent der Frauen sich in den von ihnen genutzten Dating-Apps belästigt fühlten. In jüngerer Zeit, a aus dem Vereinigten Königreich fanden heraus, dass 76 Prozent der Mädchen zwischen 12 und 18 Jahren unaufgefordert Nacktbilder zugesandt wurden. Das Problem geht auch über Dating-Apps hinaus, mit Apps wie bei ihren eigenen Lösungen.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply