Ist Ihr Kind wirklich in Schwierigkeiten? Hüten Sie sich vor Betrug mit Voice-Cloning für Notfälle in der Familie


Wenn Sie einen unerwarteten Anruf von einem Familienmitglied in Schwierigkeiten erhalten, seien Sie vorsichtig: Die andere Person in der Leitung könnte ein Betrüger sein, der KI-Sprachtechnologien verwendet, um sich auszugeben.

Die Federal Trade Commission schlägt Alarm wegen Betrügern ausnutzen(Öffnet in einem neuen Fenster) im Handel erhältliche Voice-Cloning-Software für Notfälle in der Familie.

Diese Betrügereien gibt es schon seit Jahren und beinhalten, dass der Täter sich als Familienmitglied ausgibt, typischerweise als Kind oder Enkelkind. Der Betrüger ruft dann das Opfer an und behauptet, dass es dringend Geld braucht, um einen Notfall zu lösen.

Die FTC sagt jetzt, dass KI-gestützte Voice-Cloning-Software den Identitätsbetrug noch authentischer erscheinen lassen und die Opfer dazu verleiten kann, ihr Geld zu übergeben. „Alles, was er (der Betrüger) braucht, ist ein kurzer Audioclip der Stimme Ihres Familienmitglieds – den er aus online geposteten Inhalten bekommen könnte – und ein Programm zum Klonen der Stimme. Wenn der Betrüger Sie anruft, klingt er genauso wie Ihr Liebster“, sagt die FTC am Montag Warnung(Öffnet in einem neuen Fenster).

Die FTC reagierte nicht sofort auf eine Bitte um Stellungnahme, wodurch unklar wurde, ob die US-Aufsichtsbehörde einen Anstieg von Betrügereien mit Technologien zum Klonen von Stimmen bemerkt hat. Aber die Warnung kommt ein paar Wochen später Die Washington Post chronisiert(Öffnet in einem neuen Fenster) wie Betrüger Software zum Klonen von Stimmen missbrauchen, um ahnungslose Familien auszubeuten.

In einem Fall nutzte der Betrüger die Technologie bei einem kanadischen Ehepaar, um sich als dessen Enkel auszugeben, der behauptete, im Gefängnis zu sein. Bei einem anderen Vorfall nutzten die Betrüger die Voice-Cloning-Technologie, um erfolgreich 15.449 US-Dollar von einem Paar zu erschwindeln, das ebenfalls getäuscht wurde, zu glauben, sein Sohn sei ins Gefängnis geworfen worden.

Nicht hilfreich ist, dass Voice-Cloning-Dienste im Internet weit verbreitet sind. Daher ist es möglich, dass die Betrügereien im Laufe der Zeit zunehmen, obwohl zumindest einige Anbieter von KI-gestützter Spracherzeugung an Schutzmaßnahmen arbeiten, um potenziellen Missbrauch zu verhindern.

Von unseren Redakteuren empfohlen

Um die Verbraucher zu schützen, sagt die FTC, dass es eine einfache Möglichkeit gibt, einen Notfallbetrug in der Familie zu erkennen. „Vertraue der Stimme nicht. Rufen Sie die Person an, die Sie angeblich kontaktiert hat, und überprüfen Sie die Geschichte. Verwenden Sie eine Telefonnummer, von der Sie wissen, dass sie ihnen gehört“, sagt die FTC. „Wenn Sie Ihren Angehörigen nicht erreichen können, versuchen Sie, ihn über ein anderes Familienmitglied oder dessen Freunde zu erreichen.“

Gesuchte Opfer können auch erwägen, dem angeblich in Schwierigkeiten geratenen Familienmitglied eine persönliche Frage zu stellen, die der Betrüger nicht wissen würde.

Sicherheitswache<\/strong> Newsletter für unsere wichtigsten Datenschutz- und Sicherheitsgeschichten, direkt in Ihren Posteingang geliefert. “last_published_at”:”2022-03-24T14:57:28.000000Z”,”created_at”:null,”updated_at”:”2022-03-24T14:57:33.000000Z”)” x-show=”showEmailSignUp() ” class=”rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs”>

Gefällt dir, was du liest?

Melden Sie sich an für Sicherheitswache Newsletter für unsere wichtigsten Datenschutz- und Sicherheitsgeschichten, die direkt in Ihren Posteingang geliefert werden.

Dieser Newsletter kann Werbung, Angebote oder Affiliate-Links enthalten. Das Abonnieren eines Newsletters erklärt Ihr Einverständnis mit unseren Nutzungsbedingungen Und Datenschutz-Bestimmungen. Sie können die Newsletter jederzeit abbestellen.



source-106

Leave a Reply