Ein alter SEO-Betrug hat ein neues, von der KI generiertes Gesicht


Im Laufe der Jahre war Engadget das Ziel eines weit verbreiteten SEO-Betrugs, bei dem jemand Anspruch auf das Eigentum an einem Bild erhebt und einen Link zurück zu einer bestimmten Website verlangt. Viele andere Websites würden Ihnen dasselbe sagen, aber jetzt lassen die Betrüger mithilfe leicht zugänglicher KI-Tools ihre gefälschten DMCA-Deaktivierungsmitteilungen und Androhungen rechtlicher Schritte legitimer aussehen.

Laut einem Bericht von 404Mediender Herausgeber der Website Langeweile Ich habe letzte Woche per E-Mail eine „Benachrichtigung über eine Urheberrechtsverletzung“ von einer Anwaltskanzlei namens Commonwealth Legal erhalten. Wie bei früheren, ähnlichen Versuchen, den Empfänger zu täuschen, gab der Absender an, dass die Kontaktaufnahme „im Zusammenhang mit einem Bild“ erfolgt, das mit seinem Kunden in Verbindung steht. In diesem Fall verlangte der Absender die Hinzufügung eines „sichtbaren und anklickbaren Links“ zu einer Website namens „tech4gods“ unter dem angeblich gestohlenen Foto.

Da Tedium tatsächlich ein Foto eines lizenzfreien Anbieters verwendete, ging der Verlag der Nachfrage nach, fand die Website der Anwaltskanzlei und stellte bei näherer Betrachtung fest, dass die Bilder ihrer Anwälte von KI generiert wurden. Als 404Medien Wie er feststellt, hatten die Bilder der Anwälte einen leeren Blick in den Augen, der häufig auf Fotos zu sehen ist, die mit KI-Tools erstellt wurden. Wenn Sie eine umgekehrte Bildersuche durchführen, erhalten Sie Ergebnisse von einer Website mit der URL generic.photos, die künstliche Intelligenz nutzt, um „einzigartige, sorgenfreie Modelfotos … von Grund auf“ zu erstellen. Der Herausgeber stellte außerdem fest, dass die angegebene Adresse der Anwaltskanzlei, die sich angeblich im vierten Stock eines Gebäudes befindet, auf Google Street View auf ein einstöckiges Gebäude hinweist. Der Besitzer von tech4gods sagte, er habe nichts mit dem Betrug zu tun, gab jedoch zu, dass er Backlinks für seine Website gekauft habe.

Dies ist nur ein Beispiel dafür, wie schlechte Akteure KI-Tools nutzen können, um Menschen zu täuschen und zu betrügen, und wir müssen wachsamer sein, da Fälle wie dieser wahrscheinlich weiter zunehmen werden. Reverse-Image-Suchmaschinen sind Ihr Freund, aber sie sind möglicherweise nicht unfehlbar und helfen möglicherweise nicht immer. Deepfakes zum Beispiel sind in den letzten Jahren zu einem großen Problem geworden, da Kriminelle sie weiterhin nutzen, um überzeugende Videos und Audiodateien zu erstellen, nicht nur um Menschen zu betrügen, sondern auch um Fehlinformationen online zu verbreiten.

source-115

Leave a Reply