KI wird zur Aufladung von Betrügereien eingesetzt


Code darin versteckt PC-Motherboards machen Millionen von Maschinen anfällig für bösartige Updates, wie Forscher diese Woche enthüllten. Mitarbeiter des Sicherheitsunternehmens Eclypsium fanden in Hunderten von Motherboard-Modellen des taiwanesischen Herstellers Gigabyte Code, der es einem Updater-Programm ermöglichte, eine andere Software herunterzuladen und auszuführen. Obwohl das System dazu gedacht war, das Motherboard auf dem neuesten Stand zu halten, stellten die Forscher fest, dass der Mechanismus unsicher implementiert war, was es Angreifern möglicherweise ermöglichte, die Hintertür zu kapern und Malware zu installieren.

An anderer Stelle gab das in Moskau ansässige Cybersicherheitsunternehmen Kaspersky bekannt, dass seine Mitarbeiter von neu entdeckter Zero-Click-Malware betroffen waren, die sich auf iPhones auswirkte. Den Opfern wurde eine schädliche Nachricht inklusive Anhang über Apples iMessage gesendet. Der Angriff begann automatisch damit, mehrere Schwachstellen auszunutzen, um den Angreifern Zugriff auf die Geräte zu verschaffen, bevor sich die Nachricht selbst löschte. Kaspersky geht davon aus, dass der Angriff mehr Menschen als nur die eigenen Mitarbeiter getroffen hat. Am selben Tag, als Kaspersky den iOS-Angriff enthüllte, behauptete der russische Föderale Sicherheitsdienst, auch bekannt als FSB, dass Tausende von Russen Ziel einer neuen iOS-Malware geworden seien und beschuldigte die US-amerikanische National Security Agency (NSA), den Angriff durchgeführt zu haben. Der russische Geheimdienst behauptete außerdem, Apple habe der NSA geholfen. Der FSB hat keine technischen Details veröffentlicht, um seine Behauptungen zu stützen, und Apple sagte, es habe nie eine Hintertür in seine Geräte eingebaut.

Wenn das noch nicht genug Ansporn ist, Ihre Geräte auf dem neuesten Stand zu halten, haben wir alle im Mai veröffentlichten Sicherheitspatches zusammengefasst. Apple, Google und Microsoft haben letzten Monat alle wichtige Patches veröffentlicht – stellen Sie sicher, dass Sie auf dem neuesten Stand sind.

Und es gibt noch mehr. Jede Woche fassen wir die Sicherheitsthemen zusammen, über die wir selbst nicht ausführlich berichtet haben. Klicken Sie auf die Schlagzeilen, um die vollständigen Geschichten zu lesen. Und bleiben Sie da draußen in Sicherheit.

Lina Khan, die Vorsitzende der US-amerikanischen Federal Trade Commission, warnte diese Woche, dass die Behörde Kriminelle sehe, die Tools der künstlichen Intelligenz nutzen, um Betrug und Betrügereien „anzukurbeln“. Die Kommentare, die in New York gemacht wurden und erstmals von berichtet wurden Bloombergzitierte Beispiele für Voice-Cloning-Technologie, bei der KI eingesetzt wurde, um Menschen vorzutäuschen, sie hörten die Stimme eines Familienmitglieds.

Jüngste Fortschritte beim maschinellen Lernen haben es ermöglicht, die Stimmen von Menschen mit nur wenigen kurzen Trainingsdatenclips nachzuahmen – obwohl Experten sagen, dass KI-generierte Sprachclips in der Qualität stark variieren können. In den letzten Monaten gab es jedoch eine gemeldeter Anstieg in der Anzahl der Betrugsversuche offenbar handelt es sich dabei um generierte Audioclips. Khan sagte, dass Beamte und Gesetzgeber „frühzeitig wachsam sein müssen“ und dass, obwohl neue Gesetze zur Regelung der KI in Betracht gezogen würden, bestehende Gesetze in vielen Fällen immer noch gelten.

In einem seltenen Eingeständnis des Scheiterns sagten nordkoreanische Führer, dass der Versuch des Einsiedlerstaates, einen Spionagesatelliten in die Umlaufbahn zu bringen, diese Woche nicht wie geplant verlaufen sei. Sie sagten auch, das Land werde in Zukunft einen weiteren Start versuchen. Am 31. Mai startete die Chollima-1-Rakete, die den Satelliten trug, erfolgreich, aber es gelang ihr nicht Die zweite Stufe funktionierte nicht, wodurch die Rakete ins Meer stürzte. Der Start löste in Südkorea einen Notfall-Evakuierungsalarm aus, der jedoch später von den Behörden zurückgezogen wurde.

Der Satellit wäre Nordkoreas erster offizieller Spionagesatellit gewesen, was Experten sagen, dass er ihm das geben würde Fähigkeit, die koreanische Halbinsel zu überwachen. Das Land hat bereits zuvor Satelliten gestartet, aber Experten gehen davon aus, dass sie keine Bilder nach Nordkorea zurückgeschickt haben. Der gescheiterte Start erfolgt zu einer Zeit hoher Spannungen auf der Halbinsel, da Nordkorea weiterhin versucht, High-Tech-Waffen und Raketen zu entwickeln. Als Reaktion auf den Start gab Südkorea bekannt neue Sanktionen gegen die Hackergruppe Kimsukydas mit Nordkorea in Verbindung steht und geheime Informationen im Zusammenhang mit der Weltraumentwicklung gestohlen haben soll.

In den letzten Jahren geriet Amazon wegen laxer Kontrollen der personenbezogenen Daten in die Kritik. Diese Woche hat die US-amerikanische Federal Trade Commission mit Unterstützung des Justizministeriums dem Technologieriesen einen Schlag versetzt zwei Siedlungen für eine ganze Reihe von Versäumnissen in Bezug auf Kinderdaten und seine Ring-Smart-Home-Kameras.

In einem Fall, sagen Beamte, spionierte ein ehemaliger Ring-Mitarbeiter im Jahr 2017 weibliche Kunden aus – Amazon kaufte Ring im Jahr 2018 – und sah sich Videos von ihnen in ihren Schlafzimmern und Badezimmern an. Die FTC sagt, Ring habe den Mitarbeitern „gefährlich weitreichenden Zugriff“ auf Videos gewährt und eine „nachlässige Haltung gegenüber Datenschutz und Sicherheit“ gehabt. In einem separate ErklärungLaut FTC habe Amazon Aufzeichnungen von Kindern gemacht, die seinen Sprachassistenten Alexa nutzten, und keine Daten gelöscht, als die Eltern dies verlangten.

Die FTC forderte Amazon auf, als Reaktion auf die beiden Vergleiche rund 30 Millionen US-Dollar zu zahlen und einige neue Datenschutzmaßnahmen einzuführen. Vielleicht noch folgerichtiger war die Aussage der FTC, dass Amazon löschen oder vernichten soll Ringaufzeichnungen von vor März 2018 sowie alle „Modelle oder Algorithmen“, die aus den unsachgemäß erfassten Daten entwickelt wurden. Die Anordnung muss von einem Richter genehmigt werden, bevor sie umgesetzt wird. Amazon hat genannt Sie widerspricht der Meinung der FTC und bestreitet einen „Gesetzesverstoß“, fügt jedoch hinzu, dass „diese Angelegenheiten durch die Vergleiche hinter uns gelassen wurden“.

Während Unternehmen auf der ganzen Welt darum kämpfen, generative KI-Systeme in ihre Produkte zu integrieren, mischt auch die Cybersicherheitsbranche mit. Diese Woche eröffnete OpenAI, der Entwickler der Text- und Bildgenerierungssysteme ChatGPT und Dall-E, ein neues Programm, um herauszufinden, wie KI von Cybersicherheitsexperten am besten genutzt werden kann. Das Projekt bietet Zuschüsse für diejenigen an, die neue Systeme entwickeln.

OpenAI hat eine Reihe potenzieller Projekte vorgeschlagen, die vom Einsatz maschinellen Lernens zur Erkennung von Social-Engineering-Bemühungen und der Erstellung von Bedrohungsinformationen bis hin zur Überprüfung des Quellcodes auf Schwachstellen und der Entwicklung von Honeypots reichen, um Hacker in die Falle zu locken. Während die jüngsten KI-Entwicklungen schneller vonstatten gingen als von vielen Experten vorhergesagt, wird KI bereits seit mehreren Jahren in der Cybersicherheitsbranche eingesetzt – auch wenn viele Behauptungen dem Hype nicht unbedingt gerecht werden.

Die US Air Force testet zügig künstliche Intelligenz in Flugmaschinen – im Januar testete sie ein taktisches Flugzeug, das von KI geflogen wird. Diese Woche machte jedoch eine neue Behauptung die Runde: Während eines simulierten Tests habe eine von KI gesteuerte Drohne begonnen, einen menschlichen Bediener, der sie beaufsichtigte, anzugreifen und zu „töten“, weil sie sie daran gehindert hätten, ihre Ziele zu erreichen.

„Das System begann zu erkennen, dass es zwar die Bedrohung erkannte, der menschliche Bediener ihm jedoch manchmal sagte, es solle diese Bedrohung nicht töten, aber es erhielt seine Vorteile, indem es diese Bedrohung tötete“, sagte Colnel Tucker Hamilton laut a Zusammenfassung einer Veranstaltung in der Royal Aeronautical Society, in London. Hamilton sagte weiter, dass das System, als es darauf trainiert wurde, den Bediener nicht zu töten, begann, den Kommunikationsturm anzuvisieren, den der Bediener für die Kommunikation mit der Drohne nutzte, und so den Versand seiner Nachrichten verhinderte.

Die US-Luftwaffe gibt jedoch an, dass die Simulation nie stattgefunden habe. Sprecherin Ann Stefanek genannt Die Kommentare seien „aus dem Kontext gerissen und sollten anekdotisch sein“. Hamilton hat es auch geklärt dass er „falsch ausgedrückt“ habe und von einem „Gedankenexperiment“ gesprochen habe.

Dennoch verdeutlicht das beschriebene Szenario die unbeabsichtigte Art und Weise, wie automatisierte Systeme die ihnen auferlegten Regeln umgehen könnten, um die Ziele zu erreichen, die sie sich gesetzt haben. Genannt Spezifikation Gaming von Forschern, anderen Instanzen habe eine simulierte Version von gesehen Tetris Unterbrechen Sie das Spiel, um nicht zu verlieren, und ein KI-Spielcharakter hat sich im ersten Level selbst getötet, um im nächsten Level nicht zu sterben.

source-114

Leave a Reply