Microsofts „Security Copilot“ Sics ChatGPT zu Sicherheitsverletzungen


Jakkal sagt, dass Sicherheitstools für maschinelles Lernen zwar in bestimmten Bereichen wie der Überwachung von E-Mails oder Aktivitäten auf einzelnen Geräten – bekannt als Endpunktsicherheit – effektiv waren, Security Copilot jedoch all diese separaten Ströme zusammenführt und ein größeres Bild extrapoliert. „Mit Security Copilot können Sie einfangen, was andere möglicherweise übersehen haben, weil es dieses Bindegewebe bildet“, sagt sie.

Security Copilot basiert größtenteils auf ChatGPT-4 von OpenAI, Microsoft betont jedoch, dass es auch ein proprietäres sicherheitsspezifisches Modell von Microsoft integriert. Das System verfolgt alles, was während einer Untersuchung getan wird. Der resultierende Datensatz kann überprüft werden, und die Materialien, die er für die Verteilung erstellt, können alle auf Genauigkeit und Klarheit bearbeitet werden. Wenn etwas, das Copilot während einer Untersuchung vorschlägt, falsch oder irrelevant ist, können Benutzer auf die Schaltfläche „Off Target“ klicken, um das System weiter zu trainieren.

Die Plattform bietet Zugriffskontrollen, sodass bestimmte Kollegen für bestimmte Projekte freigegeben werden können und andere nicht, was besonders wichtig für die Untersuchung möglicher Insider-Bedrohungen ist. Und Security Copilot ermöglicht eine Art Backstop für die Überwachung rund um die Uhr. Auf diese Weise kann das System grundlegende Analysen und Vorschläge anbieten, um Lücken zu schließen, selbst wenn jemand mit bestimmten Fähigkeiten nicht in einer bestimmten Schicht oder an einem bestimmten Tag arbeitet. Wenn ein Team beispielsweise schnell ein möglicherweise bösartiges Skript oder eine Software-Binärdatei analysieren möchte, kann Security Copilot mit dieser Arbeit beginnen und das Verhalten der Software und ihre möglichen Ziele kontextualisieren.

Microsoft betont, dass Kundendaten nicht mit anderen geteilt und „nicht verwendet werden, um grundlegende KI-Modelle zu trainieren oder anzureichern“. Microsoft ist jedoch stolz darauf, „65 Billionen tägliche Signale“ von seiner riesigen Kundenbasis auf der ganzen Welt zu verwenden, um seine Bedrohungserkennungs- und Abwehrprodukte zu informieren. Jakkal und ihr Kollege Chang Kawaguchi, Vizepräsident und KI-Sicherheitsarchitekt von Microsoft, betonen jedoch, dass Security Copilot denselben Einschränkungen und Vorschriften für die gemeinsame Nutzung von Daten unterliegt wie alle Sicherheitsprodukte, in die es integriert ist. Wenn Sie also bereits Microsoft Sentinel oder Defender verwenden, muss Security Copilot die Datenschutzrichtlinien dieser Dienste einhalten.

Kawaguchi sagt, dass Security Copilot so flexibel und offen wie möglich aufgebaut wurde und dass Kundenreaktionen zukünftige Funktionserweiterungen und -verbesserungen beeinflussen werden. Die Nützlichkeit des Systems hängt letztendlich davon ab, wie aufschlussreich und genau es über das Netzwerk jedes Kunden und die Bedrohungen sein kann, denen er ausgesetzt ist. Aber Kawaguchi sagt, das Wichtigste sei, dass die Verteidiger so schnell wie möglich von der generativen KI profitieren.

Wie er es ausdrückt: „Wir müssen die Verteidiger mit KI ausstatten, da die Angreifer sie verwenden werden, unabhängig davon, was wir tun.“

source-114

Leave a Reply