Microsoft lässt generative KI auf Cybersicherheit los


Als Teil seines kontinuierlichen Strebens, generative KI in alle seine Produkte einzufügen, stellte Microsoft heute vor Sicherheits-Copilotein neues Tool, das darauf abzielt, Bedrohungsinformationen „zusammenzufassen“ und „zu verstehen“.

In einer detaillierten Ankündigung stellte Microsoft Security Copilot als eine Möglichkeit vor, Daten zu Angriffen zu korrelieren und gleichzeitig Sicherheitsvorfälle zu priorisieren. Unzählige Tools tun dies bereits. Microsoft argumentiert jedoch, dass Security Copilot, das sich in sein bestehendes Sicherheitsproduktportfolio integriert, durch generative KI-Modelle von OpenAI verbessert wird – insbesondere durch das kürzlich eingeführte textgenerierende GPT-4.

„Um den Stand der Sicherheit zu verbessern, sind sowohl Menschen als auch Technologie erforderlich – menschlicher Einfallsreichtum gepaart mit den fortschrittlichsten Tools, die dazu beitragen, menschliches Fachwissen schnell und umfassend anzuwenden“, sagte Charlie Bell, Executive Vice President von Microsoft Security, in einer vorgefertigten Erklärung. „Mit Security Copilot bauen wir eine Zukunft auf, in der jeder Verteidiger mit den Tools und Technologien ausgestattet ist, die erforderlich sind, um die Welt zu einem sichereren Ort zu machen.“

Seltsamerweise hat Microsoft nicht genau preisgegeben, wie Security Copilot GPT-4 integriert. Stattdessen wurde ein trainiertes benutzerdefiniertes Modell – vielleicht GPT-4-basiert – hervorgehoben, das Security Copilot antreibt, das „eine wachsende Reihe von sicherheitsspezifischen Fähigkeiten enthält“ und „Fähigkeiten und Abfragen bereitstellt“, die für die Cybersicherheit relevant sind.

Microsoft betonte, dass das Modell nicht auf Kundendaten trainiert sei, und ging damit auf eine häufige Kritik an sprachmodellgesteuerten Diensten ein.

Dieses benutzerdefinierte Modell hilft „zu erkennen, was andere Ansätze möglicherweise übersehen“, behauptet Microsoft, indem es sicherheitsbezogene Fragen beantwortet, Ratschläge zur besten Vorgehensweise gibt und Ereignisse und Prozesse zusammenfasst. Angesichts der unwahren Tendenzen textgenerierender Modelle ist jedoch unklar, wie effektiv ein solches Modell in der Produktion sein könnte.

Microsoft selbst gibt zu, dass das benutzerdefinierte Security Copilot-Modell nicht immer alles richtig macht. „KI-generierte Inhalte können Fehler enthalten“, schreibt das Unternehmen. „Während wir weiterhin aus diesen Interaktionen lernen, passen wir seine Antworten an, um kohärentere, relevantere und nützlichere Antworten zu erstellen.“

Hoffentlich machen diese Fehler ein schlechtes Sicherheitsproblem nicht noch schlimmer.

source-116

Leave a Reply