Was du wissen musst
- Laut a neuer Bericht Laut CNBC wurde Microsoft-Mitarbeitern vorübergehend der Zugriff auf ChatGPT untersagt.
- Microsoft gab an, den Zugriff aufgrund von Sicherheits- und Datenschutzbedenken eingeschränkt zu haben.
- Ein Microsoft-Sprecher gibt an, dass es sich bei der Sperrung um einen Fehler handelte und dass sie auftrat, als das Unternehmen Endpunktkontrollsysteme für LLMs testete.
- Microsoft empfiehlt die Verwendung von Bing Chat Enterprise und ChatGPT Enterprise, die mehr Sicherheit und Datenschutz bieten.
Laut dem Work Index Report von Microsoft gaben 70 % der an der Umfrage teilnehmenden Mitarbeiter an, dass sie bereit seien, die Technologie zu übernehmen und in ihren Arbeitsablauf zu integrieren, um alltägliche Aufgaben zu erledigen.
Es ist offensichtlich, dass Microsoft-Mitarbeiter KI nutzen, um einige Aufgaben innerhalb des Unternehmens zu erledigen, insbesondere nachdem die Partnerschaft mit OpenAI durch eine Investition in Höhe von mehreren Milliarden Dollar erweitert wurde. Allerdings ein neuer Bericht von CNBC zitiert, dass Microsoft-Mitarbeitern am Donnerstag kurzzeitig der Zugriff auf ChatGPT untersagt wurde.
Laut mit dem Problem vertrauten Personen hat Microsoft beschlossen, den Zugriff auf das KI-gestützte Tool aufgrund von „Sicherheits- und Datenbedenken“ vorübergehend einzuschränken. Microsoft hat zu diesem Problem die folgende Erklärung abgegeben:
„Obwohl es wahr ist, dass Microsoft in OpenAI investiert hat und dass ChatGPT über eingebaute Schutzmaßnahmen zur Verhinderung missbräuchlicher Nutzung verfügt, handelt es sich bei der Website dennoch um einen externen Dienst eines Drittanbieters. Das bedeutet, dass Sie bei der Nutzung aufgrund von Datenschutzrisiken Vorsicht walten lassen müssen.“ Sicherheit. Dies gilt auch für alle anderen externen KI-Dienste wie Midjourney oder Replika.“
Beim Sprechen mit CNBCMicrosoft gab an, dass der eingeschränkte ChatGPT-Zugriff ein Fehler sei, der dem Unternehmen passiert sei führte eine Reihe von Tests an großen Sprachmodellen durch.
Es ist offensichtlich, dass große Bedenken hinsichtlich der Sicherheit und des Datenschutzes der Technologie bestehen. Präsident Biden hat eine Durchführungsverordnung erlassen, in der die meisten dieser Bedenken berücksichtigt werden. Dennoch besteht weiterhin ein dringender Bedarf an Leitplanken und ausgefeilten Maßnahmen, die dazu beitragen, dass die generative KI nicht außer Kontrolle gerät.
Diese Nachricht kommt, nachdem OpenAI einen ChatGPT-Ausfall bestätigt hat, der durch einen DDoS-Angriff verursacht wurde. Der Ausfall verhinderte, dass Benutzer die Funktionen des Chatbots vollständig nutzen konnten, und versorgte sie stattdessen mit Fehlermeldungen.
Microsoft hat die KI-Sicherheitslage im Griff
Im Juni veröffentlichte ein Cybersicherheitsunternehmen einen Bericht, in dem es hieß, dass in den letzten 12 Monaten über 100.000 ChatGPT-Zugangsdaten auf Dark-Web-Marktplätzen gehandelt wurden. Das Sicherheitsunternehmen wies außerdem darauf hin, dass die Angreifer Malware zum Informationsdiebstahl nutzten, um Zugriff auf diese Anmeldeinformationen zu erhalten, und empfahl Benutzern, ihre Passwörter regelmäßig zu ändern, um Hacker auf Distanz zu halten.
In einem anderen Bericht wurde darauf hingewiesen, dass Hacker sich aufrafften und ausgefeilte Techniken, einschließlich generativer KI, nutzten, um böswillige Angriffe auf ahnungslose Benutzer durchzuführen. Vor diesem Hintergrund ist es nicht ganz falsch, dass Microsoft die Nutzung KI-gestützter Tools einschränkt, insbesondere aus Sicherheits- und Datenschutzgründen.
Was denken Sie über KI-Sicherheit und Datenschutz? Lass es uns in den Kommentaren wissen.