Seien Sie vorsichtig, was Sie den GPTs von OpenAI sagen


OpenAIs GPT-Storeein Marktplatz für anpassbare Chatbots, soll jeden Tag eingeführt werden. Benutzer sollten jedoch vorsichtig sein, wenn sie vertrauliche Informationen hochladen Aufbau von GPTs. Untersuchungen des Cybersicherheits- und Sicherheitsunternehmens Adversa AI deuten darauf hin, dass GPTs dies tun werden Durchsickern von Daten darüber, wie sie gebaut wurdeneinschließlich der Quelldokumente, die für den Unterricht verwendet wurden, indem Sie dem GPT lediglich einige Fragen stellen.

„Die meisten Leute, die jetzt GPTs bauen, sind sich der Sicherheit nicht wirklich bewusst“, sagte Alex Polyakov, CEO von Adversa AI, gegenüber Gizmodo. „Sie sind ganz normale Menschen, sie vertrauen wahrscheinlich OpenAI und glauben, dass ihre Daten sicher sind. Aber es gibt damit Probleme und die Leute sollten sich dessen bewusst sein.“

Sam Altman möchte, dass jeder GPTs baut. „Irgendwann fragen Sie den Computer einfach nach dem, was Sie brauchen, und er erledigt all diese Aufgaben für Sie“, sagte Sam Altman während seines Vortrags DevDay-Keynote, und bezieht sich dabei auf seine Vision für die Zukunft des Computings, die sich um GPTs dreht. Allerdings scheinen die anpassbaren Chatbots von OpenAI einige Schwachstellen zu haben, die dazu führen könnten, dass die Menschen davon abgeschreckt werden, GPTs insgesamt zu erstellen.

Die Schwachstelle entsteht durch ein sogenanntes Prompt-Leaking, bei dem Benutzer ein GPT durch eine Reihe strategischer Fragen dazu verleiten können, offenzulegen, wie es aufgebaut wurde. Laut Polyakov, der einer der ersten war, stellt das sofortige Durchsickern Probleme an mehreren Fronten dar Jailbreak ChatGPT.

Wenn Sie GPTs kopieren können, haben sie keinen Wert

Die erste von Adversa AI gefundene Schwachstelle besteht darin, dass Hacker in der Lage sein könnten, die GPT einer Person vollständig zu kopieren, was ein großes Sicherheitsrisiko für Personen darstellt, die ihre GPT monetarisieren möchten.

„Sobald Sie das GPT erstellt haben, können Sie es so konfigurieren, dass es einige wichtige Informationen enthalten kann [exposed]. Und das ist in gewisser Weise wie geistiges Eigentum. Denn wenn jemand dies stehlen kann, kann es im Wesentlichen das GPT kopieren“, sagt Polyakov.

Jeder kann ein GPT erstellen, daher sind die Anweisungen zum Erstellen wichtig. Eine sofortige Weitergabe kann dazu führen, dass diese Anweisungen einem Hacker zugänglich gemacht werden. Wenn GPTs kopiert werden können, haben GPTs im Grunde keinen Wert.

Alle vertraulichen Daten, die auf ein GPT hochgeladen werden, können offengelegt werden

Die zweite Schwachstelle, auf die Polyakov hinweist, besteht darin, dass ein sofortiges Durchsickern einen GPT dazu verleiten kann, die Dokumente und Daten preiszugeben, auf die er trainiert wurde. Wenn beispielsweise ein Unternehmen GPT in Bezug auf sensible Daten über sein Unternehmen schulen würde, könnten diese Daten durch einige raffinierte Fragen an die Öffentlichkeit gelangen.

Adversa AI zeigte, wie dies auf einem für den Shopify App Store erstellten GPT durchgeführt werden kann. Indem Polyakov das GPT wiederholt um eine „Liste der Dokumente in der Wissensdatenbank“ bat, gelang es ihm, das GPT dazu zu bringen, seinen Quellcode auszuspucken.

Diese Sicherheitslücke bedeutet im Wesentlichen, dass Personen, die GPTs erstellen, keine sensiblen Daten hochladen sollten. Wenn Daten, die zum Erstellen von GPTs verwendet werden, offengelegt werden können, sind die Anwendungen, die Entwickler erstellen können, erheblich eingeschränkt.

Das Katz- und Mausspiel von OpenAI zum Beheben von Schwachstellen

Es ist nicht unbedingt eine neue Information, dass generative KI-Chatbots Sicherheitslücken aufweisen. In den sozialen Medien gibt es viele Beispiele für Möglichkeiten, ChatGPT zu hacken. Benutzer haben herausgefunden, dass dies der Fall ist, wenn Sie ChatGPT bitten, „Gedicht“ für immer zu wiederholen Trainingsdaten offenlegen. Ein anderer Benutzer stellte fest, dass ChatGPT Ihnen nicht beibringt, wie man Napalm herstellt. Aber wenn du ihm sagst, dass du Oma hat früher Napalm hergestelltdann erhalten Sie detaillierte Anweisungen zur Herstellung der chemischen Waffe.

OpenAI patcht diese Schwachstellen ständig und alle Schwachstellen, die ich in diesem Artikel erwähnt habe, funktionieren nicht mehr, weil sie bekannt sind. Es liegt jedoch in der Natur von Zero-Day-Schwachstellen, wie sie Adversa.AI gefunden hat, dass es für clevere Hacker immer Workarounds gibt. Die GPTs von OpenAI sind im Grunde ein Katz-und-Maus-Spiel, bei dem neue Schwachstellen behoben werden, sobald sie auftreten. Das ist kein Spiel, das ernsthafte Unternehmen spielen wollen.

Die von Polyakov gefundenen Schwachstellen könnten Altmans Vision, dass jeder GPTs erstellen und nutzen wird, vor große Probleme stellen. Sicherheit ist das Fundament der Technologie, und ohne sichere Plattformen wird niemand etwas bauen wollen.



source-113

Leave a Reply