OpenAI startet Bug-Bounty-Programm zur Bekämpfung von Systemschwachstellen

Angesichts von Datenschutz- und Cybersicherheitsproblemen und jüngsten Verboten in verschiedenen Ländern hat das Unternehmen für künstliche Intelligenz (KI) OpenAI ein Programm zur Bekämpfung von Schwachstellenproblemen veröffentlicht.

Am 11. April hat OpenAI, das Unternehmen hinter ChatGPT, angekündigt der Start des OpenAI „Bug Bounty Program“, um Schwachstellen in seinen Systemen zu identifizieren und zu beheben. Laut der Ankündigung belohnt das Programm Sicherheitsforscher für ihre Beiträge zur Sicherheit der Technologie und des Unternehmens von OpenAI.

OpenAI lud die globale Gemeinschaft von Sicherheitsforschern, ethischen Hackern und Technologiebegeisterten ein und bot Anreize für die Qualifizierung von Schwachstelleninformationen. Das KI-Unternehmen glaubt, dass Fachwissen und Wachsamkeit sich direkt auf die Sicherheit seiner Systeme und die Sicherheit der Benutzer auswirken werden.

Der Start des Programms folgt auf eine Erklärung des Kabinettschefs der japanischen Regierung, Hirokazu Matsuno, am Montag, dass Japan erwägen würde, KI-Technologie in Regierungssysteme zu integrieren, vorausgesetzt, Datenschutz- und Cybersicherheitsfragen werden angegangen.

OpenAI gelitten eine Datenschutzverletzung am 20. März, bei der Benutzerdaten aufgrund eines Fehlers in einer Open-Source-Bibliothek einem anderen Benutzer zugänglich gemacht wurden.

In der Ankündigung sagte OpenAI, dass es sich mit Bugcrowd – einer Bug-Bounty-Plattform – zusammengetan hat, um den Einreichungs- und Belohnungsprozess zu verwalten, der ein optimiertes Erlebnis für alle Teilnehmer gewährleisten soll. Geldprämien werden basierend auf dem Schweregrad und den Auswirkungen der gemeldeten Probleme vergeben. Die Belohnungen reichen von 200 US-Dollar für Funde mit geringem Schweregrad bis zu 20.000 US-Dollar für außergewöhnliche Entdeckungen.

Verwandt: Die GPT-4-Apps BabyAGI und AutoGPT könnten disruptive Auswirkungen auf Krypto haben

Safe-Harbor-Schutz wird für Schwachstellenforschung bereitgestellt, die gemäß den von OpenAI aufgelisteten spezifischen Richtlinien durchgeführt wird. Von Forschern wird erwartet, dass sie alle geltenden Gesetze einhalten.

Wenn ein Dritter rechtliche Schritte gegen einen Sicherheitsforscher einleitet, der am Bug-Bounty-Programm von OpenAI teilgenommen hat und der Forscher die Regeln des Programms befolgt hat, wird OpenAI andere darüber informieren, dass der Forscher innerhalb der Richtlinien des Programms gehandelt hat. Dies liegt daran, dass die Systeme von OpenAI mit anderen Systemen und Diensten von Drittanbietern verbunden sind.

Zeitschrift: Alle aufstehen für den Roboter-Richter: KI und Blockchain könnten den Gerichtssaal verändern