Denken Sie, dass KI-Tools Ihre Daten nicht erfassen? Rate nochmal

Der kometenhafte Aufstieg der generativen künstlichen Intelligenz hat dank benutzerorientierter Produkte wie ChatGPT, Dall-E und Lensa von OpenAI eine echte Technologiesensation geschaffen. Der Boom der benutzerfreundlichen KI geht jedoch mit der Tatsache einher, dass Benutzer die Datenschutzrisiken, die diese Projekte mit sich bringen, scheinbar ignorieren oder im Unklaren darüber gelassen werden.

Inmitten dieses ganzen Hypes beginnen jedoch internationale Regierungen und große Technologiekonzerne, Alarm zu schlagen. Unter Berufung auf Datenschutz- und Sicherheitsbedenken hat Italien gerade ein vorübergehendes Verbot von ChatGPT verhängt, was möglicherweise zu einer ähnlichen Blockierung in Deutschland geführt hat. Im privaten Sektor haben Hunderte von KI-Forschern und Technologieführern, darunter Elon Musk und Steve Wozniak, einen offenen Brief unterzeichnet, in dem sie ein sechsmonatiges Moratorium für die KI-Entwicklung über den Rahmen von GPT-4 hinaus fordern.

Das relativ schnelle Handeln, mit dem versucht wird, die unverantwortliche KI-Entwicklung einzudämmen, ist lobenswert, aber die umfassendere Bedrohungslandschaft, die KI für den Datenschutz und die Sicherheit darstellt, geht über ein einzelnes Modell oder einen einzelnen Entwickler hinaus. Auch wenn niemand die Parade der paradigmenwechselnden Fähigkeiten der KI auf sich wirken lassen möchte, ist es notwendig, ihre Mängel jetzt direkt anzugehen, um zu verhindern, dass die Folgen katastrophal werden.

KIs Datenschutzsturm

Während man leicht sagen könnte, dass OpenAI und andere von Big Tech betriebene KI-Projekte allein für das Datenschutzproblem von KI verantwortlich sind, wurde das Thema schon lange vor seinem Einzug in den Mainstream angesprochen. Skandale rund um den Datenschutz in der KI gab es schon vor diesem Vorgehen gegen ChatGPT – sie ereigneten sich größtenteils im Verborgenen der Öffentlichkeit.

Erst letztes Jahr wurde Clearview AI, einem KI-basierten Unternehmen für Gesichtserkennung, das Berichten zufolge von Tausenden von Regierungen und Strafverfolgungsbehörden mit begrenztem öffentlichen Wissen eingesetzt wird, der Verkauf von Gesichtserkennungstechnologie an private Unternehmen in den Vereinigten Staaten verboten. Clearview verhängte im Vereinigten Königreich außerdem eine Geldstrafe von 9,4 Millionen US-Dollar wegen seiner illegalen Gesichtserkennungsdatenbank. Wer sagt, dass verbraucherorientierte visuelle KI-Projekte wie Midjourney oder andere nicht für ähnliche Zwecke genutzt werden können?

Das Problem ist, dass sie es bereits waren. Eine Reihe neuer Deepfake-Skandale im Zusammenhang mit Pornografie und gefälschten Nachrichten, die durch KI-Produkte auf Verbraucherebene erstellt wurden, haben die Dringlichkeit, Benutzer vor schändlicher KI-Nutzung zu schützen, nur noch verstärkt. Es basiert auf einem hypothetischen Konzept der digitalen Mimikry und macht es zu einer sehr realen Bedrohung für gewöhnliche Menschen und einflussreiche Persönlichkeiten des öffentlichen Lebens.

Verwandt: Elizabeth Warren möchte, dass die Polizei im Jahr 2024 vor Ihrer Tür steht

Generative KI-Modelle stützen sich grundsätzlich auf neue und vorhandene Daten, um ihre Fähigkeiten und Benutzerfreundlichkeit aufzubauen und zu stärken. Dies ist einer der Gründe, warum ChatGPT so beeindruckend ist. Allerdings muss ein Modell, das auf neuen Dateneingaben basiert, einen Ort benötigen, an dem diese Daten abgerufen werden können, und ein Teil davon umfasst unweigerlich auch die personenbezogenen Daten der Personen, die es verwenden. Und diese Datenmengen können leicht missbraucht werden, wenn zentrale Stellen, Regierungen oder Hacker an sie gelangen.

Was können Unternehmen und Benutzer, die mit diesen Produkten arbeiten, jetzt angesichts des begrenzten Umfangs umfassender Vorschriften und widersprüchlicher Meinungen zur KI-Entwicklung tun?

Was Unternehmen und Anwender tun können

Die Tatsache, dass Regierungen und andere Entwickler nun ihre Alarmglocken in Bezug auf KI hissen, deutet tatsächlich darauf hin, dass die Regulierung von Web2-Anwendungen und Kryptowährungen langsam voranschreitet. Aber Flaggen zu hissen ist nicht dasselbe wie Aufsicht. Daher ist es wichtig, ein Gefühl der Dringlichkeit aufrechtzuerhalten, ohne alarmierend zu sein, um wirksame Vorschriften zu schaffen, bevor es zu spät ist.

Italiens ChatGPT-Verbot ist nicht der erste Schlag, den Regierungen gegen KI unternehmen. Die EU und Brasilien erlassen Gesetze, um bestimmte Arten der KI-Nutzung und -Entwicklung zu sanktionieren. Ebenso hat das Potenzial generativer KI, Datenschutzverletzungen zu begehen, zu frühen gesetzgeberischen Maßnahmen der kanadischen Regierung geführt.

Das Problem der KI-Datenverstöße ist so schwerwiegend, dass sogar OpenAI eingreifen musste. Wenn Sie ChatGPT vor ein paar Wochen geöffnet haben, ist Ihnen möglicherweise aufgefallen, dass die Chat-Verlaufsfunktion deaktiviert war. OpenAI hat die Funktion aufgrund eines schwerwiegenden Datenschutzproblems vorübergehend abgeschaltet, bei dem Eingabeaufforderungen von Fremden offengelegt und Zahlungsinformationen preisgegeben wurden.

Verwandt: Seien Sie nicht überrascht, wenn KI versucht, Ihre Kryptowährung zu sabotieren

Während OpenAI dieses Feuer effektiv gelöscht hat, kann es schwierig sein, Programmen zu vertrauen, die von Web2-Giganten angeführt werden, die ihre KI-Ethikteams kürzen, um präventiv das Richtige zu tun.

Auf branchenweiter Ebene würde eine KI-Entwicklungsstrategie, die sich stärker auf föderiertes maschinelles Lernen konzentriert, auch den Datenschutz verbessern. Federated Learning ist eine kollaborative KI-Technik, die KI-Modelle trainiert, ohne dass jemand Zugriff auf die Daten hat, und stattdessen mehrere unabhängige Quellen nutzt, um den Algorithmus mit ihren eigenen Datensätzen zu trainieren.

Für den Benutzer ist es unnötig, ein KI-Luddit zu werden und ganz auf die Verwendung dieser Programme zu verzichten, und wird wahrscheinlich bald unmöglich sein. Es gibt jedoch Möglichkeiten, intelligenter zu entscheiden, auf welche generative KI Sie im täglichen Leben Zugriff gewähren. Für Unternehmen und kleine Unternehmen, die KI-Produkte in ihre Abläufe integrieren, ist es umso wichtiger, wachsam zu sein, welche Daten Sie dem Algorithmus zuführen.

Das immer wiederkehrende Sprichwort lautet: Wenn Sie ein kostenloses Produkt nutzen, werden Ihre persönlichen Daten gespeichert Ist Das Produkt gilt weiterhin für KI. Wenn Sie dies im Hinterkopf behalten, werden Sie möglicherweise noch einmal darüber nachdenken, in welche KI-Projekte Sie Ihre Zeit investieren und wofür Sie sie tatsächlich einsetzen. Wenn Sie an jedem einzelnen Social-Media-Trend teilgenommen haben, bei dem es darum geht, Fotos von sich selbst an eine zwielichtige, KI-gestützte Website zu senden, sollten Sie darüber nachdenken, darauf zu verzichten.

ChatGPT erreichte nur zwei Monate nach seiner Einführung 100 Millionen Nutzer, eine erstaunliche Zahl, die deutlich zeigt, dass unsere digitale Zukunft KI nutzen wird. Doch trotz dieser Zahlen ist KI noch nicht allgegenwärtig. Regulierungsbehörden und Unternehmen sollten dies zu ihrem Vorteil nutzen, um proaktiv Rahmenbedingungen für eine verantwortungsvolle und sichere KI-Entwicklung zu schaffen, anstatt Projekten nachzujagen, sobald sie zu groß werden, um kontrolliert zu werden. Derzeit ist die Entwicklung der generativen KI nicht im Gleichgewicht zwischen Schutz und Fortschritt, aber es bleibt noch Zeit, den richtigen Weg zu finden, um sicherzustellen, dass Benutzerinformationen und Datenschutz weiterhin im Vordergrund stehen.

Ryan Paterson ist der Präsident von Unplugged. Bevor er die Leitung von Unplugged übernahm, war er von 2008 bis 2020 Gründer, Präsident und CEO von IST Research. Er verließ IST Research mit dem Verkauf des Unternehmens im September 2020. Er absolvierte zwei Touren bei der Defense Advanced Research Agency und 12 Jahre im United States Marine Corps.

Erik Prince ist ein Unternehmer, Philanthrop und Navy SEAL-Veteran mit Geschäftsinteressen in Europa, Afrika, dem Nahen Osten und Nordamerika. Er fungierte als Gründer und Vorsitzender der Frontier Resource Group und als Gründer von Blackwater USA – einem Anbieter globaler Sicherheits-, Schulungs- und Logistiklösungen für die US-Regierung und andere Unternehmen – bevor er das Unternehmen im Jahr 2010 verkaufte.

Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als Rechts- oder Anlageberatung gedacht und sollte auch nicht als solche verstanden werden. Die hier geäußerten Ansichten, Gedanken und Meinungen stammen ausschließlich vom Autor und spiegeln nicht unbedingt die Ansichten und Meinungen von Cointelegraph wider.


source site-4

Leave a Reply