Es scheint, dass Samsung wie der Rest der Welt von ChatGPT beeindruckt ist, aber der koreanische Hardware-Riese vertraute dem Chatbot viel wichtigere Informationen an als der durchschnittliche Benutzer und wurde jetzt dreimal verbrannt.
Das Potenzial für KI-Chatbots in der Codierungswelt ist beträchtlich, und Samsung hat Mitarbeitern in seiner Halbleitersparte bisher erlaubt, den Bot von OpenAI zur Behebung von Codierungsfehlern zu verwenden. Erwarten Sie nach drei Informationslecks in einem Monat, dass Samsung sein ChatGPT Plus-Abonnement kündigt. Tatsächlich entwickelt das Unternehmen jetzt seine eigene interne KI, um beim Codieren zu helfen und weitere Ausrutscher zu vermeiden.
Eines der Lecks betrifft Berichten zufolge einen Mitarbeiter, der ChatGPT bittet, Testsequenzen zur Identifizierung von Fehlern in Chips zu optimieren, ein wichtiger Prozess für ein Unternehmen wie Samsung, der große Einsparungen für Hersteller und Verbraucher bringen könnte. Jetzt sitzt OpenAI auf einem Haufen vertraulicher Informationen von Samsung – haben wir erwähnt, dass OpenAI eine Partnerschaft mit Microsoft hat?
Während dies ein ziemlich spezieller Fall ist, ist ein anderer Fall etwas, vor dem gewöhnliche Leute vorsichtig sein sollten. Ein Samsung-Mitarbeiter bat ChatGPT, Notizen aus einem Meeting in eine Präsentation umzuwandeln, eine scheinbar harmlose Anfrage, die nun Informationen an mehrere Dritte weitergegeben hat. Dies ist etwas, das wir alle berücksichtigen sollten, wenn wir ChatGPT und Google Bard verwenden, und mit dem schnellen Aufstieg von KI gibt es wenig rechtliche Präzedenzfälle, auf die man sich verlassen kann.
In seinem Datenschutz-Bestimmungen (öffnet in neuem Tab) (was Samsung hoffentlich vollständig liest) OpenAI erwähnt, dass „wenn Sie unsere Dienste nutzen, wir möglicherweise personenbezogene Daten erfassen, die in den Eingaben, Datei-Uploads oder Rückmeldungen enthalten sind, die Sie unseren Diensten zur Verfügung stellen“. OpenAI behält sich außerdem das Recht vor, gesammelte personenbezogene Daten „für Forschungszwecke“ und „zur Entwicklung neuer Programme und Dienste“ zu verwenden.
Wie sicher ist ChatGPT?
OpenAI macht kein Geheimnis daraus, dass ChatGPT Benutzereingabedaten speichert – es ist immerhin eine der besten Möglichkeiten, den Chatbot zu trainieren und zu verbessern.
Obwohl es unwahrscheinlich ist, dass die meisten von uns vertrauliche Informationen von einem milliardenschweren Unternehmen preisgeben, gibt es auch individuelle Datenschutzbedenken. KI-Chatbots sind so schnell gewachsen, dass es kaum Vorschriften gibt. Dies ist umso besorgniserregender angesichts der Ambitionen von Microsoft, ChatGPT in zu integrieren Büro 365eine Plattform, die täglich Millionen bei der Arbeit nutzen.
Es gibt auch Bedenken in der EU, dass ChatGPT gegen die DSGVO verstößt und Italien es bereits vollständig verboten hat, obwohl dies gerade erst geschehen ist Italiener zu VPNs getrieben. Im Moment müssen die Benutzer ihr eigenes Urteilsvermögen walten lassen und es vermeiden, persönliche Informationen preiszugeben, wenn sie können.