Nachdem Samsung Semiconductor seinen Fab-Ingenieuren ChatGPT zur Unterstützung zur Verfügung gestellt hatte, begannen sie damit, Fehler in ihrem Quellcode schnell zu beheben und dabei vertrauliche Informationen wie Notizen von internen Meetings und Daten zur Fab-Leistung und -Ausbeute durchsickern zu lassen. Das Unternehmen plant nun, einen eigenen ChatGPT-ähnlichen KI-Dienst für den internen Gebrauch zu entwickeln. Aber vorerst begrenzt es die Länge der an den Dienst übermittelten Fragen auf 1024 Bytes, Berichte Ökonom.
Bisher hat Samsung Semiconductor drei Fälle von ChatGPT-Nutzung aufgezeichnet, die zu einem Datenleck geführt haben. Während drei nicht viel erscheinen mögen, sind sie alle im Laufe von 20 Tagen passiert, daher ist die Situation ziemlich beunruhigend.
In einem Fall übermittelte ein Mitarbeiter von Samsung Semiconductor den Quellcode eines proprietären Programms an ChatGPT, um Fehler zu beheben, wodurch im Wesentlichen der Code einer streng geheimen Anwendung an eine von einem externen Unternehmen betriebene künstliche Intelligenz weitergegeben wurde.
Der zweite Fall war vielleicht noch alarmierender, als ein anderer Mitarbeiter Testmuster eingab, die dazu dienten, defekte Chips zu identifizieren, und eine Optimierung anforderte. Testsequenzen zur Fehlererkennung sind streng vertraulich. Durch die Optimierung dieser Testsequenzen und die mögliche Reduzierung ihrer Anzahl können die Test- und Verifizierungsverfahren für Silizium beschleunigt und die Kosten erheblich gesenkt werden.
Noch ein anderer Mitarbeiter nutzte die Naver Clova Anwendung zum Konvertieren einer Besprechungsaufzeichnung in ein Dokument und reichte sie dann an ChatGPT ein, um eine Präsentation vorzubereiten.
Diese Aktionen gefährden eindeutig vertrauliche Informationen und veranlassen Samsung, seine Mitarbeiter vor den Gefahren der Verwendung von ChatGPT zu warnen. Samsung Electronics informierte seine Führungskräfte und Mitarbeiter darüber, dass in ChatGPT eingegebene Daten auf externen Servern übertragen und gespeichert werden, was es dem Unternehmen unmöglich macht, sie abzurufen, und das Risiko des Durchsickerns vertraulicher Informationen erhöht. Während ChatGPT ein leistungsstarkes Tool ist, kann seine Funktion für offene Lerndaten sensible Informationen an Dritte weitergeben, was in der hart umkämpften Halbleiterindustrie nicht akzeptabel ist.
Der Mischkonzern bereitet derzeit Schutzmaßnahmen vor, um ähnliche Unfälle in Zukunft zu verhindern. Wenn ein weiterer Vorfall auftritt, kann der Zugriff auf ChatGPT auch nach der Implementierung von Notfallmaßnahmen zum Schutz von Informationen im Unternehmensnetzwerk blockiert werden. Dennoch ist klar, dass Dinge wie generative KI und verschiedene KI-fähige Tools zur Automatisierung des elektronischen Designs ein wichtiger Aspekt der Zukunft der Chipproduktion sind.
Auf die Frage nach dem Informationsleck-Vorfall lehnte es ein Sprecher von Samsung Electronics ab, die Informationen zu bestätigen oder abzulehnen, da es sich um eine interne Angelegenheit handele.