Tim Cook sagt, dass Apple KI in Produkte einweben wird, während Forscher daran arbeiten, Vorurteile zu beseitigen

CEO Tim Cook gab einen seltenen, wenn auch zurückhaltenden Einblick in Apples Walled Garden während des Q&A-Teils einer kürzlichen Telefonkonferenz zu den Ergebnissen, als er nach seinen Gedanken zur generativen künstlichen Intelligenz (KI) gefragt wurde und wo er „sie hinführt“.

Cook verzichtete auf die Offenlegung von Apples Plänen und erklärte im Voraus: „Wir kommentieren keine Produkt-Roadmaps.“ Er tat es jedoch intim dass das Unternehmen an der Fläche interessiert war:

„Ich denke, es ist sehr wichtig, bewusst und überlegt an diese Dinge heranzugehen. Und es gibt eine Reihe von Problemen, die geklärt werden müssen. … Aber das Potenzial ist sicherlich sehr interessant.“

Der CEO fügte später hinzu, das Unternehmen betrachte „KI als riesig“ und werde „sie weiterhin sehr durchdacht in unsere Produkte einweben“.

Cooks Kommentare zu einem „absichtlichen und durchdachten“ Ansatz könnten die Abwesenheit des Unternehmens im Bereich der generativen KI erklären. Es gibt jedoch einige Hinweise darauf, dass Apple eigene Forschungen zu verwandten Modellen durchführt.

Eine Forschungsarbeit geplant die im Juni auf der Konferenz „Interaction Design and Children“ veröffentlicht werden sollen, beschreibt ein neuartiges System zur Bekämpfung von Voreingenommenheit bei der Entwicklung von Datensätzen für maschinelles Lernen.

Bias – die Tendenz eines KI-Modells, unfaire oder ungenaue Vorhersagen auf der Grundlage falscher oder unvollständiger Daten zu treffen – ist oft zitiert als eines der dringendsten Anliegen für die sichere und ethische Entwicklung generativer KI-Modelle.

Das Papier, das derzeit sein kann lesen beschreibt im Preprint ein System, mit dem mehrere Benutzer mit gleichem Input zur Entwicklung des Datensatzes eines KI-Systems beitragen würden.

Die generative KI-Entwicklung auf Status quo fügt menschliches Feedback erst in späteren Stadien hinzu, wenn die Modelle in der Regel bereits Trainingsverzerrungen aufweisen.

Die neue Apple-Forschung integriert menschliches Feedback in den sehr frühen Phasen der Modellentwicklung, um den Datenauswahlprozess im Wesentlichen zu demokratisieren. Das Ergebnis ist laut den Forschern ein System, das einen „praktischen, kollaborativen Ansatz zur Einführung von Strategien zur Erstellung ausgewogener Datensätze“ verwendet.

Verwandt: Das Blackbox-Problem der KI: Herausforderungen und Lösungen für eine transparente Zukunft

Es muss erwähnt werden, dass diese Forschungsstudie als pädagogisches Paradigma konzipiert wurde, um das Interesse von Anfängern an der Entwicklung von maschinellem Lernen zu fördern.

Es könnte sich als schwierig erweisen, die in der Veröffentlichung beschriebenen Techniken für die Verwendung beim Training großer Sprachmodelle (LLMs) wie ChatGPT und Google Bard zu skalieren. Die Forschung zeigt jedoch einen alternativen Ansatz zur Bekämpfung von Vorurteilen.

Letztendlich könnte die Schaffung eines LLM ohne unerwünschte Voreingenommenheit einen Meilenstein auf dem Weg zur Entwicklung von KI-Systemen auf menschlicher Ebene darstellen.

Solche Systeme werden jeden Aspekt des Technologiesektors stören, insbesondere die Welten von Fintech, Kryptowährungshandel und Blockchain. Unvoreingenommene Aktien- und Krypto-Trading-Bots, die zum Beispiel auf menschlicher Ebene logisch denken können, könnten den globalen Finanzmarkt aufrütteln, indem sie Handelswissen auf hohem Niveau demokratisieren.

Darüber hinaus könnte der Nachweis eines unvoreingenommenen LLM einen großen Beitrag zur Befriedigung staatlicher Sicherheits- und ethischer Bedenken für die generative KI-Industrie leisten.

Dies ist besonders bemerkenswert für Apple, da jedes generative KI-Produkt, das es entwickelt oder unterstützt, vom integrierten KI-Chipsatz des iPhones und seinen 1,5 Milliarden Benutzern profitieren würde.