Forscher in China haben eine Halluzinationskorrektur-Engine für KI-Modelle entwickelt

Ein Team von Wissenschaftlern der Universität für Wissenschaft und Technologie Chinas und des YouTu Lab von Tencent hat ein Tool zur Bekämpfung von „Halluzinationen“ durch Modelle der künstlichen Intelligenz (KI) entwickelt.

Halluzination ist die Tendenz eines KI-Modells, mit einem hohen Maß an Zuverlässigkeit Ausgaben zu generieren, die nicht auf der Grundlage der in seinen Trainingsdaten enthaltenen Informationen erscheinen. Dieses Problem durchdringt die Forschung zu großen Sprachmodellen (LLM) und seine Auswirkungen sind in Modellen wie ChatGPT von OpenAI und Claude von Anthropic zu sehen.

Das USTC/Tencent-Team hat ein Tool namens „Woodpecker“ entwickelt, von dem sie behaupten, dass es Halluzinationen in multimodalen großen Sprachmodellen (MLLMs) korrigieren kann.

Diese Teilmenge der KI umfasst Modelle wie GPT-4 (insbesondere seine visuelle Variante GPT-4V) und andere Systeme, die neben der textbasierten Sprachmodellierung auch Seh- und/oder andere Verarbeitungsprozesse in die generative KI-Modalität integrieren.

Laut der vorab veröffentlichten Forschungsarbeit des Teams, Woodpecker Verwendet Drei separate KI-Modelle, abgesehen vom MLLM, das Halluzinationen korrigiert, führen eine Halluzinationskorrektur durch.

Dazu gehören GPT-3.5 Turbo, Grounding DINO und BLIP-2-FlanT5. Zusammen fungieren diese Modelle als Bewerter, um Halluzinationen zu identifizieren und das zu korrigierende Modell anzuweisen, seine Ausgabe entsprechend seinen Daten zu regenerieren.

In jedem der oben genannten Beispiele halluziniert ein LLM eine falsche Antwort (grüner Hintergrund) auf eine Aufforderung (blauer Hintergrund). Die korrigierten Woodpecker-Antworten werden mit rotem Hintergrund angezeigt. Quelle: Yin et. al., 2023

Um Halluzinationen zu korrigieren, verwenden die KI-Modelle, die Woodpecker antreiben, einen fünfstufigen Prozess, der „Schlüsselkonzeptextraktion, Frageformulierung, visuelle Wissensvalidierung, visuelle Anspruchsgenerierung und Halluzinationskorrektur“ umfasst.

Verwandt: Menschen und KI bevorzugen oft kriecherische Chatbot-Antworten gegenüber der Wahrheit – Studieren

Die Forscher behaupten, dass diese Techniken zusätzliche Transparenz und „eine Verbesserung der Genauigkeit um 30,66 %/24,33 % gegenüber dem Basislinien-MiniGPT-4/mPLUG-Owl“ bieten. Sie bewerteten anhand ihrer Methode zahlreiche MLLMs „von der Stange“ und kamen zu dem Schluss, dass Woodpecker „leicht in andere MLLMs integriert werden“ könne.