Microsoft nutzt ChatGPT, um Bing zu stärken – und Google zu schlagen


Die neue Benutzeroberfläche im Chat-Stil von Bing weicht stärker vom traditionellen Suchfeld ab. In einer Demonstration bat Yusef Mehdi, Vizepräsident von Microsoft für Suche und Geräte, den Chatbot, einen fünftägigen Reiseplan für eine Reise nach Mexiko-Stadt zu schreiben und das Ergebnis dann in eine E-Mail umzuwandeln, die er an seine Familie senden konnte. Die Antwort des Bots führte seine Quellen – eine Reihe von Links zu Reiseseiten – am Ende seiner langen Antwort an. „Wir kümmern uns sehr darum, Inhalte an die Ersteller von Inhalten zurückzugeben“, sagte Mehdi. „Wir machen es den Leuten leicht, sich durchzuklicken, um zu diesen Seiten zu gelangen.“

Microsoft hat auch Aspekte der zugrunde liegenden Technologie von ChatGPT in eine neue Seitenleiste des Edge-Browsers des Unternehmens integriert. Benutzer können das Tool auffordern, ein langes und komplexes Finanzdokument zusammenzufassen oder es mit einem anderen zu vergleichen. Es ist möglich, den Chatbot zu veranlassen, diese Einblicke in eine E-Mail, eine Liste oder einen sozialen Beitrag mit einem bestimmten Ton, wie z. B. professionell oder lustig, umzuwandeln. In einer Demo wies Mehdi den Bot an, ein „begeistertes“ Update zu erstellen, das auf seinem Profil auf dem Social-Media-Dienst LinkedIn des Unternehmens veröffentlicht werden sollte.

ChatGPT hat Aufsehen erregt, seit OpenAI den Chatbot im November auf den Markt brachte und die Benutzer mit seinen fließenden, klaren Antworten auf schriftliche Aufforderungen und Fragen erstaunte und begeisterte. Der Bot basiert auf GPT-3, einem OpenAI-Algorithmus, der mit unzähligen Texten aus dem Internet und anderen Quellen trainiert wurde und die erfassten Muster verwendet, um eigenen Text zu generieren. Einige Investoren und Unternehmer haben die Technologie als Revolution angekündigt, die das Potenzial hat, nahezu jede Branche auf den Kopf zu stellen.

Einige KI-Experten haben zur Vorsicht aufgerufen und davor gewarnt, dass die Technologie, die ChatGPT zugrunde liegt, nicht zwischen Wahrheit und Fiktion unterscheiden kann und zu „Halluzinationen“ neigt – Informationen auf detaillierte und manchmal überzeugende Weise zu erfinden. Es hat sich auch gezeigt, dass die Textgenerierungstechnologie in der Lage ist, unappetitliche Sprache zu replizieren, die in ihren Trainingsdaten gefunden wird.

Sarah Bird, Leiterin der verantwortlichen KI bei Microsoft, sagte heute, dass frühe Tests gezeigt hätten, dass das Tool beispielsweise jemandem helfen könne, einen Angriff auf eine Schule zu planen, aber dass das Tool jetzt die Verwendung des Chatbots „identifizieren und sich dagegen wehren“ könne für diese Art von schädlicher Abfrage. Sie sagte, menschliche Tester und die Technologie von OpenAI würden zusammenarbeiten, um den Service schnell zu testen, zu analysieren und zu verbessern.

Bird räumte auch ein, dass Microsoft das Halluzinationsproblem nicht vollständig gelöst habe. „Wir haben es seit unseren Anfängen enorm verbessert, aber es gibt noch mehr zu tun“, sagte sie.

OpenAI begann als gemeinnützige Organisation, die sich darauf konzentrierte, KI nützlich zu machen, ist aber seit 2019 ein kommerzielles Unternehmen mit erheblichen Investitionen von Microsoft und hat kürzlich eine neue Verpflichtung des Technologieriesen erhalten im Wert von etwa 10 Milliarden Dollar.

Microsoft hat bereits eine Version der Textgenerierungstechnologie in ChatGPT in Form von Copilot kommerzialisiert, einem Tool, das Entwicklern beim Generieren von Programmiercode hilft. Microsoft sagt, dass Experimente zeigen, dass Copilot die Zeit, die zum Abschließen einer Codierungsaufgabe erforderlich ist, um 40 Prozent reduzieren kann.

Zusätzliche Berichterstattung von Will Knight.

source-114

Leave a Reply