Google Assistant erhält endlich ein generatives AI-Glow-Up


David Ferrucci, CEO des KI-Unternehmens Elementare Erkenntnis und zuvor Leiter des Watson-Projekts von IBM, sagt, dass Sprachmodelle einen Großteil der Komplexität bei der Entwicklung nützlicher Assistenten verringert haben. Das Parsen komplexer Befehle erforderte bisher einen enormen manuellen Programmieraufwand, um die verschiedenen Sprachvarianten abzudecken, und die endgültigen Systeme waren oft ärgerlich spröde und fehleranfällig. „Große Sprachmodelle geben Ihnen einen enormen Auftrieb“, sagt er.

Da Sprachmodelle jedoch nicht gut geeignet sind, präzise und zuverlässige Informationen bereitzustellen, ist laut Ferrucci jedoch noch viel sorgfältige Ingenieursarbeit erforderlich, um einen Sprachassistenten wirklich nützlich zu machen.

Leistungsfähigere und lebensechtere Sprachassistenten könnten möglicherweise subtile Auswirkungen auf die Benutzer haben. Die große Beliebtheit von ChatGPT geht mit Verwirrung über die Art der dahinter stehenden Technologie und ihre Grenzen einher.

Motahhare Eslami, ein Assistenzprofessor an der Carnegie Mellon University, der die Interaktionen von Benutzern mit KI-Helfern untersucht, sagt, dass große Sprachmodelle die Art und Weise verändern könnten, wie Menschen ihre Geräte wahrnehmen. Das beeindruckende Vertrauen, das Chatbots wie ChatGPT an den Tag legen, führt dazu, dass Menschen ihnen mehr vertrauen, als sie sollten, sagt sie.

Laut Eslami tendieren Menschen möglicherweise auch eher dazu, einen fließenden Agenten mit einer Stimme zu vermenschlichen, was ihr Verständnis darüber, was die Technologie leisten kann und was nicht, weiter trüben könnte. Es ist auch wichtig sicherzustellen, dass alle verwendeten Algorithmen keine schädlichen Vorurteile in Bezug auf die Rasse verbreiten, was passieren kann subtile Wege mit Sprachassistenten. „Ich bin ein Fan der Technologie, aber sie bringt Einschränkungen und Herausforderungen mit sich“, sagt Eslami.

Tom GruberMitbegründer von Siri, dem Startup, das Apple 2010 wegen seiner gleichnamigen Sprachassistenten-Technologie übernommen hat, erwartet, dass große Sprachmodelle in den kommenden Jahren zu erheblichen Leistungssprüngen bei Sprachassistenten führen werden, sagt aber, dass sie auch neue Mängel mit sich bringen könnten.

„Das größte Risiko – und die größte Chance – ist die Personalisierung auf Basis personenbezogener Daten“, sagt Gruber. Ein Assistent mit Zugriff auf die E-Mails, Slack-Nachrichten, Sprachanrufe, das Surfen im Internet und andere Daten eines Benutzers könnte möglicherweise dabei helfen, nützliche Informationen abzurufen oder wertvolle Erkenntnisse zu gewinnen, insbesondere wenn ein Benutzer ein natürliches Hin- und Her-Gespräch führen kann. Diese Art der Personalisierung würde jedoch auch einen potenziell anfälligen neuen Speicher für sensible private Daten schaffen.

„Es ist unvermeidlich, dass wir einen persönlichen Assistenten entwickeln, der Ihr persönliches Gedächtnis sein wird, der alles, was Sie erlebt haben, aufzeichnen und Ihre Wahrnehmung verbessern kann“, sagt Gruber. „Apple und Google sind die beiden vertrauenswürdigen Plattformen, und sie könnten dies tun, müssen aber einige ziemlich starke Garantien geben.“

Hsiao sagt, dass ihr Team sicherlich darüber nachdenkt, Assistant mithilfe von Bard und generativer KI weiter voranzutreiben. Dazu könnte die Nutzung persönlicher Informationen, etwa der Konversationen im Gmail-Konto eines Nutzers, gehören, um Antworten auf Anfragen individueller zu gestalten. Eine weitere Möglichkeit besteht darin, dass Assistant Aufgaben im Namen eines Benutzers übernimmt, beispielsweise eine Restaurantreservierung oder die Buchung eines Fluges.

Hsiao betont jedoch, dass die Arbeit an solchen Funktionen noch nicht begonnen habe. Sie sagt, dass es eine Weile dauern wird, bis ein virtueller Assistent bereit ist, komplexe Aufgaben im Namen eines Benutzers auszuführen und dessen Kreditkarte zu verwenden. „Vielleicht ist diese Technologie in einer bestimmten Anzahl von Jahren so weit fortgeschritten und so vertrauenswürdig, dass die Leute dazu bereit sein werden, aber wir müssten unseren Weg nach vorne testen und lernen“, sagt sie.

source-114

Leave a Reply