Chatbots versprechen eine Zukunft, die nie eintreten wird


Die Kommunikation mit dem Computer ist seit Jahrzehnten ein Traum von Zukunftsforschern und Technologen. Wenn man sich den Stand der Technik im Jahr 2004 anschaut, ist es erstaunlich, wie weit wir gekommen sind. Mittlerweile befinden sich Milliarden von Geräten in unseren Händen und Haushalte, die auf unsere Fragen hören und ihr Bestes tun, um sie zu beantworten. Aber trotz all der Zeit, des Geldes und der Mühe haben Chatbots jeglicher Couleur die Welt nicht so verschluckt, wie es ihre Schöpfer beabsichtigt hatten. Sie sind wunderbar. Sie sind auch langweilig. Und es lohnt sich zu fragen, warum.

Chatbot ist ein Begriff, der viele Systeme umfasst, von Sprachassistenten bis hin zu KI und allem anderen dazwischen. In den nicht so guten alten Zeiten mit dem Computer zu sprechen bedeutete, in ein Fenster zu tippen und zu beobachten, wie die Maschine versuchte, den Gesprächsakt nachzuahmen und nicht die Realität. Der alte Trick von ELIZA (1964 bis 1967), Benutzereingaben in Form einer Frage noch einmal zu formulieren, trug dazu bei, diese Leistung zu verkaufen. Und das setzte sich sogar bis zum SmarterChild-Chatbot aus dem Jahr 2001 fort. Der andere Zweig dieser Arbeit bestand darin, das Analoge mit Voice-to-Text-Engines zu digitalisieren, wie das frustrierende, aber gelegentlich wunderbare Produkt von Nuance.

Im Jahr 2011 vereinten sich die Ideen dieser frühen Arbeit, um Siri für das iPhone 4S zu entwickeln, das stillschweigend auf der Arbeit von Nuance aufbaute. Amazon-Gründer Jeff Bezos erkannte Siris Versprechen früh und startete ein großes internes Projekt, um einen einheimischen Konkurrenten zu schaffen. Im Jahr 2014 kam Alexa auf den Markt, in den Folgejahren folgten Cortana und Google Assistant. Natural Language Computing war mittlerweile auf unzähligen Smartphones und Smart-Home-Geräten verfügbar.

Unternehmen sind weitgehend zurückhaltend, wenn es darum geht, konkrete Angaben zu den Kosten für den Bau neuer Projekte zu machen, aber Gespräche waren kostspielig. Forbes berichtete im Jahr 2011, dass der Kauf des Startups hinter Siri Apple 200 Millionen US-Dollar gekostet habe. Im Jahr 2018 Das Wall Street Journal zitierte Dave Limp, der sagte, dass das Alexa-Team von Amazon mehr als 10.000 Mitarbeiter habe. A Geschäftseingeweihter Eine Geschichte aus dem Jahr 2022 deutete darauf hin, dass das Unternehmen Verluste in Höhe von mehr als 10 Milliarden US-Dollar durch die Entwicklung von Alexa verursachte. Letztes Jahr, Die Information behauptete, Apple gebe mittlerweile täglich eine Million Dollar für die KI-Entwicklung aus.

Wofür nutzen wir diese kostspielige Technologie? Unsere intelligenten Glühbirnen ein- und ausschalten, Musik abspielen, an der Tür klingeln und vielleicht die Sportergebnisse abrufen. Im Fall von KI erhalten Sie möglicherweise schlecht zusammengefasste Web-Suchergebnisse (oder ein Bild von Menschen mit zu vielen Fingern). Sie führen mit Sicherheit nicht viel zu sinnvollen Gesprächen oder ziehen aus diesen Dingen wichtige Daten heraus. Denn in fast allen Fällen ist sein Verständnis schlecht und es hat Probleme mit den Nuancen der menschlichen Sprache. Und das ist kein Einzelfall. Im Jahr 2021, Bloomberg berichteten über interne Amazon-Daten, dass bis zu einem Viertel der Käufer ihr Alexa-Gerät in der zweiten Woche nach dem Besitz vollständig nicht mehr nutzen.

Das oft genannte Ziel bestand darin, diese Plattformen gesprächsintelligent zu machen, Ihre Fragen zu beantworten und auf Ihre Befehle zu reagieren. Aber während es einige grundlegende Dinge ziemlich gut kann, wie zum Beispiel vor allem das Verstehen, wenn Sie es bitten, das Licht auszuschalten, läuft alles andere nicht so reibungslos. Natürliche Sprache täuscht Benutzer vor, die Systeme seien ausgefeilter, als sie tatsächlich sind. Wenn es also an der Zeit ist, eine komplexe Frage zu stellen, ist es wahrscheinlicher, dass Sie die ersten paar Zeilen einer Wikipedia-Seite erhalten, was jegliches Vertrauen in ihre Fähigkeit, mehr zu können, als nur Musik zu spielen oder den Thermostat aufzudrehen, untergräbt.

Es wird davon ausgegangen, dass generative KIs, die an diese Schnittstellen in natürlicher Sprache angeschraubt werden, alle Probleme lösen werden, die derzeit mit der Sprache verbunden sind. Und ja, einerseits sind diese Systeme besser darin, ein realistisches Gespräch darzustellen und zu versuchen, Ihnen das zu geben, wonach Sie fragen. Aber wenn man sich andererseits tatsächlich anschaut, was auf der anderen Seite herauskommt, ist es oft Kauderwelsch. Diese Systeme deuten auf oberflächliche Interaktionen hin, können aber nichts Wesentlicheres tun. Vergessen Sie nicht, wann Sport illustriert versucht zu verwenden KI-generierte Inhalte, die mutig behaupten Volleyball könnte „schwierig sein, sich darauf einzulassen, vor allem ohne einen richtigen Ball zum Üben.“ Kein Wunder, dass so viele dieser Systeme so sind Bloomberg letztes Jahr gemeldet, gestützt durch unterbezahlte menschliche Arbeit.

Natürlich deuten die Booster des Formulars darauf hin, dass es noch in den Kinderschuhen steckt Das sagte OpenAI-CEO Sam Altman kürzlich, wir brauchen immer noch Milliarden von Dollar für mehr Chip-Forschung und -Entwicklung. Aber das macht die jahrzehntelange Entwicklung und die Milliarden von Dollar, die bereits ausgegeben wurden, um dorthin zu gelangen, wo wir heute sind, lächerlich. Aber es geht nicht nur um Bargeld oder Chips: Letztes Jahr Die New York Times berichteten, dass allein der Strombedarf von KI bis 2027 auf bis zu 134 Terawattstunden pro Jahr ansteigen könnte. Angesichts der dringenden Notwendigkeit, den Stromverbrauch zu senken und effizienter zu machen, verheißt das weder für die Zukunft seiner Entwicklung noch für unsere Zukunft Gutes Planet.

Wir haben 20 Jahre Entwicklung hinter uns, aber Chatbots haben sich immer noch nicht so durchgesetzt, wie es uns versprochen wurde. Zuerst lag es daran, dass sie einfach Schwierigkeiten hatten zu verstehen, was wir wollten, aber selbst wenn das gelöst wäre, würden wir sie dann plötzlich umarmen? Schließlich bleibt das zugrunde liegende Problem bestehen: Wir vertrauen diesen Plattformen einfach nicht, sowohl weil wir kein Vertrauen in ihre Fähigkeit haben, das zu tun, was wir von ihnen verlangen, als auch aufgrund der Beweggründe ihrer Schöpfer.

Eines der beständigsten Beispiele für Natural Language Computing in der Belletristik, das von Autoren aus der realen Welt oft zitiert wird, ist der Computer von Star Trek: Die nächste Generation. Aber selbst dort, mit einem Sprachassistenten, der so etwas wie allgemeine Intelligenz zu besitzen scheint, traut man ihm nicht zu, das Schiff alleine zu steuern. An jeder Station sitzt noch immer ein Besatzungsmitglied, das die Befehle des Kapitäns ausführt und generell den Auftrag wahrnimmt. Selbst in einer Zukunft, die so weit fortgeschritten ist, dass sie frei von materiellen Bedürfnissen ist, sehnen sich die Lebewesen immer noch nach dem Gefühl der Kontrolle.


Engadget-Banner zum 20-jährigen JubiläumEngadget-Banner zum 20-jährigen Jubiläum

Feiern 20-jähriges Jubiläum von Engadgetwerfen wir einen Blick zurück auf die Produkte und Dienstleistungen, die die Branche seit dem 2. März 2004 verändert haben.

Dieser Artikel enthält Affiliate-Links; Wenn Sie auf einen solchen Link klicken und einen Kauf tätigen, erhalten wir möglicherweise eine Provision.

source-115

Leave a Reply