Google fügt Bard zu seinen größten Apps hinzu


Google kündigte a Supercharged-Update zu seinem Bard-Chatbot am Dienstag: Der Technologieriese wird das Generative integrieren KI in das beliebteste Unternehmen des Unternehmens Dienste, einschließlich Gmail, Docs, Drive, Maps, YouTube und mehr. Zusammen mit einer neuen Funktion, die Ihnen sagt, wenn Bard möglicherweise ungenaue Antworten liefert, ist die neue Version der KI ist ein Kopf-an-Kopf-Rennen mit ChatGPT für das nützlichste und zugänglichste große Sprachmodell auf dem Markt.

Google ist Aufruf der generativen Merkmale „Bard-Erweiterungen“, derselbe Name wie der vom Benutzer ausgewählte Ergänzungen zu Chrome. Mit der KI Mit den Erweiterungen können Sie Bard zum ersten Mal auf eine Mission schicken, bei der Daten aus allen unterschiedlichen Teilen Ihres Google-Kontos erfasst werden. Wenn Sie beispielsweise einen Urlaub planen, können Sie Bard bitten, die Daten zu finden, die Ihnen ein Freund auf Gmail geschickt hat, auf Google Flights nach Flug- und Hoteloptionen zu suchen und eine Lösung zu finden Ihnen einen täglichen Reiseplan mit Aktivitäten basierend auf Informationen von YouTube. Google verspricht, Ihre privaten Daten nicht zum Trainieren seiner KI zu verwenden und dass diese neuen Funktionen optional sind.in nur.

Bard kann jetzt komplexe Aufgaben erledigen, die von Ihrem Gmail-Konto und anderen Google-Diensten abgerufen werden.
GIF: Google

Vielleicht genauso wichtig ist ein neues Genauigkeitstool, das Google „Double Check the Response“ nennt. Nachdem Sie Bard eine Frage gestellt haben, können Sie auf die Schaltfläche „G“ klicken und die KI prüft, ob die Antworten durch Informationen im Internet untermauert werden Und Markieren Sie Informationen, die möglicherweise halluziniert haben. Das Merkmal macht Bard zum ersten großen KI-Tool, das sich im Handumdrehen selbst überprüft.

Diese neue, aufgemotzte Version von Bard steckt noch in den Kinderschuhen und kann fehlerhaft und nervig sein. Aber es ist ein Vorgeschmack auf die Art von Technologie, die uns seit den Anfängen der Science-Fiction versprochen wurde. Heutzutage muss man sich darin üben, Fragen in den äußerst begrenzten Begriffen zu stellen, die ein Computer verstehen kann. Es ist nichts anderes als die Werkzeuge, die man in einer Serie wie „Star Trek“ sieht, wo man einer Maschine „Computer“ zurufen und Anweisungen für jede Aufgabe in der gleichen Sprache geben kann, in der man einen Menschen fragen würde. Mit diesen Updates für Bard kommen wir diesem Traum einen kleinen, aber bedeutsamen Schritt näher.

Gizmodo hat sich zu einem Interview mit Jack Krawczyk, Produktleiter bei Google Bard, getroffen, um über die neuen Funktionen, Chatbot-Probleme und die nahe Zukunft der KI zu sprechen.


(Dieses Interview wurde aus Gründen der Klarheit und Konsistenz bearbeitet.)

Jack Krawczyk: Zwei Dinge, die wir ziemlich regelmäßig über Sprachmodelle im Allgemeinen hören, sind: „Es klingt wirklich cool, ist aber in meinem täglichen Leben nicht wirklich nützlich.“ Und zweitens hört man, dass dadurch vieles erfunden wird, was klügere Leute als „Halluzination“ bezeichnen. Ab morgen haben wir eine Antwort auf beide Fragen.

Wir sind das erste Sprachmodell, das sich direkt in Ihr Privatleben integriert. Durch die Ankündigung der Bard-Erweiterungen haben Sie endlich die Möglichkeit, sich dafür zu entscheiden und Bard zu gestatten, Informationen aus Ihrem Gmail, Google Docs oder anderswo abzurufen und Sie bei der Zusammenarbeit damit zu unterstützen. Und mit Double Check the Response sind wir das einzige Sprachmodellprodukt auf dem Markt, das bereit ist, einen Fehler zuzugeben.

Thomas Germain: Sie haben meine Reaktion auf das letzte Jahr der KI-Nachrichten ziemlich gut zusammengefasst. Diese Tools sind erstaunlich, aber meiner Erfahrung nach für die meisten Menschen grundsätzlich nutzlos. Indem ich alle anderen Google-Apps einbeziehe, fühlt es sich weniger wie ein Partytrick an, sondern mehr wie ein Tool, das mir das Leben erleichtert.

JK: Im Kern glauben wir, dass wir durch die Interaktion mit Sprachmodellen unsere Einstellung zur Technologie ändern können. Wir sind es so gewohnt, Technologie als ein Werkzeug zu betrachten, das Dinge erledigt für Sie sagen mir zum Beispiel, wie ich von Punkt A nach Punkt B komme. Wir haben festgestellt, dass Menschen von Natur aus dazu tendieren. Aber es ist wirklich inspirierend, es als Technologie zu sehen, die Dinge bewirkt mit Sie, was am Anfang nicht intuitiv ist.

Ich habe gesehen, wie Leute es für Dinge nutzen, die ich nie erwartet hätte. Wir haben tatsächlich jemanden gebeten, ein Foto von seinem Wohnzimmer zu machen und zu fragen: „Wie kann ich meine Möbel verschieben, um Feng Shui zu verbessern?“ Es ist die Zusammenarbeit, die mich begeistert. Wir nennen es „erweiterte Vorstellungskraft“, weil die Ideen und die Neugier im Kopf sind. Wir versuchen, Ihnen in einer Zeit zu helfen, in der Ideen wirklich brüchig und brüchig sind.

TG: Wir haben viele Beispiele gesehen, in denen Bard oder ein anderer Chatbot etwas Rassistisches ausspuckt oder gefährliche Anweisungen gibt. Es ist ungefähr ein Jahr her, seit wir alle ChatGPT kennengelernt haben. Warum ist dieses Problem so schwer zu lösen?

JK: Hier denke ich, dass die Double-Check-Funktion wirklich hilfreich ist, um das auf einer tieferen Ebene zu verstehen. Neulich habe ich also Schwertfisch gekocht, und eine der Herausforderungen beim Kochen von Schwertfisch ist, dass das ganze Haus mehrere Tage lang riechen kann. Ich fragte Bard, was er tun sollte. Einer der darin enthaltenen Vorschläge lautete: „Waschen Sie Ihr Haustier häufiger.“ Das ist eine überraschende Lösung, aber sie macht irgendwie Sinn. Aber wenn ich die Double-Check-Funktion verwende, erhalte ich die Meldung, dass etwas falsch gelaufen ist, und Ergebnisse aus dem Internet besagen, dass durch zu häufiges Waschen Ihrem Haustier die natürlichen Öle entzogen werden, die es für eine gesunde Haut benötigt.

Wir haben die App weiterentwickelt, sodass sie Satz für Satz durchsucht und bei Google nachschaut, ob sie Dinge findet, die ihre Antworten bestätigen oder nicht. Im Fall des Haustierwaschens ist das eine ziemlich gute Antwort, und es gibt nicht unbedingt eine richtige oder falsche Antwort, aber es erfordert Nuancen und Kontext.

Die Double-Check-Funktion von Bard informiert Sie darüber, wann möglicherweise eine Halluzination stattgefunden hat, und stellt Links mit Kontext aus dem Internet bereit.
GIF: Google

TG: Bard hat einen kleinen Haftungsausschluss, der besagt, dass es möglicherweise ungenaue oder beleidigende Informationen liefert und nicht die Ansichten des Unternehmens wiedergibt. Mehr Kontext ist gut, aber die offensichtliche Kritik lautet: „Warum veröffentlicht Google ein Tool, das möglicherweise überhaupt beleidigende oder ungenaue Antworten liefert?“ Ist das nicht unverantwortlich?

JK: Wofür diese Tools wirklich nützlich sind, ist die Erkundung der Möglichkeiten. Manchmal, wenn man sich in einem kooperativen Zustand befindet, macht man Vermutungen, oder? Wir glauben, dass darin der Wert der Technologie liegt, und dafür gibt es kein Werkzeug. Wir können Menschen Werkzeuge für heikle Situationen an die Hand geben. Wir hörten Feedback von einer Person mit Autismus und sie sagte: „Ich weiß, wann jemand, der mir eine E-Mail schreibt, wütend ist, aber ich weiß nicht, ob die Antwort, die ich ihm geben werde, ihn noch wütender machen wird.“ ”

Bei diesem Problem müssen Sie eher interpretieren als analysieren. Sie verfügen über dieses Tool, das das Potenzial hat, Probleme zu lösen, die heute keine andere Technologie lösen kann. Deshalb müssen wir dieses Gleichgewicht finden. Wir sind seit sechs Monaten bei Bard. Es ist immer noch ein Experiment und dieses Problem ist nicht gelöst. Aber wir glauben, dass es so viel tiefgreifendes Gutes gibt, auf das wir heute in unserem Leben keine Antworten haben, und deshalb halten wir es für wichtig, dies in die Hände der Menschen zu legen und Feedback zu sammeln.

Die Frage, die Sie stellen, lautet: „Warum sollten Technologien eingesetzt werden, die Fehler machen?“ Nun, es ist kollaborativ und ein Teil der Zusammenarbeit besteht darin, Fehler zu machen. Hier möchte man mutig sein, aber man muss es auch mit Verantwortung in Einklang bringen.

TG: Ich stelle mir vor, dass das Ziel darin besteht, dass es eines Tages keinen Unterschied zwischen Bard und der Google-Suche mehr geben wird, sondern nur noch Google und Sie das bekommen, was im Moment am nützlichsten ist. Wie weit ist das entfernt?

JK: Nun, eine interessante Analogie ist der Werkzeuggürtel im Vergleich zu den Werkzeugen. Sie haben einen Hammer und einen Schraubenzieher, aber dann ist da noch der Gürtel selbst. Ist das auch ein Werkzeug? Das ist wahrscheinlich eine semantische Debatte. Aber im Moment funktionieren die meisten unserer Technologien so etwas wie: „Nun, ich gehe auf diese Website, um diese Arbeit zu erledigen.“ Ich gehe auf diese Website, um die andere Aufgabe zu erledigen. Wir haben alle individuelle Werkzeuge und ich denke, dass sie durch generative KI noch verstärkt werden. Sie verwenden immer noch die verschiedenen Tools, aber jetzt arbeiten sie zusammen. So sehen wir eine eigenständige generative Erfahrung, und ich denke, wir machen heute den ersten Schritt in diese Richtung.

TG: Das ist wahrscheinlich nicht das, worüber Sie heute sprechen wollen. Aber ich möchte Sie über das Empfindungsvermögen befragen. Was denkst du ist es? Ist das überhaupt eine wichtige Frage, die wir gerade Menschen wie Ihnen stellen?

JK: Ich denke, die Tatsache, dass die Leute es stellen, bedeutet, dass es eine wichtige Frage ist. Ist das, was wir heute bauen, empfindungsfähig? Grundsätzlich würde ich sagen, dass die Antwort nein ist. Aber es gibt eine Diskussion darüber, ob es das hat Gelegenheit empfindungsfähig sein. Ich denke, dass es beim Empfindungsvermögen in vielen Formen um den Vergleich geht. Ich habe keine Signale gesehen, die darauf hindeuten, dass Computer Mitgefühl haben können. Und wenn man hier von buddhistischen Prinzipien ausgeht, muss man Leiden ertragen, um Mitgefühl zu haben.

TG: Du hast Bard also noch keine Schmerzsensoren gegeben?

JK: [Laughing] NEIN.

TG: Können Sie etwas über Googles Pläne zur Integration von Bard in Android mitteilen?

JK: Bard bleibt vorerst eine eigenständige Web-App bard.google.com. Und der Grund, warum wir es dort belassen, ist, dass es immer noch ein Experiment ist. Damit ein Experiment nützlich ist, müssen Sie die darin enthaltenen Variablen minimieren. In dieser Phase ist unsere erste Hypothese, dass ein Sprachmodell, das mit Ihrem Privatleben verknüpft ist, äußerst hilfreich sein wird. Die zweite Hypothese ist, dass ein Sprachmodell, das bereit ist, zuzugeben, wenn es einen Fehler gemacht hat, und wie sicher es in seinen eigenen Antworten ist, eine tiefere Wahrheit darüber aufbauen wird, wie Menschen sich mit dieser Idee auseinandersetzen können. Das sind die beiden Hypothesen, die wir testen. Es gibt noch viel mehr, das wir testen wollen. Aber im Moment versuchen wir, die Variablen zu minimieren.

source-113

Leave a Reply