Vergessen Sie Chatbots. KI-Agenten sind die Zukunft


Diese Woche rief ein Startup an Kognitions-KI sorgte durch die Veröffentlichung für etwas Aufsehen eine Demo Es zeigt ein Programm für künstliche Intelligenz namens Devin, das Arbeiten ausführt, die normalerweise von gut bezahlten Softwareentwicklern erledigt werden. Chatbots wie ChatGPT und Gemini können Code generieren, aber Devin ging noch einen Schritt weiter: Er plante die Lösung eines Problems, schrieb den Code und testete und implementierte ihn dann.

Die Macher von Devin bezeichnen es als „KI-Softwareentwickler“. Als Devin gebeten wurde, zu testen, wie Metas Open-Source-Sprachmodell Llama 2 funktioniert, wenn es über verschiedene Hosting-Unternehmen aufgerufen wird, erstellte Devin einen Schritt-für-Schritt-Plan für das Projekt, generierte Code, der für den Zugriff auf die APIs und die Durchführung von Benchmarking-Tests erforderlich ist, und erstellte eine Website Zusammenfassung der Ergebnisse.

Es ist immer schwer, inszenierte Demos zu beurteilen, aber Cognition hat gezeigt, dass Devin ein breites Spektrum beeindruckender Aufgaben bewältigt. Es begeisterte Investoren und Ingenieure auf X, reichlich empfangen Vermerkeund sogar inspiriert ein paar Meme– einschließlich einiger Vorhersagen, dass Devin es bald sein wird verantwortlich für eine Welle von Entlassungen in der Technologiebranche.

Devin ist nur das neueste und ausgefeilteste Beispiel für einen Trend, den ich schon seit einiger Zeit verfolge – das Aufkommen von KI-Agenten, die nicht nur Antworten oder Ratschläge zu einem von Menschen gestellten Problem geben, sondern Maßnahmen ergreifen können, um es zu lösen. Vor ein paar Monaten habe ich Testfahrt mit Auto-GPT, ein Open-Source-Programm, das versucht, nützliche Aufgaben zu erledigen, indem es Aktionen auf dem Computer einer Person und im Internet ausführt. Kürzlich habe ich ein anderes Programm namens vimGPT getestet, um herauszufinden, wie die visuellen Fähigkeiten neuer KI-Modelle diesen Agenten dabei helfen können, effizienter im Internet zu surfen.

Ich war beeindruckt von meinen Experimenten mit diesen Wirkstoffen. Doch im Moment machen sie, genau wie die Sprachmodelle, die ihnen zugrunde liegen, einige Fehler. Und wenn eine Software Aktionen ausführt und nicht nur Text generiert, kann ein Fehler einen Totalausfall bedeuten – und möglicherweise kostspielige oder gefährliche Folgen. Die Eingrenzung des Aufgabenbereichs, den ein Agent ausführen kann, beispielsweise auf eine bestimmte Reihe von Software-Engineering-Aufgaben, scheint eine clevere Möglichkeit zu sein, die Fehlerquote zu senken, aber es gibt immer noch viele potenzielle Möglichkeiten zum Scheitern.

Nicht nur Startups bauen KI-Agenten. Anfang dieser Woche habe ich über einen von Google DeepMind entwickelten Agenten namens SIMA geschrieben, der Videospiele spielt, darunter auch den wirklich verrückten Titel Ziegensimulator 3. SIMA lernte durch die Beobachtung menschlicher Spieler, wie man mehr als 600 ziemlich komplizierte Aufgaben erledigt, wie zum Beispiel einen Baum fällen oder einen Asteroiden abschießen. Am wichtigsten ist, dass viele dieser Aktionen auch in einem unbekannten Spiel erfolgreich ausgeführt werden können. Google DeepMind nennt es einen „Generalisten“.

Ich vermute, dass Google hofft, dass diese Agenten irgendwann außerhalb von Videospielen arbeiten und vielleicht dabei helfen, das Internet im Namen eines Benutzers zu nutzen oder Software für ihn zu betreiben. Aber Videospiele sind eine gute Sandbox zum Entwickeln und Testen von Agenten, da sie komplexe Umgebungen bereitstellen, in denen sie getestet und verbessert werden können. „Wir arbeiten aktiv daran, sie präziser zu machen“, sagte mir Tim Harley, Forscher bei Google DeepMind. „Wir haben verschiedene Ideen.“

In den kommenden Monaten können Sie mit vielen weiteren Neuigkeiten zu KI-Agenten rechnen. Demis Hassabis, der CEO von Google DeepMind, sagte mir kürzlich, dass er plant, große Sprachmodelle mit der Arbeit zu kombinieren, die sein Unternehmen zuvor geleistet hat, um KI-Programme für das Spielen von Videospielen zu trainieren, um leistungsfähigere und zuverlässigere Agenten zu entwickeln. „Das ist definitiv ein riesiges Gebiet. Wir investieren stark in diese Richtung, und ich kann mir vorstellen, dass andere das auch tun.“ sagte Hassabis. „Die Fähigkeiten dieser Art von Systemen werden sich deutlich verändern, wenn sie beginnen, agentenähnlicher zu werden.“



source-114

Leave a Reply