Der Mensch schlägt die KI bei Go mit Hilfe eines Bots überzeugend


Ein starker Amateur-Go-Spieler hat ein hochrangiges KI-System besiegt, nachdem er eine Schwachstelle ausgenutzt hatte, die von einem zweiten Computer entdeckt wurde. Die Financial Times hat sich gemeldet. Durch Ausnutzen des Fehlers besiegte der amerikanische Spieler Kellin Pelrine das KataGo-System entscheidend und gewann 14 von 15 Spielen ohne weitere Computerhilfe. Es ist ein seltener Go-Sieg für Menschen seit dem Meilenstein-Sieg von AlphaGo im Jahr 2016, der dazu beigetragen hat, den Weg für den aktuellen KI-Wahnsinn zu ebnen. Es zeigt auch, dass selbst die fortschrittlichsten KI-Systeme grelle blinde Flecken haben können.

Pelrines Sieg wurde durch eine Forschungsfirma namens FAR AI ermöglicht, die ein Programm entwickelt um KataGo auf Schwachstellen zu untersuchen. Nachdem es über eine Million Spiele gespielt hatte, war es in der Lage, eine Schwäche zu finden, die von einem anständigen Amateurspieler ausgenutzt werden konnte. Es sei „nicht ganz trivial, aber auch nicht superschwer“ zu lernen, sagte Pelrine. Er benutzte die gleiche Methode, um Leela Zero, eine weitere Top-Go-KI, zu schlagen.

So funktioniert es: Das Ziel ist es, eine große “Schleife” aus Steinen zu erstellen, um die Gruppe eines Gegners einzukreisen, und dann den Computer abzulenken, indem Sie Züge in anderen Bereichen des Bretts machen. Selbst als seine Gruppe fast umzingelt war, bemerkte der Computer die Strategie nicht. „Als Mensch wäre es ziemlich leicht zu erkennen“, sagte Pelrine, da die umlaufenden Steine ​​deutlich auf dem Spielbrett hervortreten.

Der Fehler zeigt, dass KI-Systeme nicht wirklich über ihr Training hinaus „denken“ können, sodass sie oft Dinge tun, die für Menschen unglaublich dumm aussehen. Ähnliches haben wir bei Chat-Bots wie dem von Microsofts Suchmaschine Bing gesehen. Es war zwar gut für sich wiederholende Aufgaben wie das Erstellen eines Reiseplans, lieferte aber auch falsche Informationen. beschimpfte Benutzer für seine Zeitverschwendung und sogar ausgestellt “verwirrt” Verhalten – wahrscheinlich aufgrund der Modelle, an denen es trainiert wurde.

Lightvector (der Entwickler von KataGo) ist sich des Problems, das Spieler hatten, sicherlich bewusst ausnutzen jetzt seit mehreren monaten. In einem GitHub-Postheißt es, es arbeite an einer Lösung für eine Vielzahl von Angriffstypen, die den Exploit verwenden.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply