Dieser Roboter hat eine Grenze überschritten, die er nicht hätte überschreiten sollen, weil Menschen es ihm gesagt haben


Das Video eines Lieferroboters auf dem Bürgersteig, der gelbes Absperrband überquert und durch einen Tatort in Los Angeles rollt, wurde diese Woche viral, sammelte mehr als 650.000 Aufrufe auf Twitter und löste eine Debatte darüber aus, ob die Technologie für die Hauptsendezeit bereit ist.

Es stellt sich heraus, dass der Fehler des Roboters zumindest in diesem Fall von Menschen verursacht wurde.

Das Video der Veranstaltung wurde von William Gude, dem Besitzer von, aufgenommen und auf Twitter gepostet Filmen Sie die Polizei LA, ein Überwachungskonto der Polizei in LA. Gude war gegen 10 Uhr im Bereich einer mutmaßlichen Schulschießerei an der Hollywood High School, als er den Bot auf Video festhielt, als er verwirrt an der Straßenecke schwebte, bis jemand das Klebeband anhob und dem Bot erlaubte, seinen Weg fortzusetzen durch den Tatort.

Das Uber-Spinout Serve Robotics sagte gegenüber TechCrunch, dass das selbstfahrende System des Roboters nicht beschlossen habe, den Tatort zu betreten. Es war die Wahl eines menschlichen Bedieners, der den Bot fernbediente.

Die Lieferroboter des Unternehmens verfügen über eine sogenannte Level-4-Autonomie, das heißt, sie können unter bestimmten Bedingungen selbstständig fahren, ohne dass ein Mensch dies übernehmen muss. Seit Mai pilotiert Serve seine Roboter mit Uber Eats in der Region.

Serve Robotics hat eine Richtlinie, die verlangt, dass ein menschlicher Bediener seinen Bot an jeder Kreuzung aus der Ferne überwacht und unterstützt. Der menschliche Bediener übernimmt auch aus der Ferne die Kontrolle, wenn der Bot auf ein Hindernis wie eine Baustelle oder einen umgestürzten Baum trifft und nicht innerhalb von 30 Sekunden herausfinden kann, wie er um ihn herum navigieren kann.

In diesem Fall näherte sich der Bot, der gerade eine Lieferung beendet hatte, der Kreuzung und ein menschlicher Bediener übernahm gemäß der internen Betriebsrichtlinie des Unternehmens. Zunächst hielt der menschliche Bediener am gelben Warnband inne. Aber als Umstehende das Band hoben und es anscheinend „durchwinkten“, beschloss der menschliche Bediener, fortzufahren, sagte Ali Kashani, CEO von Serve Robotics, gegenüber TechCrunch.

„Der Roboter hätte niemals (von alleine) die Grenze überschritten“, sagte Kashani. “Es gibt nur eine Menge Systeme, die sicherstellen, dass es niemals überquert, bis ein Mensch grünes Licht gibt.”

Der Beurteilungsfehler hier ist, dass jemand beschlossen hat, tatsächlich weiter zu überqueren, fügte er hinzu.

Unabhängig vom Grund sagte Kashani, dass es nicht hätte passieren dürfen. Serve hat Daten aus dem Vorfall gezogen und arbeitet an einem neuen Satz von Protokollen für den Menschen und die KI, um dies in Zukunft zu verhindern, fügte er hinzu.

Ein paar offensichtliche Schritte werden darin bestehen, sicherzustellen, dass die Mitarbeiter die Standardarbeitsanweisung (oder SOP) befolgen, die eine angemessene Schulung und die Entwicklung neuer Regeln für das Verhalten umfasst, wenn eine Person versucht, den Roboter durch eine Barrikade zu winken.

Aber Kashani sagte, dass es auch Möglichkeiten gibt, Software zu verwenden, um zu verhindern, dass dies erneut passiert.

Software kann verwendet werden, um Menschen dabei zu helfen, bessere Entscheidungen zu treffen oder ein Gebiet ganz zu meiden, sagte er. Das Unternehmen kann beispielsweise mit den örtlichen Strafverfolgungsbehörden zusammenarbeiten, um aktuelle Informationen über Polizeivorfälle an einen Roboter zu senden, damit dieser diese Gebiete umgehen kann. Eine andere Option besteht darin, der Software die Möglichkeit zu geben, Strafverfolgungsbehörden zu identifizieren und dann die menschlichen Entscheidungsträger zu warnen und sie an die örtlichen Gesetze zu erinnern.

Diese Lektionen werden entscheidend sein, wenn die Roboter Fortschritte machen und ihre Einsatzgebiete erweitern.

„Das Komische ist, dass der Roboter das Richtige getan hat; es hörte auf“, sagte Kashani. „Das geht also wirklich darauf zurück, den Menschen genug Kontext zu geben, um gute Entscheidungen zu treffen, bis wir sicher genug sind, dass wir keine Menschen brauchen, um diese Entscheidungen zu treffen.“

Die Bots von Serve Robotics haben diesen Punkt noch nicht erreicht. Allerdings sagte Kashani gegenüber TechCrunch, dass die Roboter immer unabhängiger werden und in der Regel selbstständig operieren, mit zwei Ausnahmen: Kreuzungen und Blockaden irgendeiner Art.

Das Szenario, das sich diese Woche entfaltet hat, steht im Widerspruch dazu, wie viele Menschen KI sehen, sagte Kashani.

„Ich denke, die Erzählung im Allgemeinen ist im Grunde genommen, dass Menschen wirklich großartig in Randfällen sind und dann macht die KI Fehler oder ist vielleicht nicht bereit für die reale Welt“, sagte Kashani. „Lustigerweise lernen wir genau das Gegenteil, das heißt, wir stellen fest, dass Menschen viele Fehler machen, und wir müssen uns mehr auf KI verlassen.“



source-116

Leave a Reply