Air Canada wurde zur Zahlung von Schadensersatz für Passagiere verurteilt, nachdem der Chatbot über Trauerrabatte gelogen hatte


Ein kanadisches Gericht hat entschieden, dass Air Canada einem seiner Passagiere Schadensersatz wegen irreführender Ratschläge seines Kundendienst-Chatbots zahlen muss, was dazu führte, dass der Passagier fast das Doppelte für seine Flugtickets bezahlte.

Der Fall konzentriert sich auf das Erlebnis von Jake Moffatt, der nach dem Tod seiner Großmutter im Jahr 2022 einen Hin- und Rückflug von Vancouver nach Toronto absolvierte. Damals besuchte Moffatt die Website von Air Canada, um einen Flug zu den Trauertarifen des Unternehmens zu buchen. Gerichtsdokumenten zufolge fragte Moffatt den Support-Chatbot von Air Canada ausdrücklich nach den Trauerraten und erhielt die folgende Antwort:

„Air Canada bietet reduzierte Angebote an Trauertarife wenn Sie wegen eines bevorstehenden Todes oder eines Todesfalls in Ihrer unmittelbaren Familie reisen müssen“, erklärte der Chatbot und fügte einen unterstrichenen Hyperlink zu den Richtlinien der Fluggesellschaft hinzu. „Wenn Sie sofort reisen müssen oder bereits gereist sind und Ihr Ticket zu einem ermäßigten Todesfallpreis einreichen möchten, tun Sie dies bitte innerhalb von 90 Tagen nach dem Ausstellungsdatum Ihres Tickets, indem Sie unser Antragsformular für eine Ticketrückerstattung ausfüllen.“

Moffatt besuchte den vom Chatbot bereitgestellten Link nicht, der besagte, dass Kunden im Gegensatz zu den Aussagen des Chatbots nach Abschluss ihrer Reise keine Trauerbeiträge beantragen könnten.

Am selben Tag, an dem er mit dem Chatbot sprach, rief Moffatt Air Canada an, um weitere Informationen über die mögliche Höhe des Flugrabatts zu erhalten. Er behauptet, ein menschlicher Kundendienstmitarbeiter habe ihm gesagt, dass er einen Rabatt von etwa 440 kanadischen Dollar (326 US-Dollar) pro Flug erhalten würde, ihm wurde jedoch nicht mitgeteilt, dass der Rabatt nicht rückwirkend angewendet werden könne. Basierend auf den Informationen des Chatbots und des menschlichen Kundendienstmitarbeiters buchte Moffatt seine Flüge.

Einige Tage später reichte Moffatt seinen Antrag auf teilweise Rückerstattung der für seine Flüge bezahlten Summe ein, die sich auf 1.630 kanadische Dollar (1.210 US-Dollar) belief. Nach wochenlangen Diskussionen mit der Fluggesellschaft schickte Moffatt Air Canada im Februar 2023 einen Screenshot der Antwort des Chatbots. Als Antwort teilte ihm der menschliche Kundendienstmitarbeiter mit, dass die Ratschläge des Chatbots „irreführend“ gewesen seien, und sagte, sie würden das Problem daher zur Kenntnis nehmen Air Canada könnte den Chatbot aktualisieren.

Moffatts Streit mit Air Canada ging weiter und endete schließlich vor dem Civil Resolution Tribunal, auch bekannt als CRT, einem gerichtsähnlichen Gericht im öffentlichen Justizsystem von British Columbia, das sich mit zivilrechtlichen Streitigkeiten wie geringfügigen Forderungen befasst. Moffatt vertrat sich in dem Fall selbst, während Air Canada durch einen Mitarbeiter vertreten wurde.

Zu ihrer Verteidigung bestritt Air Canada alle Behauptungen von Moffatt und sagte, sie könne nicht für die von ihren Bediensteten, Agenten, Vertretern oder Chatbots bereitgestellten Informationen haftbar gemacht werden – ein Argument, das das Tribunalmitglied Christopher C. Rivers verwirrte. In einer diese Woche veröffentlichten Entscheidung sagte Rivers, dass die Behauptung von Air Canada, dass ihr Chatbot eine „separate juristische Person sei, die für ihre eigenen Handlungen verantwortlich sei“, keinen Sinn ergebe.

„Obwohl ein Chatbot über eine interaktive Komponente verfügt, ist er dennoch nur ein Teil der Website von Air Canada“, schrieb Christopher C. Rivers, Mitglied des Tribunals. „Für Air Canada sollte klar sein, dass sie für alle Informationen auf ihrer Website verantwortlich ist. Dabei spielt es keine Rolle, ob die Informationen von einer statischen Seite oder einem Chatbot stammen.“

Rivers fügte hinzu, dass Air Canada nicht angemessen darauf geachtet habe, dass der Chatbot korrekt sei. Es wurde auch nicht erklärt, warum Kunden die Informationen, die sie in einem Teil ihrer Website, dem Chatbot, finden, mit einem anderen Teil ihrer Website noch einmal vergleichen müssen. Am Ende forderte Rivers Air Canada auf, Moffatt die Rückerstattung zu zahlen, für die er fast anderthalb Jahre lang gekämpft hatte.

Alles in allem zeigt die Geschichte großen Unternehmen, dass Fehler wie „Mein Chatbot hat es getan, nicht ich“ vor Gericht nicht aufgehen.

source-113

Leave a Reply