News

KI: Air Canada haftet für Fehler von Chatbot

Bereits jetzt können Viele auf die alltägliche Unterstützung von künstlicher Intelligenz (KI) nicht mehr verzichten. Das gilt für Unternehmen genauso wie für Privatpersonen. Dass mit der Verwendung sogenannter Chatbots aber auch ein Risiko einhergeht, macht nun ein Beispiel aus Kanada deutlich. Dort muss eine Airline haften, nachdem ein Chatbot fälschlicherweise eine Rückerstattung versprach.

Fehler von KI wird Air Canada zugerechnet

Irren ist menschlich, aber wie sieht das eigentlich bei einer künstlichen Intelligenz aus? Natürlich machen auch diese Fehler. Nutzt man Chatbots a la ChatGPT im Privaten, kann das noch absehbare Negativfolgen haben. Aber wie sieht es bei Unternehmen aus? Die Fluggesellschaft Air Canada hat nun schmerzhaft erfahren müssen, dass in der Verwendung ein hohes unternehmerisches Risiko schlummert. Ein Gericht hat das Unternehmen nun nämlich zur Zahlung von 812 Kanadischen Dollar verpflichtet (Urteil).

ki

Das mag zwar nicht existenzbedrohend für Air Canada sein, zeigt jedoch dass der Einsatz von KI uns auch juristisch in naher Zukunft beschäftigen wird. Hintergrund ist eine fehlerhafte Auskunft eines Chatbots, den Air Canada nutzt. Die KI versprach einem Kunden einen vergünstigten Preis, den die Airline Kunden anbietet, die kürzlich einen Trauerfall zu beklagen hatten. Allerdings müssen Betroffene eben genau diese Trauerfallpreise im Rahmen von Last-Minute-Tickets auch abrufen. In dem Streitfall ist das nicht geschehen.

Kunde hielt sich an Anweisung von Chatbot

Ohne die Unterstützung der KI wäre es womöglich gar nicht zum Fehler auf Seiten des Kunden gekommen. Dieser hielt sich nämlich ganz einfach an die Vorgaben, welche der Chatbot machte. Mit Interesse an dem Trauertarif fragte der Kunde den Bot, wie er nun vorgehen müsse. Entgegen der Richtlinien von Air Canada empfahl die KI, zunächst ein normales Ticket zu buchen. Im Anschluss daran solle sich der Kunde noch einmal an die Airline wenden, um einen entsprechenden Nachlass zu erhalten. Da der Chatbot nicht im Sinne von Air Canada agierte, sieht sich die Airline auch nicht für den Fehler verantwortlich.

Vielmehr ist das Unternehmen der Ansicht, dass der Chatbot hier nicht als Teil von Air Canada agierte, sondern eine „eigenständige juristische Person“ sei. Dementsprechend müsse dieser auch für die eigenen Aussagen haften. Offenbar konnte die Fluggesellschaft mit ihrer Argumentation nicht überzeugen. Schließlich war das Gericht der Meinung, dass ein Unternehmen für alle Inhalte in Haftung genommen werden kann, die auf der eigenen Webseite einsehbar sind. Wie genau diese generiert werden spielt dabei keine Rolle. In diesem Fall wird deutlich, dass sich Unternehmen nicht blind auf die Zuverlässigkeit von KI verlassen sollten.

Jens Scharfenberg

Gaming und Technik waren stets meine Leidenschaft. Dies hat sich bis heute nicht geändert. Als passionierter "Konsolero" und kleiner "Technik-Geek" begleiten mich diese Themen tagtäglich.

Ähnliche Artikel

Neue Antworten laden...

Avatar of Basic Tutorials
Basic Tutorials

Gehört zum Inventar

12,642 Beiträge 3,018 Likes

Bereits jetzt können Viele auf die alltägliche Unterstützung von künstlicher Intelligenz (KI) nicht mehr verzichten. Das gilt für Unternehmen genauso wie für Privatpersonen. Dass mit der Verwendung sogenannter Chatbots aber auch ein Risiko einhergeht, macht nun ein Beispiel aus Kanada deutlich. Dort muss eine Airline haften, nachdem ein Chatbot fälschlicherweise eine Rückerstattung versprach. Fehler von KI wird Air Canada zugerechnet Irren ist menschlich, aber wie sieht das eigentlich bei einer künstlichen Intelligenz aus? Natürlich machen auch diese Fehler. Nutzt man Chatbots a la ChatGPT im Privaten, kann das noch absehbare Negativfolgen haben. Aber wie sieht es bei Unternehmen aus? Die … (Weiterlesen...)

Antworten Like

Zum Ausklappen klicken...
Schaltfläche "Zurück zum Anfang"