Air Canada se ha visto forzada a ofrecer un reembolso parcial a un pasajero afligido después de que un chatbot de la aerolínea proporcionara información incorrecta sobre la política de viaje por duelo de la compañía. Este incidente, que inicialmente podría parecer un error menor de comunicación, ha culminado en una decisión judicial que podría sentar un precedente importante en cuanto a la responsabilidad de las empresas sobre la información proporcionada por inteligencias artificiales.
El caso comenzó cuando Jake Moffatt, enfrentando la pérdida de su abuela, recurrió al sitio web de Air Canada para reservar un vuelo de Vancouver a Toronto. Ante la duda sobre cómo funcionaban las tarifas de duelo de Air Canada, Moffatt consultó al chatbot de la aerolínea, que le proporcionó información errónea. El chatbot indicó que Moffatt podía reservar su vuelo inmediatamente y solicitar un reembolso dentro de los 90 días siguientes, una afirmación que contradecía la política real de Air Canada, que no ofrece reembolsos para viajes de duelo una vez reservado el vuelo.
Un fallo judicial obliga a Air Canada a honrar una política de reembolso erróneamente comunicada por su chatbot, marcando un precedente en la responsabilidad de la IA.
Después de seguir las instrucciones del chatbot y enfrentarse al rechazo de su solicitud de reembolso, Moffatt persistió durante meses tratando de convencer a Air Canada de que se le debía un reembolso, incluso compartiendo una captura de pantalla de la respuesta del chatbot. La aerolínea, sin embargo, se mantuvo firme en su posición, argumentando que Moffatt debería haber conocido la política real a través de un enlace proporcionado por el mismo chatbot y ofreciendo como máximo un cupón de 200 dólares para un futuro vuelo como compensación.
Insatisfecho con esta resolución, Moffatt llevó el caso al Tribunal de Resolución Civil de Canadá, donde Air Canada presentó una defensa sorprendente, alegando que no debería ser responsable de la información proporcionada por su chatbot, como si este fuera una entidad legal separada responsable de sus propias acciones. Esta afirmación fue rechazada por el tribunal, que falló a favor de Moffatt, otorgándole un reembolso parcial de $650.88 CAD del costo original del boleto de $1,640.36 CAD, además de daños adicionales para cubrir los intereses del pasaje aéreo y las tasas del tribunal.
Este caso no solo destaca la importancia de que las empresas aseguren la precisión de la información proporcionada por sus herramientas de IA, sino que también plantea preguntas sobre la responsabilidad de dicha información. El tribunal subrayó que Air Canada no tomó las precauciones razonables para garantizar la precisión de su chatbot y enfatizó que la aerolínea es responsable de toda la información en su sitio web, independientemente de si proviene de una página estática o de un chatbot.
La decisión de Air Canada de desactivar aparentemente su chatbot, como se observó en una visita reciente al sitio web de la aerolínea, podría ser una respuesta directa a este incidente. Aunque Air Canada no ha confirmado oficialmente esta acción, el caso subraya los desafíos y riesgos asociados con el uso de IA en la atención al cliente y la comunicación empresarial.
Alucina con Paréntesis. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.