Vous utilisez l’IA et l’automatisation? Connaissez vos risques en matière de responsabilité civile

Des ingénieurs discutent dans une usine robotisée

Les entreprises canadiennes explorent de plus en plus l'IA et l'automatisation afin de gagner en efficacité et d’obtenir des avantages concurrentiels.

Ces technologies ne relèvent plus du domaine de l’utopie, comme les voitures autonomes, mais trouvent désormais des applications dans pratiquement tous les secteurs. Voici quelques utilisations courantes :

  • Répondre aux questions des clients et résoudre les problèmes courants en ligne.
  • Concevoir de nouvelles versions de produits existants dans le secteur manufacturier
  • Fournir des calendriers de maintenance prédictive dans le secteur des transports. 
  • Analyser des images médicales et effectuer du triage dans le secteur des soins de santé. 
  • Automatiser la récolte dans l’agriculture.

S’il est passionnant d’envisager toutes les façons dont l’IA et l’automatisation peuvent accélérer l’innovation et améliorer le fonctionnement des entreprises, il est important de savoir que ces technologies présentent un risque de responsabilité civile qui n’a pas encore été pris en compte par une réglementation claire et cohérente.

Principales préoccupations en matière de responsabilité liée à l’IA et à l’automatisation

Les entreprises doivent tenir compte de plusieurs facteurs importants lorsqu’elles évaluent l’impact des défaillances, des défis ou des erreurs liés à l’IA et à l’automatisation. Parmi ceux-ci, on peut citer les suivants :

Ambiguïté réglementaire

Le Canada et les États-Unis ne disposent pas de réglementations cohérentes en matière d’IA et de machines autonomes, tandis que l’UE est en avance dans ce domaine. En l’absence de législation claire au Canada et aux ÉtatsUnis, il est difficile d’établir la négligence ou d’identifier la cause du préjudice, ce qui crée une grande incertitude quant à la détermination de la responsabilité juridique lorsque des problèmes liés à l’IA surviennent. Même si l’UE est à la pointe de la réglementation, ces incohérences mondiales rendent difficile l’attribution de la responsabilité lors de transactions transfrontalières. 

Difficulté accrue à prouver la diligence raisonnable

Les concepts juridiques traditionnels de « prévisibilité » sont remis en question par la nature autodidacte de l’IA. Il est difficile pour une entreprise de prédire l’action d’une IA lorsque l’algorithme de celle-ci est en constante évolution. Les entreprises ont alors du mal à se défendre contre les réclamations en responsabilité civile, car elles peuvent avoir du mal à démontrer qu’elles ont pris toutes les précautions raisonnables nécessaires.

Attribution complexe de la responsabilité

La question de la responsabilité devient beaucoup plus complexe. Est-ce le développeur de l’IA, le fournisseur du logiciel, l’entreprise qui met en œuvre le système ou l’IA elle-même? Cette ambiguïté peut entraîner de longues batailles juridiques et des coûts supplémentaires pour les entreprises aux prises avec des réclamations en responsabilité civile

Risque accru de litiges

L’absence de précédents juridiques clairs et la difficulté d’attribuer la responsabilité signifient que les entreprises qui utilisent l’IA sont plus susceptibles d’être confrontées à des litiges en cas de problème. Les demandeurs peuvent avoir des arguments plus solides, car l’imprévisibilité de l’IA peut rendre difficile pour les entreprises de démontrer qu’elles ont pris des mesures suffisantes.

Étude de cas : Air Canada reconnue responsable des mauvais conseils prodigués par son robot conversationnel

Une récente affaire concernant la responsabilité d'Air Canada* démontre que tenter de tenir l’IA responsable de ses actions plutôt que ceux qui la créent ou la déploient n’aboutit pas devant les tribunaux. 

Dans une affaire jugée par un tribunal des petites créances, il a été allégué que le robot conversationnel de la compagnie aérienne avait fourni de mauvais conseils à un client concernant la disponibilité d’un rabais et que la compagnie aérienne avait refusé d’honorer les informations fournies par ledit robot. Air Canada a fait valoir que l’outil en ligne était une entité juridique distincte, responsable de ses propres actes. Le tribunal a rejeté cet argument et ordonné un remboursement.

Stratégies de gestion des risques associés à l’IA et aux machines autonomes

En l’absence de réglementation claire, il devient encore plus important pour les entreprises de mettre en œuvre des stratégies de gestion des risques au moment de l’intégration de l’IA et des machines autonomes. 

  • Évitez les « hallucinations de l’IA » en vérifiant les faits : les hallucinations de l’IA désignent les cas où un modèle d’intelligence artificielle génère des résultats (textes, images ou autres données) qui sont factuellement incorrects. Pour minimiser ce problème, il est important de former les employés à l’utilisation des systèmes d’IA et de mettre en place une boucle de rétroaction avec une vérification humaine pour corroborer les faits. 
  • Utilisez l’IA de manière appropriée : si les modèles d’IA sont utiles pour des tâches telles que l’analyse de données, la reconnaissance de formes, la prédiction et l’automatisation de tâches répétitives, il est déconseillé de s’y fier pour des conseils juridiques, financiers ou médicaux. Consultez toujours un professionnel avant de prendre des décisions susceptibles d’avoir une incidence significative sur l’entreprise, les employés ou les clients. 
  • Surveillez les robots conversationnels et autres IA en contact avec la clientèle : l’affaire Air Canada l’a clairement démontré : les entreprises peuvent être tenues responsables de ce que les robots conversationnels communiquent aux clients. Veillez à mettre en place un processus pour former, surveiller et adapter correctement les représentants IA de votre entreprise.
  • Documentez la conception, le développement et le fonctionnement des systèmes d’IA : privilégiez la transparence des systèmes d’IA afin de démontrer que votre entreprise prend des mesures pour atténuer les risques

À mesure que l’IA et l’automatisation continuent de stimuler l’innovation et l’efficacité, il devient de plus en plus important d’adopter une approche proactive et éclairée pour gérer les risques de responsabilité civile inhérents. En mettant l’accent sur un déploiement responsable de l’IA et en vous tenant informé des évolutions réglementaires futures, vous pourrez aborder cette ère de transformation avec plus de confiance et atténuer les risques juridiques et financiers.

Pour en savoir plus

Veuillez nous écrire à gcs.ca@aviva.com

*en anglais seulement

Lire d'autres articles de ce genre

Les renseignements contenus dans le présent article sont donnés à titre d’information seulement et ne sauraient se substituer à l’avis de professionnels et d’experts.
 

Sauf indication contraire, les droits d’auteur sur le contenu du présent site appartiennent à Aviva Canada Inc.; ce contenu ne peut être utilisé, vendu, placé sous licence, copié ou reproduit, en tout ou en partie, de quelque manière et sous quelque forme que ce soit dans quelque média et sur quelque support que ce soit sans le consentement écrit préalable d’Aviva Canada Inc.