Skip to content
This content is currently unavailable in the requested language. Click here to see the french version of the page.

Articles Wednesday, August 30, 2023

L’intelligence artificielle : Limitez les risques de poursuite en responsabilité professionnelle

By Mes Judith Guérin et Aurélie Lompré

Share

L’intelligence artificielle (« IA ») s’impose désormais dans plusieurs domaines, dont le droit. D’ailleurs, peut-être l’utilisez-vous pour certaines tâches telles que la recherche juridique, la révision documentaire, la rédaction ou l’optimisation de documents.

Sans doute êtes-vous enthousiaste du gain de productivité qu’elle vous procure, mais connaissez-vous les risques liés à son utilisation? Certes, il existe des mesures préventives pour les atténuer, mais quelles sont-elles?

Tout d’abord, il importe de bien circonscrire ce que nous entendons par IA. Le Projet de loi C-27 dont l’un des objectifs est de mieux encadrer l’IA définit celle-ci comme suit : « Système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l’activité humaine par l’utilisation d’algorithmes génétiques, de réseaux neuronaux, d’apprentissage automatique ou d’autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions ».

Risques liés à l’utilisation de l’IA

Pour l’instant, aux États-Unis, il semble que l’IA soit en mesure d’appliquer mécaniquement des règles de droit aux problèmes juridiques soulevés. Or, dans bien des dossiers, des éléments extrajuridiques doivent être pris en compte dans la détermination de la meilleure stratégie à adopter. L’IA ignore plusieurs de ces facteurs ou ne saisit pas toujours les nuances d’un problème juridique faisant en sorte que ses recommandations pourraient s’avérer erronées ou incomplètes.

Par ailleurs, l’IA n’est pas en mesure de reproduire plusieurs compétences humaines liées à l’intelligence émotionnelle. Or, ces compétences sont primordiales dans l’établissement de bonnes relations avec vos clients.

En ce qui a trait à la fiabilité des résultats transmis par l’IA, la question se pose. En effet, plusieurs de ces technologies s’alimentent d’informations provenant d’Internet. À l’heure de la désinformation en ligne, comment garantir que ces données sont véridiques? Les médias ont rapporté plusieurs erreurs commises par les robots conversationnels, ceux-ci inventant parfois de la jurisprudence ou des articles qui n’existaient pas.

Dans cette ligne de pensée, l’IA accroît les risques de poursuites en responsabilité professionnelle en lien avec la diffamation. Imaginez que vous tentiez de discréditer un témoin sur la base d’articles de journaux ou de décisions l’impliquant alors que ceux-ci n’existent pas!

Sur le plan de la confidentialité et de la protection des renseignements personnels de vos clients, qu’arrivera-t-il si le logiciel d’IA est victime d’une cyberattaque? Autres interrogations : comment et à quel endroit sont conservés les renseignements personnels utilisés par l’IA? Qui y a accès? Quelle est la durée de conservation?

Enfin, prenez l’exemple de l’avocat robot doté de l’intelligence artificielle DoNotPay. Le 22 février 2023, ce robot devait être le premier à assister un défendeur pour contester une contravention routière devant un tribunal américain. L’intervention du robot a finalement été annulée en raison de menaces de poursuites pour pratique illégale de la profession d’avocat. Rappelons qu’au Québec, sous réserve des dispositions des articles 128.1 et 129 de la Loi sur le Barreau, sont du ressort exclusif de l’avocat en exercice ou du conseiller en loi les actes visés à l’article 128 de cette loi, exécutés pour le compte d’autrui.

Mesures préventives

À la lumière de ce qui précède, le constat général qui s’impose est la nécessité que l’intelligence humaine demeure « derrière la machine ». Voici quelques mesures préventives pour limiter les risques d’engager votre responsabilité en lien avec l’IA :

Obtenez le consentement écrit de vos clients avant d’utiliser cette technologie dans leur dossier. Idéalement, essayez de limiter la transmission de renseignements personnels à l’IA. Cela étant dit, si ce n’est pas possible, vos clients doivent en être informés et fournir un consentement éclairé à leur utilisation.

De même, assurez-vous de comprendre les fonctionnalités de la plateforme utilisée, ainsi que ses limites. Le cas échéant, suivez de la formation pour maîtriser son fonctionnement. D’ailleurs, l’article 21 du Code de déontologie des avocats (« Cda ») impose à ces derniers de développer et maintenir à jour leurs connaissances, incluant celles relatives aux technologies qu’ils utilisent. Cette compréhension est
nécessaire pour déceler plus facilement les erreurs commises par la machine, mais aussi pour expliquer à vos clients les résultats auxquels l’IA arrive.

Ajoutons qu’une utilisation avisée de l’IA implique que les paramètres de la technologie soient ajustés afin que toute ambiguïté soit portée à l’attention d’un humain.

Eu égard au devoir de conseil de l’avocat, rappelons que l’article 38 du Cda stipule qu’il doit fournir à ses clients les explications nécessaires à la compréhension et à l’appréciation de ses services professionnels. Un moyen de s’assurer de transmettre toute l’information pertinente au client est de documenter vos dossiers sur les consignes et les informations transmises à l’IA afin qu’elle génère ses réponses. De
même, consignez les démarches effectuées pour valider les recommandations, prédictions et résultats formulés par l’IA.

Par ailleurs, le Cda à ses articles 60 et suivant prévoit le devoir de confidentialité de l’avocat. En lien avec ce devoir, le choix d’une technologie d’IA devrait être guidé par les critères de sécurité et de protection du secret professionnel.

Dans cet ordre d’idées, assurez-vous de respecter vos obligations législatives en matière de protection des renseignements personnels, notamment celles prévues à la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25).

Sensibilisez vos collègues et le personnel de soutien aux enjeux liés à l’utilisation de l’IA. Nous n’insisterons jamais assez sur l’importance pour les cabinets d’implanter une politique sur l’usage de celle-ci.

En terminant, à l’heure où plusieurs dénoncent les risques liés à l’utilisation de l’IA, cette dernière évolue à une vitesse fulgurante. Il sera intéressant de suivre les développements autour du Projet de loi C-27 et voir quel sera l’encadrement législatif de l’IA au Canada.

 

Source

Bulletin Praeventio, août 2023, volume 24, numéro 4, Fonds d’assurance responsabilité professionnelle du Barreau du Québec

Share