Le juge en chef de la Cour suprême du Canada, Richard Wagner lors d'une conférence de presse, à Ottawa, le lundi 3 juin 2024. Crédit image: LA PRESSE CANADIENNE/Adrian Wyld

OTTAWA — Le juge en chef de la Cour suprême Richard Wagner voit un possible aspect positif à l’utilisation de l’intelligence artificielle pour traduire les décisions des tribunaux au Canada.

Celui qui est à la tête du Conseil canadien de la magistrature, qui regroupe 44 juges en chef et leurs adjoints, indique que le Conseil surveille le développement de cet outil qui possède « de bons côtés et de mauvais côtés ».

« Je vois un intérêt très positif à l’intelligence artificielle au niveau de la traduction des décisions, ça pourrait nous aider », a-t-il souligné hier lors de sa conférence de presse annuelle.

En décembre 2023, la Cour fédérale avait indiqué tester un nouvel outil de traduction pour les décisions rédigées par les membres de la Cour qui fait appel à une forme d’IA. « Un traducteur ou jurilinguiste examinera ces traductions effectuées au moyen de l’IA pour faire en sorte que la traduction est fidèle aux motifs originaux et rend bien l’issue de l’instance », écrivait la Cour fédérale dans la section de son site internet portant sur les principes et lignes directrices portant sur l’intelligence artificielle.

« Je pense qu’il faut utiliser l’intelligence artificielle de manière positive. Une de ces façons-là, c’est peut-être dans la traduction, c’est peut-être dans l’accès à la justice (…) Il y a d’immenses possibilités, mais il y a aussi de graves dangers », met en garde Richard Wagner, qui convient que ça ne signifie pas « de mettre une croix là-dessus ».

Il est trop tôt pour émettre des politiques sur l’intelligence artificielle à la Cour suprême, mais éventuellement, ça pourrait survenir, dit-il.

« Pour le moment, ce n’est pas un problème, mais j’aimerais ça, moi, utiliser l’intelligence artificielle pour faciliter l’accès à la justice. On l’a vu avec la COVID-19, à quel point la technologie a permis de sauver les meubles. »

Elle est là pour y rester, soutient le juge en chef du plus haut tribunal au Canada et « la question n’est pas si on peut l’arrêter », mais plutôt que les acteurs du système judiciaire ne l’utilisent pas de manière « oblique ».

« Le démon de l’intelligence artificielle est la désinformation. Au niveau juridique, c’est la création artificielle d’une jurisprudence qui n’existe pas », note-t-il.

Le plus haut juge au pays citait l’exemple d’un cas en Cour suprême de la Colombie-Britannique où un avocat a été ordonné de payer des frais à la partie opposée après avoir cité deux cas de jurisprudences qui n’existaient pas, car ils avaient été inventés par Chat GPT.

« On veut s’assurer que tout ce qui se plaide et sort d’un tribunal soit vrai et pas de la désinformation », ajoute-t-il.