Gare aux pièges que présente l’IA générative
Depuis l’irruption de l’intelligence artificielle (IA) générative, en particulier ChatGPT, l’IA jouit d’une popularité fracassante. Utilisé à toutes les sauces, cet outil a donné lieu à des gains de productivité notables, et tout porte à croire qu’il continuera sur cette lancée.
On s’en sert pour pondre articles, lettres et courriels, trouver l’inspiration, ou encore faire la synthèse d’un vaste éventail de contenus. Mais derrière ce grand potentiel se cachent nombre de défis, dilemmes et incertitudes.
En savoir plus
- IA : le gouvernement réagit à un appel urgent de CPA Canada
- L’éthique en IA, un thème cher à CPA Canada
- IA et automatisation : au service de l’évaluation d’entreprises?
Comment utiliser l’IA de façon morale pour préparer des rapports ou rédiger des textes dans le cadre de son travail, ou de ses études? Et quelle confiance peut-on accorder aux documents ainsi produits?
Les systèmes d’IA générative, entraînés à partir d’écrits originaux extraits du Web, n’indiquent pas leurs sources, et celles-ci sont difficiles, voire impossibles à retracer, et donc, à citer adéquatement. Voilà le cœur du problème.
De fait, les passages repris et présentés comme un travail original sont parfois repérés par des lecteurs qui les ont vus ailleurs, ou les auteurs mêmes des extraits reproduits. Et ce n’est pas sans conséquences : présenter comme sien un produit de l’IA expose le créateur non seulement à une perte de crédibilité et de confiance du lectorat, mais aussi à des poursuites judiciaires. OpenAI en sait quelque chose. Au printemps dernier, l’actrice Scarlett Johansson a menacé de la poursuivre au motif que l’une des voix de ChatGPT ressemblait à s’y méprendre à la sienne (l’entreprise a alors annoncé qu’elle en suspendait immédiatement l’utilisation).
La capacité de l’IA générative de modifier des contenus originaux et d’en créer de toutes pièces pose d’importantes questions éthiques. Compte tenu de l’absence de sources, les utilisateurs risquent d’enfreindre les règles du droit d’auteur. Par ailleurs, l’importance du rôle joué par l’IA varie énormément d’un cas à l’autre. Elle peut notamment fournir sur requête un plan de rédaction, des idées ou un article dans son intégralité. Il incombe ensuite aux utilisateurs de déterminer la part du contenu créé à modifier ou à reprendre telle quelle.
D’où cette question fondamentale : comment définir le plagiat? Nul doute, se proclamer l’auteur d’un article entièrement généré par l’IA et sur lequel on a peu, voire pas du tout travaillé revient au même que faire passer le texte d’une autre personne pour le sien.
La plupart des universités ont adopté des mesures pour contrer le problème, dont l’interdiction d’utiliser l’IA pour rédiger des travaux. Dans la même veine, les organisateurs de l’International Conference on Machine Learning exigent, depuis l’an dernier, que les présentateurs élaborent leurs documents de recherche sans recourir à l’IA générative. Certaines organisations ont plutôt mis en place des politiques prescrivant d’inclure les outils d’IA utilisés dans les références bibliographiques. Voici un exemple de notice : « ChatGPT, résultat de la requête “Créer des annexes qui récapitulent les éléments clés de l’article”, OpenAI, 20 mai 2023. »
Or, réduire les risques de tricherie et de plagiat n’est pas tout. Encore faut-il trouver une solution au biais des données et aux fausses informations, appelées hallucinations, propres aux systèmes d’IA. Rappelons que les sources auxquelles puisent ces outils ne sont pas exemptes de partis pris, ce qui transparaît dans le contenu produit. Des développeurs d’IA générative s’efforcent de rectifier le tir, mais il est trop tôt pour se prononcer sur le succès de leurs démarches.
Avant de mettre l’IA à profit dans la préparation de rapports et autres documents, il faut s’informer des politiques en la matière des établissements ou entreprises destinataires.
Il importe aussi de s’appuyer sur des principes fondamentaux d’honnêteté, d’intégrité et de transparence pour analyser cette technologie sous l’angle éthique. Dans cet esprit, il faut préciser l’ampleur des interventions de l’IA dans la production d’un texte donné. Si l’outil a fait tout le travail, des enjeux moraux se posent. Si l’IA a servi seulement pour des passages précis, si minimes soient-ils, on doit spécifier la provenance des informations citées.
Dans le cas de rapports internes, les questions de droits d’auteur pèsent moins dans la balance, mais les défis liés à l’exactitude, à la neutralité des données et à la protection des renseignements personnels demeurent. Les auditeurs doivent toujours garder ces considérations en tête. Par exemple, soumettre des fichiers de clients à un système d’IA – pour en faire l’analyse ou générer du contenu – constituerait une atteinte à la confidentialité. L’instauration de politiques claires et raisonnées par les cabinets favorisera une application judicieuse de cette technologie.
Autre facteur à considérer : l’IA générative évolue à une vitesse sans commune mesure. On ne cesse en effet de lui trouver de nouveaux usages et de revoir ses systèmes. Les règles qui la régissent sont donc appelées à progresser tout aussi rapidement.