27 avril 2023 - Alexandra Charvet

 

Analyse

«Genève a un rôle fondamental à jouer dans la régulation de l’IA»

L’arrivée de ChatGPT sur le marché a mis le monde en émoi. Que ce soit sous la forme de moratoire, d’interdiction ou de réglementations plus ou moins étendues, la société cherche le meilleur moyen de contrôler une technologie qui se développe de manière exponentielle.

 

AdobeStock_567532989_Editorial_Use_Only_J.jpg

Face à une technologie qui se déploie à une vitesse exponentielle, le Digital Law Center de l'UNIGE s’efforce d’accompagner les changements et de proposer des solutions adaptées aux nouveaux défis qui se présentent. Image: Adobe Stock

 

Atteinte aux droits fondamentaux, siphonnage de données personnelles, violations du droit d’auteur-e… Les défis légaux liés au développement des intelligences artificielles (IA) sont légion. Si la loi s’est attelée depuis longtemps à cadrer les avancées technologiques de ces dernières, l’arrivée de ChatGPT a bouleversé le monde juridique. État des lieux avec le professeur Yaniv Benhamou, spécialiste du droit du numérique.


LeJournal: Face à l’émergence de produits tels que ChatGPT, dans quel domaine faut-il légiférer en priorité?
Yaniv Benhamou:
Il faut tout d’abord faire en sorte que le fonctionnement de ChatGPT soit conforme aux réglementations actuelles. Il existe en effet un cadre légal déjà en vigueur, en l’occurrence le Règlement général sur la protection des données de l’Union européenne (RGPD), dont le pendant suisse est la Loi fédérale sur la protection des données (LPD). Bien que pour certain-es juristes, il semble impossible d’utiliser ChatGPT conformément à ces réglementations, il pourrait suffire, selon d’autres, d’améliorer les droits de contrôle des individus et la transparence pour que le respect de la vie privée soit assuré.

L’Italie a banni l’utilisation de ChatGPT. Sur quelles bases a-t-elle pris cette décision?
Pour le régulateur italien, ChatGPT commet plusieurs violations de la vie privée: le manque de transparence et d’information – les personnes concernées ne savent pas que leurs données sont réutilisées –, l’impossibilité d’actionner ses droits d’accès (je souhaite savoir quelles données m’appartenant sont reprises par ChatGPT) ainsi que le droit à l’oubli (je souhaite que ChatGPT efface de son système toutes les données me concernant), la violation du principe de licéité – tout traitement des données personnelles doit reposer sur un motif justificatif, tel un intérêt public ou privé prépondérant et, enfin, un déficit de mesures protégeant les mineur-es. De manière générale, la décision italienne est peu étayée juridiquement et se trouve, de ce fait, contestable. Ce qui explique pourquoi le Comité européen de la protection des données a proposé de ne pas prendre de décision radicale mais, au contraire, de se concerter afin d’établir des lignes directrices.

Quelle est la position helvétique sur le sujet?
Le préposé fédéral à la protection des données et à la transparence a recommandé de ne pas bannir la plateforme, mais préconise que tout-e utilisateur/trice en fasse un usage conscient. Une position rassurante car ce serait une erreur de priver une population entière d’une technologie révolutionnaire sur la base d’une décision hâtive. D’autant plus que l’on ignore les répercussions économiques auxquelles une interdiction conduirait – cela favoriserait-il certaines catégories de la population au détriment d’autres? En forçant le trait, c’est comme si, à l’époque, on avait privé un pays entier de Google ou de la calculette au motif que la technologie était nouvelle et que les répercussions étaient imprévisibles. En outre, il n’est pas exclu que les violations pointées par le régulateur italien puissent être résolues, si ChatGPT adapte son offre pour être compatible avec le RGPD, en introduisant notamment des solutions techniques de vérification d’âge et un explicatif clair sur son utilisation. Par ailleurs, l’intérêt public à accéder à ChatGPT pourrait sans doute justifier l’utilisation de données personnelles et le respect du principe de licéité. Il reste toutefois compliqué d’assurer les droits d’accès et le droit à l’oubli, car cela suppose une traçabilité de chaque donnée.

Le moratoire réclamé par des centaines d’expert-es semble-t-il être une meilleure solution que l’interdiction italienne?
Plutôt qu’un moratoire, il faut accompagner le développement de ces technologies de manière responsable, éthique et transparente afin que la société puisse profiter des bénéfices qu’elles peuvent apporter. Une première piste est de le faire via des règlements à effets globaux, à l’instar du RGPD. Bien que d’origine européenne, ce texte a des effets extraterritoriaux – il est notamment contraignant pour les IA américaines dès lors qu’elles déploient des effets en Europe – et des effets globaux – il a notamment inspiré nombre de législateurs/trices tout comme les pratiques de l’industrie qui cherchent à se conformer au standard international qu’il est devenu. La seconde piste est de renforcer l’existant avec des réglementations spécifiques de l’IA, comme celles discutées actuellement en Europe, au Royaume-Uni ou aux États-Unis. Ces lois sectorielles de l’IA auront, elles aussi, des effets extraterritoriaux et possiblement globaux.

Le domaine du droit d’auteur-e semble mis à mal avec ce type de technologie. Qu’en est-il exactement?
Pour produire leurs résultats, les IA génératives réutilisent des données préexistantes dont beaucoup sont protégées par le droit d’auteur-e. ChatGPT se nourrit de montagnes de textes (livres, articles de presse, pages web, réseaux sociaux) et les générateurs d’images, comme Stable Diffusion ou Midjourney, puisent leurs données dans des banques d’images. Dans les deux cas, la question qui se pose est de savoir s’il est licite d’ingurgiter des données protégées. En Europe, il existe une exception (Text and Data Mining) qui autorise la réutilisation des données couvertes par le droit d’auteur-e si le but est de faire de l’analyse et de l’extraction de données. Aux États-Unis, l’approche est similaire, avec une exception dite du fair use selon laquelle la réutilisation de données est licite, pour autant qu’elle soit considérée comme loyale, par exemple parce que le résultat serait transformatif. Dans ce sens, étant nouveaux, les tableaux de MidJourney et les textes de ChatGPT sont des usages transformatifs. Aux États-Unis, plusieurs artistes se sont allié-es pour poursuivre en justice les IA génératives au nom de la violation des droits d’auteur-e. Les juges vont avoir la délicate tâche de trancher. Si la réutilisation est jugée illicite, les développeurs/euses des IA génératives vont devoir revoir leurs modèles et, le cas échéant, contracter des licences avec chaque base de données.

Quels sont les enjeux sur le plan des droits fondamentaux?
L’IA peut avoir des répercussions sur la plupart des droits fondamentaux, du fait de son opacité et de sa complexité. À titre d’exemples, on peut songer au droit à une décision équitable, sachant qu’une décision fondée sur l’IA n’est souvent pas explicable (phénomène dit de la black box) ou encore à l’interdiction des discriminations, sachant qu’une IA entraînée sur des données biaisées pourra conduire à discriminer systématiquement certaines catégories de population. Les droits fondamentaux peuvent être toutefois compliqués à mettre en œuvre. L’une des pistes serait de les renforcer avec des principes éthiques de l’IA – et il en existe de plus en plus qui émergent à l’échelle internationale – que l’on rendrait contraignants, par exemple à travers des traités internationaux ou une certification que tout-e prestataire devrait respecter.

Plébiscitée par de nombreux/euses acteurs/trices, la régulation ne résoudra probablement pas toutes les problématiques. En particulier, qu’est-ce que le droit ne va pas pouvoir réaliser dans le domaine des IA?
Un premier défi est qu’il est difficile de trouver une réponse globale face à un phénomène de telle ampleur, sachant que le droit reste encore local et qu’il n’existe pas d’instance qui puisse définir de telles normes à l’échelle mondiale. À cet égard, Genève a un rôle fondamental à jouer dans la régulation de l’IA, à travers les organisations internationales existantes ou peut-être avec la création d’une nouvelle structure, sorte d’organisation mondiale de régulation de l’IA. Un deuxième défi est le risque que les normes deviennent obsolètes face à une technologie qui se déploie à une vitesse exponentielle. À cet égard, l’Université a aussi un rôle fondamental à jouer afin d’accompagner ces changements et de proposer des solutions adaptées à ces défis, ce que nous faisons à l’UNIGE et notamment au Digital Law Center de la Faculté de droit.

 

Analyse