24 novembre 2022 - Jacques Erard

 

Analyse

Le droit face aux robots

Un colloque organisé récemment par la Faculté de droit s’est penché sur les défis juridiques liés au développement de l’intelligence artificielle. Tour d’horizon.

 

 

robots-J.jpg

Photo: Adobestock

 

En une dizaine d’années, l’intelligence artificielle a effectué un pas de géant en devenant capable de produire des systèmes auto-apprenants dotés d’une forme d’autonomie. Demain, des machines intelligentes piloteront nos voitures, prendront part aux conflits armés, jugeront nos actes et publieront des articles dans les médias. Ces robots existent déjà, à l’état embryonnaire, dans nos véhicules, nos téléphones et nos ordinateurs. Censées nous faciliter la vie ou nous protéger, ces technologies, qui évoluent à la vitesse de l’éclair, sans se préoccuper de barrières géographiques ou politiques, représentent un défi gigantesque pour les juristes soucieux-euses de protéger nos droits fondamentaux. Ces enjeux se trouvaient au cœur d’un colloque organisé mi-novembre par le Centre d’étude, de technique et d’évaluation législatives (Faculté de droit). Parmi les intervenant-es: Alexandre Flückiger, professeur de droit public.

 

Le Journal: En quoi les robots sont-ils problématiques du point de vue des droits fondamentaux?
Alexandre Flückiger: Prenez le cas des robots tueurs ou des voitures autonomes, qui sont tous deux susceptibles d’être amenés à prendre des décisions létales. Qui est responsable en cas d’accident? Celle ou celui qui est propriétaire du robot, celle ou celui qui l’a fabriqué, celle ou celui qui l’utilise? Dans un autre registre, certains algorithmes reproduisent des biais problématiques en regard de l’égalité de traitement. Le cas s’est présenté avec des logiciels utilisés aux États-Unis pour décider de libérations conditionnelles. Les algorithmes prétéritaient systématiquement les personnes de sexe masculin, à bas revenus, de couleur, résidentes de quartiers défavorisés parce que, statistiquement, ces catégories représentent un risque plus élevé de récidive que les femmes blanches des quartiers huppés. L’intelligence artificielle est également utilisée à des fins de surveillance, avec des dispositifs très intrusifs de reconnaissance biométrique à distance, dans l’espace public. Cette surveillance, à laquelle il devient de plus en plus difficile d’échapper, peut donner lieu à des systèmes de notation sociale en vue d’attribuer ou non des prestations. Ces développements montrent à quel point il est devenu indispensable de légiférer. Et cela ne concerne pas uniquement les droits fondamentaux.

Quels autres domaines du droit sont concernés?
Pratiquement tous. Pour ne citer qu’un exemple, les produits générés par l’intelligence artificielle posent des questions de propriété intellectuelle. Certains logiciels produisent des images à partir d’une description fournie par l’utilisateur/trice. Lorsque ces images acquièrent une valeur artistique ou commerciale, faut-il protéger la description qui en détermine la qualité? Le designer français Philippe Starck a demandé que son style soit protégé. De fait, si vous demandez à un générateur de produire une image «à la manière de Philippe Starck», vous n’obtenez aucun résultat. Barack Obama et Emmanuel Macron, parmi de nombreuses autres célébrités, ont fait une démarche similaire pour interdire l’utilisation de leur image par ce type de logiciels. Cela répond aussi à la crainte du «deep fake», qui désigne ces techniques de synthèse vidéos qui permettent de créer, à l’aide de l’intelligence artificielle, de fausses interviews de personnalités existantes. D’ailleurs, ce genre de manipulation est problématique également du point de vue des droits politiques et de la liberté d’expression.

Comment légiférer dans un domaine comme le numérique, qui échappe par nature à toute notion de territorialité?
C’est la raison pour laquelle nous parlons d’un droit algorithmique global. Il faut prévoir des normes internationales, ce qui n’est évidemment pas joué d’avance. Les technologies numériques se sont diffusées de manière globale sur des territoires qui n’ont pas les mêmes standards. La protection des données personnelles est, par exemple, beaucoup plus restrictive en Europe qu’aux États-Unis ou en Chine. Trouver des dénominateurs communs est par conséquent une tâche ardue.

Y a-t-il des pistes pour contourner cet obstacle?
La dernière en date est un projet de législation au niveau de l’Union européenne. L’idée est très intéressante. Elle consiste à intégrer les droits fondamentaux dans l’architecture même des systèmes, qui devront garantir qu’ils respectent ces droits «by design».

Un robot apte à prendre la décision de tuer ou non serait donc conçu pour respecter les conventions de Genève?
Oui, ce serait idéal. Cela implique aussi que le robot soit programmé pour désobéir à des ordres qui seraient illicites. Mais vous imaginez les conséquences pour les juristes. À la Faculté de droit, nous enseignons des règles inscrites dans des codes juridiques. Dorénavant, il faudra apprendre aux juristes à écrire du code informatique. Cela va exiger beaucoup d’interdisciplinarité.

Quelles sont les autres solutions?
On peut recourir aux normes techniques. Genève est bien placée à cet égard étant donné qu’elle abrite l’Organisation internationale de normalisation (ISO), qui travaille précisément sur ces questions. Il existe par ailleurs un certain nombre de recommandations et de bonnes pratiques internationales. Pour l’heure, les efforts consistent toutefois surtout à mettre en place  des garde-fou juridiques. Nous ne sommes qu’au début de ce qui va sans nul doute devenir une très longue histoire.

 

Analyse