27 janvier 2026 - Yann Bernardinelli

 

Analyse

Des étudiantes débattent des droits humains et de l’IA sur la scène de l’ONU

Au RightsX Summit du Haut-Commissariat des Nations unies aux droits de l’homme, trois étudiantes de l’UNIGE ont été invitées à débattre de la place à accorder à l’intelligence artificielle dans la prévention des atrocités de masse et dans la protection des droits humains.

 

RightsX Summit_J.jpg

Une partie des étudiantes et étudiants ayant participé à la mention sur l’IA et les droits humains, de gauche à droite: Jasmine Ghafar – étudiante du Master African Studies, UNIGE; Asal Abedini - étudiante en Commerce et science des données, Albert School; Lara Siebenhaar - étudiante en master en droit international et européen, UNIGE; André Knuchel - étudiant en science des données, Albert School; Charles Beck, étudiant au Master de donnée et finance, Albert School.

. Image: DR

Pensé comme un laboratoire d’idées sur l’avenir des droits humains à l’ère du numérique, le RightsX Summit, qui s’est tenu les 10 et 11 décembre 2025, visait notamment à faire entendre la voix de la jeunesse sur la scène principale des Nations unies. Pour ce faire, une plateforme dédiée, nommée « Youth Debate » avait pour objectif de confronter un parterre d’une soixantaine d’expertes et d’experts à celles et ceux qui façonneront le droit international de demain, mais aussi les technologies, la protection de l’environnement et les nouveaux cadres des droits humains. Trois étudiantes de master de l’UNIGE y ont participé après une sélection rigoureuse : Lara Siebenhaar, étudiante en droit international et européen, Jasmine Ghafar, étudiante en études africaines, et Hsin-Yu Pan, issue du programme interdisciplinaire en innovation, développement humain et durabilité (IHDS). Toutes trois ont pris part à un débat construit autour d’une motion provocatrice : faut-il faire pleinement confiance à l’intelligence artificielle (IA) pour prévenir les atrocités de masse?

 

Bousculer les positions
La session a pris la forme d’un « débat Oxford », un exercice codifié et typique des formations juridiques, fondé sur l’alternance d’arguments et de réfutations. « Il y a une motion, deux groupes, l’un pour, l’autre contre, et chacun-e doit défendre sa position, même s’il n’y adhère pas personnellement », explique Lara Siebenhaar. Un vote avant et après le débat permettait de mesurer l’évolution des opinions du public.

Pour Susana Perdiz, responsable du SDG Internship Programme de l’UNIGE, qui a servi de relais entre l’Université et le Haut-Commissariat aux Droits de l’Homme, ce format répond à une volonté claire du sommet. « L’idée était de faire entendre, dans une enceinte onusienne, des arguments qui ne sont pas toujours portés ici, et de mettre les jeunes au centre de la discussion. » Elle souligne que le master IHDS, qu’elle a contribué à créer, a précisément été conçu pour former des étudiantes et étudiants capables de naviguer entre technologie, durabilité et droits humains, tout en tissant des liens avec des organisations internationales. « Nous travaillons beaucoup avec des partenaires externes afin que les étudiantes et étudiants soient confronté-es à des situations réelles, et pas seulement théoriques, comme lors de ce sommet. »

 

Entre promesses et risques

Au fil des échanges construits entre des étudiantes et des étudiants aux profils multidisciplinaires, un constat s’est imposé : l’IA cristallise à la fois des espoirs très concrets et des inquiétudes profondes lorsqu’il s’agit de prévenir les atrocités de masse.

D’un côté, la technologie permet de traiter en un temps record et avec moins de ressources financières et humaines de grands volumes de données. Images satellites, flux de réseaux sociaux, bases de données ouvertes peuvent être analysés pour repérer des signaux, documenter des abus ou identifier des schémas de violence. Lara Siebenhaar rappelle qu’il y a « déjà beaucoup d’applications en place aujourd’hui. Par exemple, une application utilise la vision par ordinateur pour passer au crible des millions de photos et de vidéos à la recherche de preuves d’armes à sous-munitions illégales en Syrie et au Yémen. Ou encore au Mexique où des modèles d’apprentissage automatique sont utilisés pour rechercher des fosses communes. »

Mais la discussion a aussi mis en lumière le fait que les mêmes technologies peuvent renforcer des dispositifs de surveillance, être détournées à des fins répressives et amplifier les violations des droits humains dans des contextes de conflit ou de contrôle migratoire. À cela s’ajoutent des enjeux plus structurels, comme les biais non intentionnels dans les données d’entraînement de l’IA ou l’impact environnemental des infrastructures nécessaires, notamment des centres de données très gourmands en eau et en énergie, souvent implantés dans des zones déjà vulnérables. « Les risques sont réels, entre biais d’automatisation, détournements et usages par des personnes violentes. Mais ces risques peuvent être atténués par la formation appropriée des utilisateurs et utilisatrices, et par un cadre juridique adapté aux défis », rappelle l’étudiante.

 

Une génération optimiste
Pour Lara Siebenhaar, la spécificité de l’intervention étudiante tient aussi au regard porté sur l’IA. « J’ai eu le sentiment que nous apportions, en tant que jeunes, plus d’optimisme que d’autres catégories d’âges. Peut-être parce que nous avons plus l’habitude du numérique », confie-t-elle. « Il ne s’agit pas d’un optimisme naïf, mais de l’idée que l’IA peut aussi améliorer les choses si on sait comment l’utiliser. Le tout c’est d’apprendre à s’en servir comme d’un instrument avec ses limites, tout en gardant nos capacités d’analyse et de jugement. »

Au cœur du débat, la question de la gouvernance a occupé une place centrale. Qui entraîne les systèmes, sur quelles données, avec quels objectifs et sous quel contrôle ? « Beaucoup de règles importantes existent déjà pour protéger la population civile en temps de conflit armé et prévenir les crimes les plus graves, mais elles doivent être interprétées à la lumière de ces nouvelles technologies et d’autres seront certainement nécessaires », souligne Lara Siebenhaar. Elle évoque aussi la nécessité de définir plus clairement le rôle de l’humain dans la prise de décision. « Dans certains domaines, on ne peut pas accepter que la machine décide seule. Il y a des choix qui engagent la vie, la liberté, la dignité et qui relèvent aussi de considérations éthiques, pas uniquement juridiques. Pour tout cela, le facteur humain reste essentiel. » Selon elle, l’enjeu n’est donc pas seulement de créer de nouveaux outils, mais de construire des cadres solides, fondés sur le droit international, pour en gouverner l’usage.

 

Une expérience formatrice

Lara Siebenhaar revient enfin sur ce que le sommet lui a apporté. Le fait de défendre une position qu’elle ne partage pas entièrement a déplacé son regard, puisqu’elle faisait partie du groupe chargé d’argumenter en faveur de la motion. « Cela m’a poussée à chercher davantage d’exemples positifs, à documenter ce qui existe déjà. » Une expérience qu’elle décrit comme structurante, tant sur le plan académique que personnel. « Parler devant des diplomates et des spécialistes, travailler en équipe, argumenter sur un sujet aussi sensible, c’était un vrai défi. »

 

 

Analyse