Au rythme de quatre heures par semaine et accompagné-es par une équipe encadrante et les personnes ayant soumis les cas, les étudiant-es avaient trois mois pour développer des solutions concrètes qui pouvaient prendre différentes formes, telles que matériel pédagogique, recommandations politiques, sites web ou applications. La notation des étudiant-es s’est faite sur la base du travail fourni tout au long du semestre, selon plusieurs objectifs, dont, entre autres, l’organisation d’une table ronde sur leur sujet et l’acquisition de compétences transversales (soft skills) que sont le travail en groupe, la résolution de problèmes ou le développement d’une pensée critique. Les solutions développées ainsi que leur présentation lors d’une soirée publique le 27 mai (à revoir en ligne) comptaient également dans l’attribution de la note.
Pari réussi
«L’idée du cours était d’inciter chaque étudiant-e à apporter sa propre expertise afin de développer un projet concret, explique Yaniv Benhamou. Nous pensions qu’il s’agirait surtout d’une opportunité d’expérimentation, permettant d’élaborer un concept, un prototype. Finalement, les projets sont très aboutis et pourront sans doute servir à d’autres personnes actives dans ces thématiques.» Les solutions développées sont en effet accessibles en ligne, sous licences libres et les groupes peuvent être contactés pour des développements futurs.
Le premier cas a été déposé par l’ONG CyperPeace Institute et concernait la cybersécurité et la protection des données pour les populations vulnérables. Les quatre étudiant-es qui traitaient le sujet avaient pour mission de développer du matériel pédagogique pour sensibiliser le personnel des ONG à cette problématique souvent négligée. Le groupe a choisi de réaliser un jeu, sous forme de quiz en ligne ludique et rapide, avec des explications concises, ainsi que des articles de bureau (autocollants, fonds d’écran et tapis de souris) incorporant un QR-code pour renvoyer au quiz. Celui-ci est destiné à mettre en place une base de connaissances commune sur la cybersécurité au sein des ONG et sur les cybermenaces pouvant se manifester au travers des messageries électroniques.
Droit d'accès à ses données pas garanti
Le deuxième cas a été déposé par PersonalData.IO, ONG fondée par Paul-Olivier Dehaye, et concernait l’exercice du droit d’accès aux données personnelles. L‘objectif était d’analyser les modalités du droit d’accès, ses failles et ses limites. «Mieux comprendre le numérique, c’est aussi mieux comprendre la question de la protection des données, un sujet au cœur de l’actualité au vu du nombre grandissant d’entités qui collectent nos données, considérées comme le nouvel or noir», expliquent les huit étudiant-es dans le rapport de près de 50 pages qu’elles et ils livrent. Pour mener l’enquête, le groupe a effectué 49 demandes d’accès à leurs données personnelles auprès de 31 entreprises qu’il a ensuite soumises à une analyse quantitative, ainsi qu’à une comparaison entre GAFAM et entreprises suisses et européennes. Le rapport révèle notamment «une distorsion entre le plan juridique et la pratique de l’exercice du droit d’accès aux données personnelles. (…) En effet, (il) démontre que les plateformes interrogées ne répondent pas aux besoins de l’utilisateur et que ses attentes en matière d’accessibilité ne sont pas remplies.» La démarche pourrait être poursuivie, afin de renforcer la dimension collective de la protection des données, en collaboration avec PersonalData.IO ou le Département fédéral des affaires étrangères (DFAE) avec qui des discussions sont en cours.
Le troisième cas, la dimension humaine des audiences judiciaires par vidéoconférence, a été déposé par l’Ordre des avocats de Genève avec comme objectif de comprendre si la dimension humaine, les émotions, la voix, le rituel de justice et les autres garanties fondamentales des audiences peuvent être retranscrits dans le virtuel, sachant que la justice a recours aux vidéoconférences, notamment pour gagner en efficacité. Après avoir clarifié la notion de «dimension humaine» et constaté son aspect central dans la justice, le groupe de huit étudiant-es a établi une liste de recommandations qui devrait permettre la retranscription numérique d'audiences judiciaires la plus fidèle et humaine possible. Il s’agit, entre autres, de tenir compte des disparités socio-économiques des justiciables en s’assurant que ces personnes possèdent un équipement technique efficace ou en leur offrant la possibilité de suivre une formation, de veiller aux aspects d’ordre technique, tels que l’accès à une connexion internet de qualité ou la mise en place d’écrans suffisamment grands pour percevoir les gestes, tout en s’assurant que la communication entre l’avocat-e et son/sa client-e est préservée. Le groupe propose également un aménagement pour une salle d’audience digitale.
L'intelligence artificielle pour stimuler la participation citoyenne
Déposé par le Dr Jérôme Duberry, le quatrième cas avait pour intention de préciser quel pourrait être l’apport de l’intelligence artificielle dans le processus démocratique et si celle-ci serait en mesure d’influencer la participation active des citoyen-nes. Cette dernière notion a été définie par les six étudiant-es du groupe comme le fait de solliciter les outils démocratiques que sont les initiatives populaires et les référendums facultatifs. Leur analyse à ce sujet se concentre sur Genève, territoire comptant déjà plusieurs projets innovants visant à augmenter l’implication et la participation citoyennes. Dans leur note de synthèse, elles et ils présentent trois scénarios dans lesquels l’intelligence artificielle possède un degré d’autonomie et d’accès aux données croissant. Dans le premier scénario, elle a principalement un but informatif, en étant une aide à la prise de décision ou au lancement de processus. Dans le deuxième, elle possède certaines capacités de prédiction et d’assistance active. Dans le dernier, enfin, elle est capable de fonctionner de manière totalement autonome, faisant office de double numérique et bénéficiant de certains droits civiques délégués par les citoyen·nes. Sur la base de sa réflexion, le groupe de travail recommande un niveau d’intervention intermédiaire, selon le modèle du deuxième scénario. Dans celui-ci, le/la citoyen-ne garde le contrôle, tandis que l’intelligence artificielle a le pouvoir de promouvoir des liens intercitoyens et permet de favoriser la participation de populations sous-représentées. L’outil compléterait de manière intéressante le système actuel.
Le cinquième cas s’inscrit dans le cadre du projet de recherche Visual Contagions sur la circulation mondiale des images à l’ère de l’imprimé, il est financé par le FNS et dirigé par la professeure Béatrice Joyeux-Prunel. Les dix étudiant-es avaient pour objectif de produire une analyse quantitative de la circulation des images et d’en repérer les grandes routes. Le groupe a travaillé sur un corpus d’environ 4000 revues digitalisées européennes entre 1920 et 1939, à l’intérieur desquelles près de 500’000 images ont pu être récupérées grâce à la plateforme Explore, mise à disposition par le projet de recherche. Ainsi identifiées, les images ont été analysées par le biais d’algorithmes d’appariement et de comparaison de motifs et regroupées en «clusters», c’est-à-dire en groupes d'images reconnues comme étant identiques. Le groupe a choisi de formuler les résultats de son analyse sous la forme d’une carte interactive destinée à être enrichie et d’un rapport statistique, accessibles sur un site web créé pour l’occasion.
Les biais algorithmiques, quèsaco?
S’intéresser aux algorithmes discriminatoires était l’objectif du sixième cas, sur requête de la professeure Paola Merlo. Partant du constat que «les algorithmes peuvent faciliter bien des opérations dans de très nombreux domaines, mais qu’il s’agit d’outils imparfaits qui peuvent parfois mener à des discriminations», le groupe de six étudiant-es s’est intéressé à ces limites: dans quelles situations l’algorithme est-il vecteur de biais? Quelles sont les limites de son utilisation? Quel impact peut-il avoir dans notre vie de tous les jours? Que pouvons-nous faire pour limiter les discriminations? Pour y répondre et sensibiliser aux biais algorithmiques, les étudiant-es ont produit trois vidéos extrêmement didactiques, ludiques et accessibles à tous-tes, à découvrir sur leur page web, qui fournit également des prolongations textuelles très claires.
Le septième et dernier cas pratique concernait l’accessibilité d’un contenu web. À la demande de la professeure Lucía Morado Vázquez, le groupe formé par sept étudiant-es a évalué une partie du site de l’UNIGE et son accessibilité pour les personnes en situation de handicap visuel. À l'aide d'outils automatiques et grâce aux retours d'utilisateurs/trices concerné-es, les étudiant-es ont pu évaluer si ces derniers/ères étaient en mesure de percevoir, comprendre, naviguer et interagir avec le web. Sur la base de leurs résultats, qui révèlent que le site de l’UNIGE est difficile à utiliser pour ces personnes, les étudiant-es ont établi une liste de recommandations. Celles-ci concernent notamment le contraste des couleurs qui n’est pas toujours suffisant, les codes HTML dont les règles générales devraient être strictement respectées, la navigation au clavier qui n’est pas toujours possible, ainsi que les vidéos qui n‘offrent ni sous-titres ni audiodescription et pour lesquelles la description du contenu sur la page manque. Leur rapport a été adressé aux développeurs/euses web du site de l’UNIGE dans l’espoir d’une amélioration.
Le cours est reconduit l’année prochaine et fait l’objet d’un nouvel appel à collaboration. Toute personne intéressée peut proposer un sujet via ce formulaire, d’ici au 15 juillet 2021.
Pour en savoir plus