Campus n°126

« Smart Data » : l’île au trésor

3DO4.PNG

Or noir du XXIe siècle, les données constituent le cœur de l’économie numérique. Une nouvelle manne qu’il s’agit toutefois de domestiquer
si l’on entend en tirer profit. Un nouveau master lancé à la rentrée 2017 donnera les clés pour y parvenir

C’est un véritable tsunami électronique. Chaque jour, des centaines de milliards de données numériques déferlent sur la planète (on parle de 2,8 x 1021 octets par année) pour s’entasser sur des serveurs dont la localisation reste souvent incertaine. Pour de nombreux spécialistes, cette masse d’informations représente un nouvel Eldorado économique. C’est probablement vrai, à condition d’être capable d’en tirer du sens. Apprendre à faire parler les Big Data, c’est précisément l’objectif du Master en business analytique que proposera dès la rentrée 2017 la Faculté d’économie et de management (GSEM). Le point avec Christian Hildebrand, professeur assistant de marketing analytique au sein de la GSEM.
« Aujourd’hui, les données viennent de partout, explique le chercheur. Aux statistiques existant depuis toujours dans l’économie traditionnelle, s’ajoutent un énorme flot d’informations liées aux activités on line ainsi qu’un nombre croissant de données fournies par des capteurs que l’on trouve désormais aussi bien dans les moteurs d’avion (lire en page 33) que dans les montres connectées ou les vêtements dits intelligents. Le problème, c’est qu’en l’état brut, ces données n’ont pas une grande valeur. D’où l’idée de transformer ces Big Data en Smart Data. »
Apparu au tournant du XXe siècle, le terme Big Data (littéralement « grosses données ») désigne des ensembles de données tellement volumineux qu’ils en deviennent difficiles à manipuler avec les outils classiques de gestion de l’information. Selon une terminologie largement acceptée, le concept peut être cerné grâce à la règle des « trois V ». Le premier renvoie à leur volume en constante expansion. Le second fait référence à leur variété, les données pouvant être plus ou moins structurées, sous forme de chiffres, de texte ou d’images, etc. Le troisième, la vélocité, se réfère à la vitesse à laquelle les données sont générées et doivent être traitées.
Certains spécialistes, comme Diego Kuonen, également professeur à la GSEM (lire en page 35) en ajoutent un quatrième : la véracité, qui prend en compte le fait que la fiabilité des données est inégale, dans la mesure où elles peuvent être polluées par du « bruit » ou des erreurs qui relativisent leur validité.
La plupart des économistes frétillent devant les possibilités offertes par cette nouvelle manne. Le potentiel est, il est vrai, colossal, que ce soit en termes de management, de logistique, de marketing, de commerce de détail ou de santé.
Grâce aux Big Data, il est en effet théoriquement possible de déployer extrêmement rapidement des campagnes destinées à promouvoir la vente de tel ou tel bien en fonction d’un événement ponctuel (l’évolution de la météo ou un grand événement sportif, par exemple), d’optimiser la prévention de la criminalité en ajustant le nombre de policiers en fonction des moments ou des zones à risque, de comparer le comportement des consommateurs en fonction de leur niveau de vie et de leur lieu d’habitation ou encore d’assurer sa propre veille sanitaire.
A titre d’exemple, la CSS, qui est une des plus importantes caisses maladie du pays en nombre d’assurés, a annoncé récemment son intention d’offrir un rabais aux clients qui attesteraient, via un système de surveillance électronique, avoir fait plus de 10 000 pas par jour (soit l’équivalent de
6 kilomètres environ). En Allemagne, Generali, a de son côté, lancé un programme similaire comprenant la mesure du pouls, de la vitesse de jogging et des calories absorbées. Et les assureurs automobiles ne sont pas en reste puisque Axa Winterthur propose une baisse de prime aux conducteurs de moins de 26 ans qui acceptent de poser dans leur voiture une sorte de boîte noire enregistrant les données, des manœuvres de freinage à la conduite dans les virages.
« L’idée qui est au cœur de ce qu’on appelle le « business intelligent » ou le « business analytique » est de tirer profit des données afin de prendre des décisions économiques permettant d’optimiser les performances ou le rendement, reprend Christian Hildebrand. Mais pour y parvenir, il ne suffit pas d’être un expert en statistiques. Il faut également être capable de se poser les bonnes questions afin d’utiliser les données adéquates, d’élaborer une stratégie cohérente et de communiquer clairement ses résultats. »
Trois aspects qui sont aujourd’hui, selon Christian Hildebrand, largement hors de portée tant des consommateurs que des chefs d’entreprise ou des gouvernants. Le master que proposera l’Université à partir de la rentrée 2017 y accordera donc une attention toute particulière.
« L’immense majorité des formations dispensées aujourd’hui au niveau académique se concentre sur la dimension technologique, complète le chercheur. C’est un élément nécessaire mais pas suffisant. Notre ambition, qui est assez unique, est de fournir aux étudiants toutes les armes dont ils auront besoin lorsqu’ils entreront sur le marché du travail. »
Outre les connaissances purement techniques portant sur la science des statistiques, les participants au futur master seront donc également confrontés au maniement de données réelles afin de résoudre les problèmes qui se posent concrètement aux entreprises. Ils apprendront, par ailleurs, à présenter leur démarche de façon claire et intelligible pour des non-initiés. Une dimension essentielle aux yeux du professeur étant donné que les managers et les décideurs politiques ne s’intéressent pas tant aux indicateurs et aux statistiques utilisées pour telle ou telle analyse qu’aux bénéfices qu’ils pourront en tirer. C’est donc cela qu’il s’agira de leur montrer.
Reste deux questions épineuses. D’abord celle de la responsabilité et, ensuite, celle de notre rapport même au progrès technologique. Dans le premier cas, que ce soit au sein d’une entreprise privée ou de l’administration publique, si une décision basée sur l’analyse de données n’apporte pas les résultats escomptés, qui portera le chapeau ? Le dirigeant qui a fait le choix final, les scientifiques qui ont procédé à l’analyse ou les personnes impliquées dans la production des données ? « Pour l’instant, admet Christian Hildebrand, il n’y a pas de réponse à ces questions qui risquent pourtant d’avoir un impact très important sur notre vie économique future. »
Dans le second cas, la source de préoccupation est la confiance que nos sociétés attribuent à tout ce qui est nombres et statistiques. Dans un contexte qui voit progresser le phénomène de la « quantification de soi » – qui consiste à obtenir des données sur sa propre vie par le biais d’applications, de montres connectées et autres « fitbit » – qu’elle place restera-t-il pour le ressenti ?
« De manière générale, dans nos sociétés, les gens accordent une confiance excessive à tout ce qui peut être chiffré et ont tendance à suranalyser le moindre événement de la vie quotidienne », explique Christian Hildebrand. Dès lors, si en vous réveillant le matin, votre téléphone mobile vous dit que vous n’avez pas assez dormi alors que vous vous sentez reposé, il existe un risque pour que vous laissiez les données modifier votre intuition et que vous vous sentiez plus fatigué que vous ne l’êtes effectivement. De la même manière, ferez-vous confiance à votre intuition si vous croyez avoir rencontré la bonne personne après un premier rendez-vous alors que les données de vos profils respectifs disent le contraire ? »

Diego Kuonen, maître des « mégadonnées »

Le job de Diego Kuonen est le plus sexy du XXIe siècle. C’est lui-même qui le dit. Pourtant, professeur au Centre de recherche en statistique (Faculté d’économie et de management), ce Haut-Valaisan originaire de Zermatt, formé à l’Ecole polytechnique fédérale de Lausanne, est statisticien : un métier aride et ardu qui n’a pas toujours éveillé une excitation palpable lors des discussions mondaines. Mais ça, c’était avant que ne commence à déferler la vague du Big Data et de la science qui l’accompagne, celle qui traite des données de toute nature (valeurs, sons, images, vidéos, textes…) que récoltent et stockent sans cesse de plus en plus d’appareils connectés à Internet (téléphones portables, montres intelligentes, caméras, capteurs…). Cette discipline promet en effet de changer la face du monde et, selon certaines estimations, de générer des centaines de milliards de dollars de revenus. Alors bien sûr, les rares individus qui maîtrisent les rouages de cette énorme machinerie remplie de chiffres et qui savent comment l’exploiter avec succès deviennent subitement des vedettes.
Et à ce petit jeu, Diego Kuonen excelle. Selon un classement publié en février 2016 par le site spécialisé onalytica.com, il figure au 12e rang des 100 personnalités les plus influentes au monde dans le domaine du traitement et de l’analyse de données. Un autre site, Maptive, l’a classé en janvier 2016 au 22e rang des experts mondiaux du Big Data méritant d’être suivis de près. Ces classements sont basés sur l’activité de ces spécialistes dans les réseaux sociaux. Une démarche peu scientifique mais qui permet malgré tout de se faire une idée des personnalités ayant un certain poids dans cette communauté.
Sa renommée, Diego Kuonen la doit surtout à la société Statoo Consulting, qu’il a fondée et qu’il dirige depuis 2001. La liste de ses clients est longue, d’ABB à Wago (entreprise suisse de raccordement électrique) en passant par une centaine d’autres sociétés internationales dont BMW, Merck Serono, Nestlé, Procter & Gamble, TOTSA ou encore Swiss Re. Le statisticien genevois leur fournit des conseils et des éléments de base sur la science des données, pourfendant au passage les nombreux clichés qui collent à sa discipline.
« J’ai lancé ma société avant l’avènement du Big Data, précise Diego Kuonen. Je l’ai fait parce que j’étais alors persuadé – et je le suis toujours – que tout le monde a besoin de la statistique et que celle-ci peut accomplir de grandes choses. Mon enthousiasme pour cette discipline est comme un feu intérieur qui brûle depuis des années. Aujourd’hui, je profite de l’engouement sans précédent pour l’analyse des données qui occupe de plus en plus de place dans les processus de prise de décision aussi bien politique qu’économique. »
Et de fait, presque toutes les entreprises et institutions publiques se mettent à accumuler des données de toutes sortes, générant une matière première dont elles rêvent de tirer des informations utiles – et rentables – à leur activité. Mais le passage du Big Data au Smart Data n’est pas si simple et, selon Diego Kuonen, si l’on ne pose pas les bonnes questions aux bonnes données, on n’obtiendra pas les bonnes réponses. Cette étape est cruciale mais aussi très délicate. Elle demande un savoir-faire que le statisticien maîtrise à la différence de la plupart des entrepreneurs.
« Il faut d’abord mettre en place une approche très systématique, ou séquentielle, énumère Diego Kuonen. Il faut également définir l’objectif scientifique ou politique que l’on veut atteindre. On doit ensuite s’inquiéter de la bonne qualité (quantité, fiabilité, précision…) des données et vérifier si elles sont à même de produire les réponses que l’on cherche. Et tout cela n’a que peu de valeur si l’on ne tient pas compte du contexte dans lequel les données ont été récoltées, un contexte décisif pour l’interprétation des résultats ou du choix des technologies à utiliser. »
Dans le cas de la mise au point d’une montre intelligente destinée à des patients nécessitant d’être suivis en continu, par exemple, il faut être sûr que les données fournies par l’appareil soient bien celles dont on a besoin, à tout moment, surtout si de celles-ci dépendent par exemple des prescriptions médicales précises. La compagnie d’assurances qui veut accorder un rabais aux affiliés qui effectuent 10 000 pas par jour doit être certaine que les appareils qu’elle utilise mesurent bien des pas.
Les entreprises les plus en avance dans la gestion du Big Data – outre les agences scientifiques, militaires et d’espionnage dont les activités sont très spécifiques – sont celles issues des nouvelles technologies comme Google ou Facebook. Elles emploient d’ailleurs des centaines de statisticiens de la trempe de Diego Kuonen pour exploiter à des fins publicitaires ou d’optimisation les milliards de données fournies par leurs utilisateurs.
Dernier arrivé dans le petit monde des mégadonnées, le jeu Pokémon Go, sorti cet été dans un certain nombre de pays, a rapidement soulevé des inquiétudes sous ses abords de divertissement inoffensif. Les joueurs filment en effet sans cesse leur environnement avec leur téléphone lorsqu’ils chassent Pikachu et ses congénères. Ces masses de données peuvent être récupérées et permettre, potentiellement, de fournir des informations en temps réel sur tout ce qui se passe un peu partout dans le monde grâce aux millions de joueurs. « Les citoyens ont peur que les Etats, pour des raisons de sécurité publique, mettent en place des systèmes de surveillance excessifs qui limiteraient leurs libertés, commente Diego Kuonen. Ils oublient qu’en jouant à un jeu comme Pokémon Go, ils deviennent eux-mêmes, de plein gré, des caméras de surveillance transmettant leur Big Data à on ne sait quel Big Brother. »
Quoi qu’il en soit, le statisticien genevois en est persuadé, les Big data et leur exploitation bouleverseront le monde dans lequel nous vivons. Etant à la fois professeur à l’Université et entrepreneur, Diego Kuonen aime à penser qu’il participe à former les citoyens en donnant aux étudiants des clés de compréhension de cet univers en construction. Mais, selon lui, c’est à l’école primaire déjà qu’il faudrait offrir aux élèves les premières notions de statistiques et d’informatique. Histoire de les préparer au mieux à affronter le monde de demain.