26.03.2018
Lecture : 15 min

L'empire des données

English version available here

Avocat au Barreau de Paris, Adrien Basdevant (E12) co-signe L’Empire des données, ouvrage dénonçant l’opacité des algorithmes qui régissent une part croissante de nos existences et bouleversent les rapports de force entre États, entreprises, consommateurs et citoyens. Entretien fleuve autour d’un véritable sujet de société.

ESSEC Alumni : Comment votre parcours vous a-t-il mené à vous intéresser au sujet du big data ?

Adrien Basdevant : J’ai toujours été passionné par l’innovation et la défense des libertés individuelles. Le numérique présentait à mes yeux des défis inédits, à la croisée de ces deux chemins. À l’ESSEC, j’ai découvert un article de Lawrence Lessig, professeur de droit à Stanford, s’intitulant « Code is law ». Il expliquait comment le code informatique pourrait remplacer le code juridique. Ça m’a profondément marqué et incité à lire les travaux des chercheurs du Harvard Berkman Center on Cyberlaw. Depuis, je me suis spécialisé en droit des nouvelles technologies. Avocat, je défriche quotidiennement les questions liées au data, à l’intelligence artificielle et à leur impact sur la société. Ce qui m’intéresse, c’est réfléchir à l’élaboration d’une norme en devenir. Le numérique offre de nombreux champs d’exploration pour lesquels il y a encore peu ou pas de précédents.

EA : Vous ouvrez votre livre avec une brève histoire des data, qui nous rappelle que les citoyens font l’objet de divers recensements depuis longtemps. Pourquoi est-il important de revenir à l’étude des statistiques ?

A. Basdevant : En étudiant l’histoire des data, on observe comment les humains se sont collectivement remis, depuis des siècles, aux chiffres pour établir des lois. Du simple dénombrement du bétail, on a commencé à recenser les populations, puis les richesses des territoires. On compte et on dénombre pour mieux gouverner. Comme le résumait le philosophe Francis Bacon : « Le savoir, c’est le pouvoir ». En effet, l’art de conduire les masses supposait une connaissance parfaite de l’état d’un pays et de sa population. L’histoire de la statistique, c’est la croyance dans l’harmonie par le calcul. C’est important d’y revenir pour comprendre comment elles ont permis de mieux organiser nos sociétés et quantifier les phénomènes de masse liés à la mondialisation, plus seulement pour décrire une situation mais prescrire des solutions.

EA : Qu’est-ce qu’il y a de nouveau dans la situation actuelle du big data par rapport aux statistiques traditionnelles ?

A. Basdevant : La statistique était initialement destinée au gouvernement, au souverain, pour connaître l’étendue de son territoire, et réagir aux famine, guerre et autre épidémie. La naissance de la statistique est ainsi corrélée à la création de l’État moderne que Hobbes appelait – ce n’est pas anodin – l’« homme artificiel ».  Nous vivons désormais à l’ère de « l’intelligence artificielle », où des algorithmes se nourrissent d’une quantité exponentielle de données. La grande nouveauté du big data, c’est de détecter les signaux faibles qui nous échappaient auparavant. Là où la statistique raisonnait à partir d’échantillon, le big data prend tout en compte, indistinctement, même les données les plus anodines. On collecte tout le réel, et on induit des décisions par corrélation. Cette fois-ci, les applications ne sont pas uniquement destinées aux gouvernements, mais accessibles et destinées aux individus.

EA : Vous êtes critique sur le big data. Vous affirmez notamment que les données anonymes n’existent pas… Pouvez-vous nous expliquer ce point ?

A. Basdevant : Le big data est porteur de grandes opportunités qui pourraient nous être profitables à tous. Nous devons veiller à rendre cette transformation aussi vertueuse que possible. Sans verser dans le scepticisme, il faut provoquer la réflexion. Un des écueils de l’exploitation exponentielle des données, c’est qu’il est aujourd’hui algorithmiquement impossible de rester anonyme. Par essence les « données massives » sont « big », on arrive ainsi à identifier presque tout le monde grâce à des recoupements de données provenant de sources très variées. En 2007 déjà, deux chercheurs de l’Université du Texas ont réussi à identifier des personnes à partir des données anonymisées mises à disposition par la société Netflix, dans le cadre d’un concours que l’entreprise organisait pour améliorer son moteur de recommandation. Comment ? En reliant et recoupant les notes de films données par ses utilisateurs de Netflix, supposés anonymes, avec les notations de films disponibles sur IMDB (base de données sur le cinéma mondial en accès sur Internet). La vie privée serait donc devenue le privilège de quelques technophiles éclairés.

EA : Vous ajoutez qu’on a tendance à se focaliser sur la question des données personnelles quand les données publiques posent tout autant problème…

A. Basdevant : Les données constituent la nouvelle matière du XXIème siècle. La comparaison avec le pétrole est fréquemment utilisée. Ces données ne sont pas forcément personnelles. Prenez l’exemple des données de transport. Leur détention donne accès à une quantité extraordinaire d’informations. D’où l’apparition de nombreux litiges. Par exemple, la RATP qui a longtemps refusé à l’application CityMapper d’avoir accès aux données sur les horaires de bus, les retards en temps réel, etc. Ce qui peut poser des questions critiques de concurrence : accès à un marché, coût d’entrée pour un nouvel arrivant, situations d’oligopole.

EA : Dans l’ensemble, quelles sont les données qu’on collecte aujourd’hui plus ou moins massivement, et dont l’exploitation peut s’avérer problématique ?  

A. Basdevant : Toutes les données sont collectées massivement. LinkedIn détient plus de données sur le marché du travail que Pôle Emploi, et Apple que la Sécurité Sociale. Quant à savoir à partir de quel moment cela devient problématique, voici la question qu’il faut collectivement se poser ! Certaines plateformes pourraient devenir à terme des facilités essentielles, c’est-à-dire des points d’entrée incontournable pour accéder à un marché. Cela doit donc inviter chaque organisation à se poser la question de la gestion de ses données. Y compris l’ESSEC qui conclut des accords permettant à des géants du numérique d’avoir accès aux données des étudiants de son école…

EA : Qui possède légalement toutes ces données ? Et qui a le droit de les utiliser ?

A. Basdevant : Cela dépend de quelles données on parle et dans quelle zone géographique. En France, on a introduit le principe de l’open data. Depuis 2016, toutes les collectivités territoriales de plus de 3 500 habitants ont l’obligation de mettre leurs données publiques à disposition de tous les habitants. Concernant les données personnelles, la France a aussi été précurseur. Nous sommes un des premiers pays à s’être doté d’une réglementation, dès 1978. C’est la fameuse loi informatique et liberté, qui sera remplacée à partir du 25 mai 2018 par le règlement européen sur les données personnelles (RGPD). Ces textes encadrent les collectes de données, notamment selon des principes de loyauté et de proportionnalité.

EA : Pourrions-nous imaginer un monde où chacun serait maître et propriétaire de ses données personnelles ?

A. Basdevant : C’est possible, mais ça ne serait pas souhaitable. Un droit de propriété suppose une exclusivité. On aboutirait rapidement à des situations absurdes. Si je suis propriétaire de la donnée personnelle « Adrien », alors personne n’aurait plus le droit d’utiliser mon prénom. On devrait me payer une licence pour ne pas être poursuivi pour usurpation d’identité. Ça n’aurait pas de sens ! C’est justement la circulation et l’usage des données qui en créent la valeur. Une donnée brute, une donnée qui n’est pas mise en rapport avec d’autres n’a que très peu de valeur en soi. La question de l’attribution d’un droit de propriété est d’autant plus délicate que les concepts de propriété sont très différents d’un continent à l’autre. En France, nous avons une approche personnaliste : les individus ont des droits sur leurs données personnelles. Cela ne se réduit donc pas à la protection d’une simple valeur économique. Enfin, un individu serait incapable de fixer la valeur de ses données. Combien coûterait un code génétique ? Combien seraient vendus nos goûts musicaux ? On serait rapidement victime d’une asymétrie informationnelle, qui nous conduirait à vendre nos données pour trois fois rien. À considérer qu’une donnée, tout comme un rein ou un poumon, serait une émanation de notre personne, on pourrait même voir cela comme un risque de marchandisation des attributs de notre personnalité.

EA : Plus largement, vous dénoncez le caractère normatif et discriminatoire des algorithmes. Mais quelle différence fondamentale entre un logiciel décrétant par exemple votre éligibilité à un crédit et une personne humaine décidant du même sujet ? Au final, la machine comme l’individu appliquent une grille de critères prédéfinis… Et l’individu est connu pour avoir des biais !

A. Basdevant : On évoque souvent les algorithmes comme des « boîtes noires » dont le fonctionnement nous échapperait. Et vous avez raison de le souligner, on pourrait considérer que le cerveau humain constitue l’ultime boite noire. La différence toutefois, c’est qu’on peut connaître les motifs des décisions humaines et si nécessaire les contester. Un algorithme par nature distingue, encore faut-il s’assurer que cela soit réalisé sur la base de critères acceptables et contestables, à l’abri de l’établissement de listes d’exclusion. Et pour cela il faut pouvoir vérifier les process en œuvre. Je vous donne quelques exemples pour l’illustrer concrètement. Une société de cartes de crédit peut-elle s’autoriser à augmenter le taux d’intérêt d’un couple parce qu’il consulte un conseiller matrimonial ? Le prix du billet d’avion qui vous est proposé peut-il différer en fonction de la marque de l’ordinateur que vous utilisez, ou de votre historique de navigation ? Une banque peut-elle diminuer les plafonds d’un de ses clients à partir de l’analyse effectuée sur d’autres clients fréquentant les mêmes supermarchés et ayant de mauvais historiques de remboursement ? Nous devons avoir une discussion éthique sur les critères utilisés par les algorithmes.

En savoir plus ?
voir nos expertises