Ces dernières années, les affaires Cambridge Analytica et la mise en œuvre du RGPD ont renforcé la vigilance du grand public face aux risques potentiels des big data et de l’intelligence artificielle. Toutefois, la question de la confidentialité n’est que la partie émergée de l’iceberg. Nous avons rencontré la philosophe et juriste Anne Rouvroy afin d’échanger sur son travail autour de la gouvernementalité algorithmique et sur la profonde transformation que provoque la révolution technologique néolibérale sur la société et la sphère politique. Selon elle, il est indispensable de revenir au réel et de tourné le dos à une optimisation sans fin — et c’est précisément dans ce sens que l’Union européenne doit intervenir.
Au-delà des aspects techniques et matériels de la révolution technologique actuelle, un mouvement de fond, plus profond et structurant, remodèle les sociétés contemporaines. Vous travaillez notamment sur la question de la gouvernementalité algorithmique. De quoi s’agit-il et quelle est l’idéologie des big data qui la sous-tend ?
La gouvernementalité algorithmique désigne l’idée d’un mode de gouvernance du monde social fondé sur le traitement des données massives par des algorithmes, plutôt que via la politique, le droit et les normes sociales. La numérisation devient une forme de quantification des enjeux politiques rendue possible par le biais d’algorithmes. Dans le cadre de la statistique traditionnelle, il existe toujours des hypothèses sur le monde, des conventions de quantification et des catégorisations préalables. Avec le big data, l’ambition est de faire émerger des données qui déterminent les hypothèses et les critères de classification.
Il ne s’agit plus tellement de gouverner l’existence des faits, d’évaluer les comportements passés, de les sanctionner et de les discipliner, mais plutôt de gouverner l’incertitude. Le traitement massif des données s’inscrit dans une dynamique de domestication de l’incertitude. Concrètement, la gouvernementalité algorithmique vise bien plus loin que la simple observation du réel : elle cherche à pousser l’excès du possible au-delà du probable. Réduire le possible au probable en orientant les comportements par l’alerte plutôt que par l’interdit ou l’obligation. C’est une forme de gouvernement discret qui consiste à diriger l’attention des individus vers certains sujets, à modifier l’environnement informationnel ou matériel afin que certains comportements deviennent non pas obligatoires mais nécessaires.
Shoshana Zuboff, dans L’Âge du Capitalisme de Surveillance, parle de « marché des comportements futurs ». On traduirait donc les expériences humaines, ce qui est présenté comme « incontrôlable », en comportements et signaux destinés à être vendus sur un marché. L’objectif est la prédiction, mais n’est-ce pas aussi une tentative de domestiquer totalement le risque ?
Un algorithme ne « voit » pas grand-chose et, au contraire, peut défaire nombre de nos représentations. Il permet en effet de désautomatiser, de déconstruire certains de nos préjugés. Cela peut sembler extrêmement émancipateur, mais cela ouvre aussi des espaces spéculatifs, déliés de toute notion de risque. Le but est précisément de réduire l’excès de risque. C’est une manière de « dépenser » l’avenir, en actualisant dès à présent ce qui n’existe encore que virtuellement. Considerons le risque de décès prématuré : la gouvernementalité algorithmique s’intéresse peu aux causes et aux signaux physiologiques, et les traite sur un pied d’égalité avec d’autres types de signaux, tels que le type de personnes que l’on fréquente, ce que l’on mange, le fait que l’on regarde des films tard dans la nuit, et d’autres paramètres en général. Tout peut entrer en jeu sans lien de causalité évident avec ce que l’on cherche réellement. Une fois ces signaux détectés, la personne concernée peut être traitée comme ayant déjà « contracté » le risque ou comme ayant « réalisé » le danger, et elle peut, par exemple, se voir exclue de son assurance-vie. L’objectif n’est pas d’agir sur les causes, mais d’anticiper les effets de façon à ce que l’algorithme serve les intérêts de ses donneurs d’ordre, que ce soit pour accroître les profits ou pour accroître le contrôle. Le système d’assurance, qui reposait sur une répartition solidaire des risques, connaît alors une mutation profonde : on n’a plus besoin de partager les risques puisqu’on peut déjà anticiper leur réalisation. Le concept même de risque peut disparaître.
Nous continuons à imaginer mais l’imagination n’est plus prise en compte. C’est la mort du politique.
On ne cherche donc plus à imposer de nouvelles normes, à façonner les interactions entre les personnes et on passe à une forme de neutralisation radicale. Est-ce que cela reviendrait à tuer l’imagination et le vivant ?
Nous poursuivons notre projection, mais l’imagination n’est plus prise en compte. C’est la mort du politique. On privilégie l’optimisation plutôt que l’imagination ou l’anticipation. C’est exactement l’opposé de ce que fait la politique. La gouvernementalité algorithmique optimise l’état de fait afin de favoriser certains acteurs. C’est une nouvelle rationalité, extrêmement cloisonnée, une optimisation d’une multitude d’objectifs qui, aujourd’hui, est déterminée par des intérêts industriels.
Le néolibéralisme nous aurait conduit sur la voie du tout calculable. Si c’est bien la mort du politique, il faut toutefois admettre qu’il existe des intérêts politiques et économiques qui ont favorisé l’émergence d’un tel paysage ?
Les dispositifs actuels puisent exactement dans les perspectives d’émancipation ouvertes dans les années 1960-70 — cette aspiration à ne plus être gouverné par d’autres, à être des individus autonomes et créatifs, une sorte de rejet des catégories et des groupes. Les individus veulent être perçus comme des êtres singuliers, uniques, capables de créer. Le big data les appréhende précisément comme des individus aussi éloignés que possible de toute moyenne statistique. L’idée même de moyenne est en train de disparaître.
Nous vivons aujourd’hui dans une société de l’optimisation où chacun doit s’optimiser, être et avoir tout, tout le temps.
La personnalisation à l’échelle industrielle ne constitue plus une contradiction : chacun veut son environnement et son équipement adaptés à lui seul. L’écrivain Alain Damasio évoque la notion de techno-cocon, une forme de protection extrêmement maternelle. Cette peur quasi viscérale de la surveillance de masse est pourtant inévitablement liée à l’essor de l’individualisme exacerbé. Cet hyper-individualisme est une conséquence de la tendance néolibérale, une fascination pour la très haute définition consistant à évaluer les mérites et les besoins de chacun en regard de données extrêmement précises. Que chacun paie selon ses actes — chacun pour soi — est la logique qui prévaut. Dans certains domaines, comme la conduite automobile, cet hyper-individualisme et cette surveillance peuvent présenter des aspects positifs (par exemple des primes d’assurance ajustées au comportement du conducteur). En revanche, ajuster les primes en fonction des achats au supermarché ou d’autres choix personnels pose des problématiques majeures.
Mais ce ne sont pas seulement les grands acteurs du numérique qui en portent la responsabilité. Il existe une base idéologique. Aujourd’hui, nous vivons dans une société orientée vers l’optimisation, où chacun est censé s’améliorer constamment, posséder toujours davantage et tout obtenir, tout le temps. Il ne s’agit plus d’être évalué à partir de valeurs, de morale ou d’autres repères traditionnels : tout se vaut, en quelque sorte. La meilleure manière de satisfaire le consommateur en temps réel et sans passer par un processus d’évaluation est de s’appuyer directement sur ses pulsions plutôt que sur sa capacité réflexive. Le rythme de la pensée humaine, qui s’appuie sur des flux nerveux plus lents, est court-circuité par la cadence du numérique qui dialogue directement avec les impulsions et non avec la réflexion. Le sujet se voit évacué.
L’évacuation du sujet, c’est aussi une autre manière de conceptualiser la crise de représentation dans les systèmes politico‑économiques actuels ?
Sur le plan politique, l’intérêt réside dans le fait que tout, même ce qui était autrefois considéré comme a-signifiant, est désormais capté et investi d’un poids symbolique dans le système. Le cadre présente désormais une voix et un poids à ce qui échappait auparavant à toute forme de représentation — ce qui est infra-linguistique et dépourvu de mots. Cela peut sembler libérateur à première vue, mais cela manque cruellement d’un référentiel collectif : ce que Guattari et Deleuze appelaient les agencements collectifs d’énonciation. [1] Dans ces agencements, on produit du sens ensemble, sans calquer des calculs, et il y a quelque chose qui transcende l’individu optimisé au profit d’un bien commun. Le commun, en quelque sorte, serait la “quatrième personne du singulier”. Or aujourd’hui, il est largement oublié : il s’agit de l’irreprésentable, de l’irreprésenté dans les données, l’incalculable que l’on retrouve dans l’organique même, dans la normativité de la vie. Le terme anthropocène nous a d’ailleurs piégés, suggérant que tout dépend de nous et qu’il n’y a pas de nature hors de nous. Or, il existe une nature humaine hors de toute représentation, non réductible à des données, et c’est précisément cela le « vivant ».
L’indignation en ligne est de la nourriture pour le capitalisme algorithmique. Là où le contre-pouvoir fonctionne c’est quand les gens se mettent ensemble pour faire – dans le sens de la réalisation concrète et tangible – quelque chose.
Notre capacité rationnelle en tant qu’êtres humains est limitée par notre corporealité et notre point de vue sensoriel ; sans cela, nous restons incapables de comprendre, d’appréhender et de nous situer dans le monde. Cela nous permet néanmoins d’envisager l’avenir autrement, c’est-à-dire un futur non nécessairement façonné par des logiques d’accumulation et d’optimisation. La gouvernementalité algorithmique représente en fait une forme d’anthropocentrisme absolu : elle prétend que la rationalité humaine peut maîtriser le monde sans que l’homme soit présent.
C’est sombre. Où perçoit-on des lueurs d’espoir au bout du tunnel ?
Les perspectives d’espoir sont omniprésentes. Le capitalisme a épuisé ses ressources matérielles et exploite désormais le virtuel, ce qui relève du genre de super fiction, une réalité hors-sol. La meilleure résistance ou rébellion possible consiste probablement à se montrer moins fasciné par l’intelligence artificielle. Les spécialistes d’IA expliquent et démystifient le mieux ce domaine ; ils constituent parfois les meilleurs défenseurs du politique. Ainsi, Yann LeCun, responsable IA chez Meta, affirme que jamais une intelligence artificielle ne sera plus intelligente qu’un chat — et les spécialistes soulignent que l’IA est incapable de percevoir le contexte. Il faut écouter ces experts et ne pas suivre les récits industriels qui ont été relayés par les responsables politiques pour esquiver leurs responsabilités. Le vivant est partout, et il faut s’en occuper.
Mais le vivant, concrètement, qu’est-ce que c’est ? Faut-il atterrir comme dirait Bruno Latour ?
Revenir sur le terrain, réhabiter l’espace proche, cela se traduit politiquement par un retour au local. Ce n’est pas une régression, mais une manière de s’occuper de l’ici et maintenant, de la réalité matérielle qui sous nos pieds est plus présente que nous ne le sommes. Le projet de globalisation et le capitalisme qui le soutient s’opposent à la survie elle-même. L’état d’optimisation est l’antithèse de l’attention portée à ce qui compte dans la réalité tangible, ici et maintenant. L’IA n’est qu’un outil d’information : elle peut produire des cartographies utiles et aider à repérer des faits, mais ni les faits ni les actes ne prennent leur sens en eux-mêmes. C’est à l’être humain de les rendre signifiants et importants.
Sur le plan politique, comment peut-on être subversif face à la gouvernementalité algorithmique ?
Aujourd’hui, la passivité numérique est impressionnante. Beaucoup pensent que des votes électroniques, des pétitions ou des indignations en ligne suffiront à tout changer, ou que des assemblées citoyennes assistées par la technologie suffiront. Je ne tiens pas à juger ces outils, mais l’indignation en ligne nourrit le capitalisme algorithmique. L’efficacité politique se joue lorsque des personnes s’unissent pour réaliser concrètement quelque chose — construire une habitation, créer des potagers collectifs, ou réaliser d’autres projets tangibles et coopératifs.
J’aimerais aborder un sujet connexe mais distinct, celui du droit face aux big tech. Vous affirmez que le RGPD est utile, mais qu’il est arrivé trop tard et avec une cible inappropriée. Pourriez-vous clarifier cela ?
Mon regard se porte d’abord sur le droit de la concurrence, car lorsqu’on parle des droits de l’homme et des enjeux numériques relatifs à la protection de l’intimité et de la vie privée, on s’adosse souvent à la sphère individuelle. Or ce qui intéresse la gouvernementalité algorithmique n’est pas tant l’individu et ses préférences, mais l’intensité du rapport statistique qui existe entre des fragments de l’existence quotidienne et des modélisations réalisées à l’échelle industrielle. Autrement dit, des quantités massives de données pour des masses humaines, à l’échelle globale. Le RGPD se concentre trop sur l’individu et, d’ailleurs, le consentement est un instrument de protection qui demeure insuffisant: il est très facile d’identifier une personne à partir de données anonymisées en les croisant avec d’autres ensembles volumineux. Le véritable enjeu demeure que le pouvoir s’exerce aujourd’hui moins par l’identification stricte des personnes que par la modélisation de leurs comportements possibles, mais de manière collective.
L’Europe a un rôle à jouer, mais en repensant fondamentalement le statut de la donnée, quitte à le faire de façon négative.
Le statut même des données est problématique. Aujourd’hui, la majorité des données est captée — et pas seulement produite — par les GAFAM. Les États eux-mêmes dépendent de ces acteurs pour des motifs variés, que ce soit en matière de sécurité ou d’autres enjeux. Ces derniers et d’autres acteurs de la société civile doivent passer par des contrats avec ces géants du numérique, par exemple la NSA américaine pour le contre-terrorisme ou la Croix-Rouge internationale pour le regroupement familial après un séisme. Cela se traduit par une centralisation hors du contrôle démocratique, entre les mains d’industriels qui manipulent des données et qui s’apprêtent à détenir des pouvoirs dépassant largement ceux des États. C’est un enjeu géopolitique majeur.
Quels leviers pourrait activer l’UE ?
Plutôt que de s’appuyer sur des récits éthiques ou des commissions sur l’IA, il faut renforcer le droit de la concurrence et mettre en place des sanctions financières effectives. L’UE doit aussi investir dans des bases de données européennes, développer des savoir-faire européens et promouvoir une IA européenne. Malheureusement, l’UE accuse un certain retard : elle se retrouve en déficit de données par rapport à ses concurrents — à l’exception de secteurs comme les soins de santé en France et en Belgique. Toutefois, je suis convaincue que les enjeux qui viendront déterminer la compétitivité internationale ne seront pas seulement liés à l’IA, mais aussi au climat et à la gouvernance du réel.
Par ailleurs, une piste intéressante consiste à repenser fondamentalement le statut de la donnée. Aujourd’hui, elle est envisagée comme un bien et comme une valeur pour la société et l’économie. En réalité, sur le plan matériel et pragmatique, la donnée se présente comme un déchet toxique. La plupart des données n’ont pas une signification intrinsèque et, au moment de leur collecte, elles n’ont qu’une valeur d’option, de spéculation, pour potentiellement être traitées, disséquées et réutilisées ultérieurement. Une fois une donnée « dehors », elle se comporte comme ce qui se produit avec le nucléaire : une fois sortie, elle n’est plus récupérable. Il faudrait donc gérer l’environnement numérique comme on gère l’environnement naturel. Chaque requête sur Google consomme une quantité d’énergie considérable. L’Europe a un rôle à jouer, mais en reconfigurant fondamentalement le statut de la donnée, même de manière critique. Il convient d’obliger à réguler l’usage des données, à être transparent sur leur utilité, leur origine et leur destination, et à déterminer ce que le collectif peut en faire ou pas. Pour cela, il faut renforcer les institutions et réguler une économie dangereusement extractive — tant sur le plan environnemental que social — de ce monde numérique qui se présente au citoyen comme un simple « nuage » ou « cloud » séparé de notre réalité terrestre.
[1] Les philosophes Félix Guattari et Gilles Deleuze ont développé en premier le concept de la théorie de l’assemblage dans leur ouvrage Mille plateaux, paru en 1980.

Le dollar, fleuve de pouvoir : comment la monnaie américaine domine l’économie mondiale