Une transformation radicale des sociétés au-delà de la simple révolution technologique
Ces dernières années, des scandales tels que celui de Cambridge Analytica, ainsi que la mise en place de réglementations comme le RGPD (Règlement Général sur la Protection des Données) au sein de l’Union européenne, ont permis au grand public de mieux prendre conscience des risques potentiels liés aux mégadonnées et à l’intelligence artificielle. Toutefois, la question de la vie privée ne représente qu’une partie du problème. Nous avons rencontré la philosophe juridique Antoinette Rouvroy pour évoquer ses travaux sur la gouvernementalité algorithmique et l’impact profond que la révolution technologique, portée par le néolibéralisme, impose à notre société et à nos institutions politiques. Selon elle, ce que nous devons faire, c’est revenir à une vision plus concrète de la réalité, en nous détournant d’une recherche incessante d’optimisation – et l’Union européenne doit jouer un rôle essentiel dans cette démarche.
La gouvernementalité algorithmique : une nouvelle forme de gouvernance
Le Journal Européen Vert l’interroge : au-delà des aspects techniques et matériels de la révolution numérique, une transformation fondamentale est en marche, modifiant en profondeur nos sociétés. Parmi les sujets qu’elle explore, Antoinette Rouvroy approfondit celui de la « gouvernementalité algorithmique ». Qu’entend-on exactement par ce terme ?
Définition de la gouvernementalité algorithmique
Rouvroy explique que cette notion désigne une forme de gouvernance du monde social basée non plus sur la politique, le droit ou les normes sociales traditionnelles, mais sur le traitement algorithmique de data gigantesques. En clair, la digitalisation devient une sorte de quantification des enjeux politiques, réalisée par des algorithmes. Contrairement aux pratiques statistiques classiques, qui reposent sur des hypothèses préalables, des conventions de quantification et des catégorisations a priori, la gestion par mégadonnées consiste à générer ces hypothèses et ces critères de classification directement à partir des données elles-mêmes.
Gouverner l’incertitude plutôt que les comportements passés
Il ne s’agit plus de gouverner les comportements passés, d’en juger, de punir ou de contrôler, mais de gouverner l’incertitude. La massification du traitement de données vise à apprivoiser l’incertain. La gouvernementalité algorithmique a un objectif beaucoup plus ambitieux : gérer l’écart entre le possible et le probable. Elle cherche à réduire cette différence en influençant le comportement à distance, par des avertissements plutôt que par des interdictions ou obligations. Il s’agit d’un mode de gouvernance subtil, qui oriente l’attention des individus vers certains enjeux en modifiant leur environnement informationnel ou physique, pour que ce qui n’était jusqu’ici qu’une possibilité devienne une nécessité.
la prévisibilité des comportements : un leurre au cœur de la surveillance moderne
Une figure majeure, Shoshana Zuboff, explique dans son ouvrage « L’âge du capitalisme de surveillance » (2019), que nous sommes en train de créer des « marchés de futurs comportementaux ». En d’autres termes, des expériences humaines, considérées comme impossibles à vérifier de manière objective, sont traduites en comportements et en signaux. Ces données sont ensuite vendues sur un marché. La finalité affichée est de prévoir l’avenir, mais n’est-ce pas aussi d’atténuer totalement le risque ?
Une perception dénuée de réalité
Selon Rouvroy, un algorithme ne voit rien et ne perçoit pas le monde comme un humain ; il démantèle plutôt nos perceptions. Il nous permet de désautomatiser nos pensées et de réfuter nos a priori. Cela peut sembler libérateur, mais cela crée aussi des espaces de spéculation dénués du concept même de risque. L’objectif est de réduire ces risques, souvent une menace ou une incertitude. En cela, l’algorithmie revient à « dés-pensionaliser » l’avenir, en actualisant ce qui n’existe qu’en réalité virtuelle. Par exemple, en évaluant le risque de décès prématuré, l’algorithmie ne s’intéresse pas tant aux causes physiologiques qu’aux signaux qui l’entourent — comme le comportement alimentaire, le cercle social ou le fait de rester éveillé tard le soir devant Netflix.
Nous continuons d’imaginer, mais l’imagination n’est plus prise en considération. C’est la fin de la politique.
Une logique de préemption et de neutralisation
Tout peut devenir un facteur, sans qu’aucun lien causal évident n’en soit établi avec le problème recherché. Une fois qu’un signal est détecté, la personne concernée est traitée comme si elle avait déjà « contracté » le risque ou « réalisé » le danger. Elle peut alors, par exemple, voir son assurance-vie annulée. Il ne s’agit pas d’agir sur les causes, mais de prévenir en amont en s’attaquant aux effets, dans un but souvent lucratif ou contrôlant. Un exemple illustratif est celui du monde de l’assurance, basé sur la mutualisation du risque. Avec l’algorithmie, ce modèle traditionnel disparaît, car l’on peut déjà anticiper la survenance du risque. La notion même de risque tend alors à disparaître.
La fin de l’imagination en tant que moteur de changement
Selon Rouvroy, ce mouvement va à l’encontre de l’imagination et, par extension, de la vie elle-même. La logique de l’optimisation, qui consiste à maximiser l’état actuel des choses, est l’opposé même de la politique, qui devrait viser à transcender l’état actuel. Alors que la politique cherche à changer et à faire évoluer la société, l’algorithmicité cherche à maintenir ce qui existe, en l’optimisant selon des intérêts parfois industriels. Elle représente une nouvelle rationalité, qui réduit tout à des fonctions objectives à maximiser, en laissant de côté la capacité à envisager l’avenir différemment.
Le rôle du néolibéralisme dans la cristallisation de cette réalité
Le néolibéralisme a façonné une société où tout devient calculable. Quelles raisons politiques et économiques ont conduit à cette situation ?
Rouvroy explique que cette évolution trouve ses sources dans des visions d’émancipation apparues dans les années 1960-70, souvent associées à une volonté de refuser toute autre autorité que celle de l’individu lui-même. C’est la fin des classes sociales, des groupes stables. Les individus souhaitent être perçus comme des êtres singuliers, créatifs, à l’écart des stéréotypes. Le big data joue sur ce concept : en traitant chaque personne comme un sujet unique, il efface la notion même de moyenne. L’idée selon laquelle tout doit être personnalisé, à l’échelle individuelle, s’est généralisée, alimentée par un hyper-individualisme lié à la philosophie néolibérale.
Une société où chacun cherche à optimiser sa vie en permanence
L’individu moderne aspire à tout optimiser en permanence : son image, ses possessions, ses choix. Alain Damasio parle d’un « techno-cocon », une société ultra-protectrice mais aussi très contrôlante, où la crainte d’une surveillance de masse est omniprésente, mais qui va de pair avec cet hyper-individualisme. Dans ce contexte, chacun paie pour ses propres décisions, notamment grâce à des technologies qui, en évaluant nos comportements ou nos préférences, individualisent la gestion des risques, par exemple en ajustant les primes d’assurance auto selon les habitudes de conduite. Cependant, cette même logique pose problème lorsqu’elle s’étend à des domaines plus intimes, comme l’alimentation ou la consommation quotidienne : la surveillance devient alors intrusive et problématique.
Une idéologie derrière cette société de l’optimisation
Mais il ne faut pas réduire cette évolution à l’entreprise technologique elle-même : c’est aussi une idéologie. Aujourd’hui, notre société valorise la maximisation et l’optimisation continues, au point que nous ne sommes plus jugés selon des valeurs ou une morale, mais simplement sur la base d’une évaluation en temps réel de notre impulsivité. La vitesse traverse notre pensée : en accélérant la circulation des signaux, la technologie numérique supprime la nécessité de réfléchir, de se remettre en question. Le sujet, en tant qu’être pensant, tend à s’effacer dans cette logique.
Une crise de la représentation et de la corporéité
L’un des enjeux majeurs de cette mutation est la crise de la représentation. Tout ce qui n’est pas dit — ce qui ne peut être réduit à des mots ou à des données — a tendance à s’effacer. Pourtant, c’est précisément cette part organique, ce qui relève de la vie elle-même, qui constitue la véritable richesse. L’anthropocène, terme de plus en plus critiqué, suppose que tout dépend de l’humain, ce qui occulte la présence de la nature indépendante de nous. Pourtant, la nature existe en dehors de toute représentation : c’est le vivant, l’indicible, le changement même. La perte de cette « quatrième personne du singulier », cette part inapprochable de notre rapport au monde, représente un défi crucial.
L’indignation en ligne nourrit le capitalisme algorithmique. La véritable opposition consiste à se rassembler pour faire ce qui est concrètement tangible.
Une humanité limitée face au numérique
Notre rationalité a ses limites, car elle repose sur notre corps, nos perceptions sensorielles. Sans cette dimension, il devient impossible d’appréhender le monde dans sa complexité, ou même d’imaginer un futur qui ne serait pas entièrement fondé sur la logique de l’accumulation ou de l’optimisation. La gouvernementalité algorithmique traduit un anthropocentrisme démesuré : elle prétend que la rationalité humaine peut s’étendre à tout ce qui existe, y compris tout ce qui n’est pas humain.
Un rayon d’espoir à explorer
Face à ce sombre tableau, certains éléments de lumière existent. La société capitaliste, qui a épuisé ses ressources matérielles, se penche désormais sur le virtuel, en devenant une « super-fiction » déconnectée de la réalité tangible. La meilleure résistance possible serait peut-être de ne pas céder totalement à l’attrait de l’intelligence artificielle (IA). Certains spécialistes, comme Yann LeCun, responsable de l’IA chez Facebook, affirment que l’IA ne sera jamais plus intelligente qu’un chat. Ils soulignent que l’intelligence artificielle ne perçoit pas le contexte, ce qui limite considérablement ses capacités. Il faut donc écouter ces experts plutôt que la vision alarmiste véhiculée par l’industrie et reprise par certains politiques. Le vivant, la réalité concrète, sont omniprésents : il faut s’y recentrer.
Redonner sa place à la réalité incarnée
Bruno Latour insiste sur l’importance de revenir à la terre, au territoire, pour relocaliser notre regard. Cette re-inhabitation ne doit pas être vue comme une démarche réactionnaire, mais comme un retour à l’essentiel : se concentrer sur l’ici et maintenant, sur la planète qui nous héberge, plus enracinée que jamais. La mondialisation et le capitalisme, en réduisant tout à des flux et des marchés dématérialisés, s’opposent à cette nécessité de survie. L’optimisation tend à nous déconnecter de ce qui est concret, en nous faisant perdre de vue nos réalités physiques. L’intelligence artificielle reste un outil—une carte, une aide pour localiser des données ou comprendre certains faits — mais elle ne remplace pas le travail de ressenti, d’interprétation et d’engagement humain pour donner du sens aux actions.
Comment contrecarrer la gouvernance algorithmique ?
Actuellement, la passivité numérique domine. Beaucoup croient qu’un vote électronique, une pétition en ligne ou un outrage numérique suffiront à faire changer la société, voire à instaurer des assemblées citoyennes via la technologie. Mais cette indignation virtuelle alimente en réalité le capitalisme algorithmique : la polémique sur Facebook, par exemple, sert à faire tourner la machine et à renforcer les géants du numérique. La véritable opposition commence lorsque les citoyens se rassemblent pour créer quelque chose de tangible : bâtir une maison, cultiver un jardin, ou mener une initiative collective concrète.
La régulation des géants du numérique et le défi de l’Union européenne
Enfin, concernant le cadre juridique et la régulation, Rouvroy souligne que le Règlement Général sur la Protection des Données (RGPD), adopté en 2018, est une avancée mais arrive trop tard, avec une cible mal définie. Elle évoque notamment la nécessité de réviser en profondeur la conception de la souveraineté sur les données.
L’enjeu principal ne réside pas uniquement dans la protection des droits individuels, mais aussi dans la capacité à réguler la puissance massive des acteurs du numérique. Aujourd’hui, la réalité est que la majorité des données – et cela dépasse le simple respect de la vie privée – sont recueillies, stockées et exploitées par de grandes entreprises comme Google, Facebook ou Amazon. Même les États dépendent de ces géants pour leur sécurité ou leur communication. Ces données sont centralisées, hors de contrôle démocratique, et donnent à ces acteurs une influence géopolitique immense. La France et l’Europe doivent agir pour reconfigurer la place de la donnée et de la souveraineté numérique.
Quelles stratégies pour l’Europe face à cette crise ?
Rouvroy insiste sur deux axes essentiels. D’abord, l’Union doit renforcer sa législation antitrust et appliquer des sanctions dissuasives contre les abus des grandes plateformes. Ensuite, elle doit investir massivement dans des bases de données européennes et dans la recherche en intelligence artificielle. La compétition internationale ne sera pas seulement technologique, mais également environnementale : la préservation du climat, du vivant, et la gestion de la Terre deviendront des enjeux fondamentaux à long terme.
Une piste novatrice serait de changer radicalement la place accordée aux données : non plus comme une valeur positive à exploiter, mais comme un déchet toxique qu’il faudrait réguler, contrôler et limiter. Aujourd’hui, les données ne cessent de s’accumuler, comme des déchets nucléaires, et leur circulation incontrôlée menace la stabilité écologique. La régulation européenne pourrait consister à imposer une transparence totale sur leur usage, leur provenance, leur destination et leur possibilité d’être réutilisées par la société. Il faut réinventer la régulation du numérique comme on régule la nature : avec précaution, conscience écologique, et souci collectif, pour éviter que cette économie numérique démesurée ne devienne un vecteur supplémentaire de déséquilibre mondial.
