Dominique Barthier

Europe

Intelligence artificielle verte et équitable : est-ce possible ?

Les dirigeants mondiaux et les investisseurs privés se disputent une place au cœur de la fièvre dorée de l’intelligence artificielle. L’irruption de la chinoise DeepSeek a brièvement bouleversé la suprématie américaine dans le secteur, tandis que l’Union européenne tente de rattraper son retard sans oublier les risques liés à une avancée technologique hors de contrôle. Mais pour que l’IA tienne sa promesse d’impulser une révolution écologique et socialement équitable, le modèle actuel doit être repensé en profondeur.

Aujourd’hui, l’outil favori de l’international réactionnaire et négationniste occidentale est la tronçonneuse. Mais que se passerait-il si cette tronçonneuse mécanique franchissait un saut technologique et était en plus pilotée par l’Intelligence Artificielle (IA) ? Dans un monde incertain et instable où les tronçonneuses « non libérales » et climato-sceptiques de Donald Trump, Javier Milei et Viktor Orban se sont alliées à l’oligarchie techno de Silicon Valley, cette question devient centrale pour l’avenir de nos démocraties et de la planète.

Et ce n’est pas une question nouvelle en soi. Toute nouvelle technologie dans le domaine de l’information qui voit le jour au fil de l’Histoire présente des défis complexes pour l’espèce humaine. Par exemple, l’invention de la radio et de la télévision a-t-elle réellement amélioré la démocratie et le bien commun ? Il s’avère qu’elles ont été utilisées tant à des fins démocratiques que totalitaires, que ce soit par exemple pour la Résistance française depuis Radio Londres ou pour le cinéma de propagande nazi de Leni Riefenstahl. Comme le rappelle utilement Yuval Noah Harari, « l’information n’est pas la vérité. Sa mission principale est de relier plutôt que de représenter, et les réseaux d’information à travers l’histoire ont souvent privilégié l’ordre sur la vérité. (…) Plus d’information peut paradoxalement conduire à plus de chasse aux sorcières »1. Précaution est donc de mise: le passé nous rappelle qu’il faut rester vigilant.

Cela dit, depuis la Seconde Guerre mondiale, les technologies – et tout de suite devenues obsolètes, puis incontournables – comme les ordinateurs, Internet, les smartphones et les réseaux sociaux se succèdent à un rythme de plus en plus effréné et exponentiel. Et, coïncidence ou non, elles croisent de plein fouet une autre crise hors de contrôle qui mine l’humanité : l’écologique. Ces technologies ont apporté leur lot de solutions et de désordres pour la planète, avec une balance globale plutôt décevante. L’IA va-t-elle devenir le saint graal de la durabilité ou bien la scie artificielle qui vient couper la dernière branche sur laquelle Sapiens est assis ? Regardez bien: même l’IA elle-même n’est pas en mesure de répondre à cette question. Essayez et vous verrez. Spoiler: une dissonance cognitive assurée.

A ce stade du récit, après une série de fièvres technologiques les unes après les autres, nous savons trop bien que les technologies de l’information modernes sont à la fois source de nouvelles solutions et de nouveaux problèmes. Et l’IA porte, en sus, un facteur supplémentaire non négligeable: elle peut apprendre et penser par elle-même, et elle le fait extrêmement rapidement. Face à ces défis qui portent les saveurs du déjà-vu tout en apportant de nouvelles énigmes, comment l’IA se comporte-t-elle en matière de droits et d’écologie ? Et surtout, quelle réponse collective et publique devrait être donnée pour tirer le meilleur parti de son potentiel, sans que cela ne devienne ni une arme de chasse aux sorcières moderne ni une bombe écologique ?

Big Brother is back

L’IA relance le débat sur le lien entre technologie et droits fondamentaux. Son potentiel en fait une arme à double tranchant selon les mains dans lesquelles elle tombe. Tout comme la télévision ou le cinéma ont pu devenir des outils de propagande massive et que les réseaux sociaux peuvent être d’énormes réservoirs de désinformation au XXIe siècle,2 quel rôle peut-elle jouer dans un monde de plus en plus agité et marqué par des tendances autoritaires et réactionnaires ?

De nombreux pouvoirs publics soutiennent que, bien maniée, l’IA peut servir de mécanisme renforçant la sécurité citoyenne. Toutefois, si cela peut être vrai dans certains cas, le recours au visage facial et à la biométrie dans les lieux publics et privés3 ouvre aussi la porte à une réduction marquée de droits fondamentaux tels que la liberté d’expression et d’information, le droit de manifester ou le droit à la vie privée. Et ce n’est pas une perspective fantasmatique. En Argentine, deux jours avant une manifestation importante en 2023, le gouvernement « motosierrano » du président Milei, avec son slogan anti-piquetage « celui qui coupe ne touche pas », a menacé d’utiliser le reconnaissance faciale pour identifier les manifestants et réduire leurs prestations sociales. L’effet a été immédiat: la faible fréquentation dans la rue a été l’inverse proportionnelle au fait d’anticiper la protestation et de la contenir. En Russie, des personnes présentes lors des obsèques de l’opposant Alexeï Navalny, décédé dans les prisons de Poutine, ont été arrêtées après avoir été identifiées par reconnaissance faciale analysant les images des caméras de surveillance et des réseaux sociaux. Big Brother strikes gain.

Si l’on ne régule pas ou ne contrôle pas correctement, nous ne sommes pas tous égaux face à « Big BroTech ».

Et ce n’est pas tout. Comme si nous vivions déjà un épisode de Black Mirror, l’IA peut renforcer de manière tangible ce qu’on appelle les social scoring, c’est-à-dire les systèmes de notation sociale ou citoyenne. À travers ces outils, il est possible d’évaluer les comportements des individus via une collecte massive de données personnelles, puis d’associer leurs droits, leurs prestations sociales ou l’accès aux services publics à leur score. Les conséquences dans le quotidien peuvent être énormes: moins de vie privée, discrimination sociale, contrôle dans les lieux publics et privés, impact sur la santé mentale, etc. On peut être sceptique ? Mais si la Chine en est déjà à tester son système de crédit social, il faut rester vigilant. Ainsi, du point de vue des droits et de la sécurité, marchons prudemment face à l’arrivée de l’IA chinoise DeepSeek. Au-delà de la censure la plus visible de cette IA (interrogez-la sur Tiananmen ou Taïwan, par exemple), le gouvernement chinois a déjà démontré par le passé qu’il sait utiliser son pouvoir technologique comme arme de surveillance, de contrôle et de coercition tant sur son territoire qu’au-delà. Attention, tout n’est pas or dans ce qui brille.

Mais n’allons pas nous voiler la face. Aux États‑Unis, le pays de la Broligarquía,4 même si les objectifs initiaux de certains usages de l’IA visent légitimement à améliorer l’efficacité du service public et peuvent y contribuer, les algorithmes se révèlent parfois porteurs de biais discriminatoires envers les populations pauvres et les classes laborieuses. À Amsterdam, les autorités ont même utilisé un algorithme pour classifier les jeunes des quartiers défavorisés selon leur probabilité de basculer dans la délinquance. Déplorant ce type de pratique, une centaine d’ONG européennes estiment que l’IA telle qu’elle est aujourd’hui développe et amplifie les discriminations liées à la classe sociale, au genre ou à l’origine ethnique. Sans régulation ou contrôle adéquats, nous ne serons pas tous égaux face à « Big BroTech ».

Et n’oublions pas: les droits ne se limitent pas aux droits civils mais englobent aussi les droits sociaux et économiques. Dans ce cadre, quel sera l’impact de l’IA sur un droit constitutionnel fondamental qu’est le travail ?5 Alors que l’IA s’invite dans le monde du travail, présenté comme un moteur d’efficacité, les analyses montrent une réalité peut-être moins disruptive. En Espagne, un rapport ne prévoit pas une révolution du travail, mais des transformations différenciées et nuancées selon les secteurs6. À l’échelle mondiale, l’Organisation internationale du travail envisage surtout une complémentarité entre les emplois existants et l’IA, prévoyant un changement dans l’intensité du travail et l’autonomie, avec un risque accru pour les femmes7. Par ailleurs, sans précipitation mais sans pause, il convient d’examiner l’IA et le travail sur le plan qualitatif et finaliste. Est-ce que l’IA renforcera les travailleurs ou réduira leurs droits ? Apportera-t-elle plus d’égalité au travail entre hommes et femmes ou accentuera-t-elle la fracture féminine ? Facilitera-t-elle le passage des postes « bullshit » ou les rendra-t-ils encore plus tels ? Et, au-delà, favorisera-t-elle les secteurs verts ou pourrait-elle, au contraire, renforcer des secteurs bâtis sur des pratiques non durables ?

Le prix écologique de la IA

En vérité, personne n’en doute: l’IA consomme d’énormes quantités de ressources naturelles. Pas des cris d’alarme d’écologistes marginalisés, mais bien Sam Altman, le patron d’OpenAI. Reconnaissant que l’IA pourrait déclencher une crise énergétique, il a déclaré lors du forum de Davos 2024 que « il n’y a pas moyen d’y arriver sans des changements radicaux ». Mais même si le gourou de l’IA le dit, l’industrie n’offre pas vraiment de données fiables. En tout cas, l’IA, qu’elle opère dans ses data centers, dans ses processus d’entraînement ou dans son usage quotidien, réclame beaucoup d’électricité, d’eau, de minéraux, tout en émettant d’importantes quantités de CO2.

Premièrement, on estime que la demande d’électricité liée à l’IA générée par les grandes entreprises technologiques pourrait doubler d’ici 2030. En 2027, l’IA générative pourrait consommer autant d’électricité que l’Espagne en 2022 !8 Le problème est que cette énergie croît plus vite que le développement des énergies renouvelables et nous confronte à deux difficultés majeures. D’un côté, comment produire cette électricité ? Alors que des options comme le charbon, le pétrole ou le gaz pourraient tirer leur épingle du jeu avec des répercussions climatiques catastrophiques, Altman et d’autres géants de l’IA, comme Microsoft ou AWS, misent sur l’énergie nucléaire pour compléter les renouvelables. Et pas n’importe quelle nucléaire, la fusion, qui reste aujourd’hui une perspective lointaine et ésotérique.

Ainsi, si l’une des priorités est de protéger le climat sans attendre une fusion très incertaine, un second problème pointe déjà son nez. Si l’offre d’énergie renouvelable est insuffisante pour répondre à la demande mondiale, qui sera prioritaire pour l’électricité « verte » produite ? Dans un monde où tout ne peut pas être simultanément disponible (énergie illimitée et climat stabilisé dans les limites de l’accord de Paris), il faudra choisir entre discuter avec une IA, conduire une voiture électrique ou allumer la lumière chez soi. Ou alors, une autre option: que seule une partie de la population ait accès à ces services qui pourraient devenir des luxes pour d’autres. Sans surprise, écologie et justice restent deux faces d’un même défi.

Deuxièmement, l’IA nécessite énormément d’eau. Même en utilisant des hypothèses conservatrices, on prévoit que la consommation d’eau douce des centres de données américains en 2028 pourrait même quadrupler par rapport à 2023. Pour dix requêtes à ChatGPT-3, on consommerait environ 500 millilitres d’eau. Multipliez cela par des milliards de requêtes quotidiennes et vous obtenez l’ampleur du volume total nécessaire. Avec l’IA, nous nageons dans un océan d’effets rebond. En outre, comme toute technologie récente, l’IA exige aussi de nombreux minéraux (cuivre, lithium, cobalt, etc.). Cela pourrait intensifier les conflits autour de son usage avec les véhicules électriques et les énergies renouvelables, et aggraver les pressions socio-écologiques comme l’ouverture de nouvelles mines en Europe. La technologie n’est pas neutre sur le plan écologique; son développement a un coût démocratique et écologique.

Pour finir, l’IA n’est pas du tout neutre en carbone. Si vous tenez une conversation courte avec le dernier modèle ChatGPT, vous aurez émis environ 0,27 kilogrammes d’équivalent CO2. Et si vous enchaînez en moyenne 10 échanges par jour pendant une année, cela représente près d’une tonne de CO2 annuellement. Cela équivaut à la moitié de ce qu’une personne devrait émettre en 2050 pour respecter l’Accord de Paris. Pas de blague, mais face aux enjeux venant de Chine, cette consommation d’énergie et ces émissions gigantesques ne paraissent pas inévitables. Là où on pensait que seul le Big (Heavy) Tech américain, très dépendant des ressources, pouvait être performant, la chinoise DeepSeek atteint des résultats similaires avec bien moins de puces. Selon les premiers chiffres, elle consomme entre 10 et 40 % de moins d’énergie que ses concurrentes. Même s’il faut rester prudent tant que la transparence sur la réalité de l’IA orientale n’est pas parfaite, et même s’il faut reconnaître que la consommation reste élevée et sujet à l’effet rebond, ce petit acteur (relativement) Little Tech apporte un grain de sable dans les rouages de l’excès de l’IA de la Silicon Valley et l’amène à la raison.

Mais au-delà de ce duel énergétique et géopolitique entre les États‑Unis et la Chine, une question demeure pour les deux camps: l’IA peut-elle compenser l’empreinte écologique qu’elle génère et même influencer favorablement la durabilité ? C’est l’avis de Bill Gates.9 S’il existe des usages prometteurs pour la transition écologique — réseaux énergétiques plus efficaces, modélisation climatique plus puissante, accélération de la recherche scientifique — attention, on a souvent entendu la même promesse lors de la révolution numérique des années 1990. Aujourd’hui, malgré des promesses initiales et des usages non négligeables en faveur de l’efficacité, Internet émet davantage de CO2 que l’aviation11 et l’empreinte écologique mondiale continue de croître. Et souvenons-nous: dans le domaine de l’IA, tout n’est pas que jeu d’équipe d’une transition écologique. Comme par le passé, les magnats des énergies fossiles utilisent aussi l’IA pour accélérer l’exploration et l’exploitation des hydrocarbures12. Et évidemment, malgré son prétendu besoin indécent pour le climat, ils ne jouent pas pour perdre. In Gates we trust?

Entre la Bro Tech menée par Elon Musk et la Oriental Tech sous tutelle du gouvernement chinois, le développement peut prendre des chemins différents.

Big High Tech contre Little Low Tech

Entre risques et potentialités, et face à un développement inéluctable, que faire de l’IA ? Revenons d’abord à l’essentiel. Comme le rappelle Climate Change AI, l’IA n’est pas une solution miracle. C’est plutôt un outil supplémentaire qui doit être utilisé avec modération lorsqu’il apporte une valeur environnementale et sociale réelle et qu’il sert une transition écologique et équitable.

Pour cela, il faut réguler l’usage qui peut en être fait.13 C’est ce que fait, par exemple, l’Union européenne, pionnière à bien des égards, notamment en matière de droits fondamentaux. Cherchant à concilier sécurité et éthique, la loi adoptée en 2024 interdit la notation sociale, la reconnaissance des émotions au travail et à l’école, le recours à la policière prédictive, la manipulation du comportement humain ou l’exploitation des vulnérabilités des personnes ou de certains systèmes de catégorisation biométrique14 (mais autorise néanmoins le recours à la biométrie à des fins policières). De plus, pour tout usage jugé « à haut risque », sous peine d’amendes allant jusqu’à des montants considérables, les organismes et entreprises responsables doivent évaluer et atténuer les risques, tenir des registres d’utilisation, être transparents et bénéficier d’un contrôle humain. L’UE a ainsi lu Hobbes et Orwell, et se protège contre le Leviathan moderne.

Or, si l’UE est championne en matière législative, est-elle prête à rivaliser sur le terrain de l’innovation technologique avec les États‑Unis et la Chine ? Dans un contexte où les États‑Unis créent l’IA, la Chine la copie et l’UE la régule, il devient urgent pour l’Europe de mettre en œuvre tous les outils possibles pour dépasser son simple rôle de législateur mondial et, au-delà de la réglementation, garantir sa souveraineté technologique. Entre la Bro Tech dirigée par Elon Musk et la Oriental Tech sous tutelle d’un État, elle peut agir autrement, en combinant un élan public et une coopération public-privé avec la protection des droits fondamentaux, une moindre dépendance aux ressources et une technologie au service des personnes et de la planète.

Pour cela, plusieurs critères clairs s’imposent. D’abord, outre le maintien de normes élevées concernant les droits des citoyens, la transparence de l’IA est une pièce maîtresse. Il s’agit aussi de connaître les données d’entraînement, c’est-à-dire comprendre ce que pense le modèle et les valeurs qui se cachent derrière lui. Ce n’est pas la même chose d’entraîner une IA avec la pensée de Bouddha que d’utiliser celle d’un Ku-Klux-Klan. Le biais idéologique et culturel de l’entraînement initial compte. Dans ce cadre, l’éducation critique dès le plus jeune âge et la formation continue des travailleurs est indispensable pour un usage informé, responsable et éthique de la technologie en général et de l’IA en particulier.

Deuxièmement, face à son potentiel disruptif, il faut envisager une IA open‑source comme modèle de base pour les développements futurs plutôt qu’une IA fermée et opaque, entre les mains d’une Silicon Valley hors de contrôle. Tout comme le World Wide Web a vu le jour grâce au financement public de nombreux pays européens et est devenu en domaine public en 1993, une IA universelle, publique et ouverte serait une véritable « brique » vers une technologie démocratique, innovante et collaborative.16 C’est-à-dire une approche où la communauté mondiale et les Little tech, et pas seulement les Big Tech, peuvent contribuer et bénéficier socialement et économiquement des avancées dans ce domaine.

Troisièmement, l’impact écologique de l’IA doit devenir une variable centrale de l’équation. Comme rappelle Sasha Luccioni, experte en IA, certains usages ne se justifient pas dans un monde écologiquement soutenable et équitable: pour un calcul simple, prenez un crayon ou une calculatrice, ne demandez pas à l’IA. Autrement dit, se fier à l’IA pour faire sa liste de courses, demander la météo ou choisir sa tenue du lendemain revient à prendre une Ferrari pour se rendre à la boulangerie. Or, posséder une Ferrari n’est pas recommandé d’un point de vue de la justice sociale et environnementale, et l’utiliser pour parcourir 500 mètres n’est pas raisonnable non plus.

Dans cet esprit, et en s’appuyant sur le modèle proposé par une association française de certification, il s’agit de développer ce que l’on appelle la « IA frugale ». Il s’agit d’une IA austère qui n’est employée que lorsque son apport environnemental et social est démontré comme supérieur à une alternative moins énergivore et dont les usages restent compatibles avec les limites planétaires. En pratique, tout comme les usages de l’IA peuvent être caractérisés par leurs droits fondamentaux, il serait tout à fait envisageable de classifier leurs usages selon leur empreinte écologique. En fonction de leur impact — « inacceptable », « élevé » ou « limité » — l’IA pourrait être remplacée par une autre technologie low tech similaire mais moins gourmande en énergie, gérée avec des critères publics et de répartition équitable lorsque les usages répondent à des besoins sociaux importants (santé, éducation, etc.). La transition écologique et juste ne se fait pas à coups de Ferrari; elle passe aussi par le vélo et par des transports publics de qualité.

Face aux défis pour les droits fondamentaux et la durabilité, l’IA demeure, comme toute technologie du présent et du passé, ambivalente et ambiguë. À l’image d’un Jano à deux faces, elle peut soit soutenir la justice sociale et environnementale soit l’entraver. Pour le moment, la Big High Tech a largement dominé la théorie, la narration et la pratique. Travaillons donc pour que la Low Little Tech fasse basculer la balance et, de cette manière, que l’IA s’inscrive dans le camp vert et juste de l’Histoire.  


  1. L’UE interdit les usages « inacceptables » pour les droits fondamentaux des citoyens, impose des exigences normatives plus ou moins coercitives selon que le risque est « élevé » ou « limité », tandis que les usages à risque « minimum » bénéficient d’une réglementation beaucoup plus légère. Yuval Noah Harari (2024), Nexus. A Brief History of Information Networks from the Stone Age to IA, Fern Press, p. 400. ↩︎
  2. Voir le cas des inondations à Valence. Je l’analyse dans La machine de la boue à Valence et comment lutter contre l’infodémie climatique. ↩︎
  3. Nous parlons d’identification biométrique (déterminer l’identité d’une personne à partir de son visage, de sa voix ou d’une empreinte), d’reconnaissance émotionnelle (interpréter les émotions humaines comme l’expression faciale ou le langage) ou de catégorisation biométrique (classer les personnes sur la base de données biométriques selon le sexe, l’âge, l’origine ethnique, l’orientation, etc.). ↩︎
  4. Néo‑mot formé entre Brother et Oligarchy. ↩︎
  5. La plupart des États membres de l’UE reconnaissent le « droit au travail » comme droit constitutionnel (par exemple, l’article 35 de la Constitution espagnole), tandis que la Charte des droits fondamentaux de l’UE prévoit à son article 31.1 que « tout travailleur a le droit de travailler dans des conditions qui respectent sa santé, sa sécurité et sa dignité ». ↩︎
  6. Les métiers liés au commerce, à l’hôtellerie et au transport seraient les plus touchés; ceux de l’agriculture, des industries extractives ou de la construction seraient moins affectés, tandis que de nouveaux profils apparaîtraient dans le secteur technologique, du développement et des télécommunications. ↩︎
  7. Cela s’explique par la surreprésentation des femmes dans le travail administratif, secteur potentiellement fortement affecté par l’automatisation de l’IA. ↩︎
  8. Et si nous parlons seulement des centres de données, ces « nuages » qui consomment aujourd’hui près de 1 % de l’énergie électrique mondiale pourraient atteindre 3,5 % en 2035. ↩︎
  9. Bien que reconnaissant que l’IA pourrait doubler ses émissions en 2030, et que les émissions de Microsoft ont augmenté d’environ 30 % entre 2020 et 2024… ↩︎
  10. Par exemple pour identifier de nouvelles combinaisons de ressources permettant à des batteries électriques de réduire leur dépendance vis-à-vis de matières premières rares. ↩︎
  11. Tout comme aujourd’hui, que ce soit les centres de données de l’IA. ↩︎
  12. Et non seulement: l’IA est devenue une alliée essentielle des armées et de l’industrie militaire. ↩︎
  13. L’UE interdit les usages « inacceptables » pour les droits fondamentaux des citoyens, impose des exigences normatives plus ou moins coercitives selon que le risque est considéré comme « élevé » ou « limité » tandis que les usages de risque « minimum » restent peu réglementés* ↩︎
  14. Comme les usages basés sur des caractéristiques sensibles ou la capture indiscriminée d’images faciales sur Internet ou via des caméras de surveillance pour créer des bases de données de reconnaissance faciale. ↩︎
  15. Services publics et privés essentiels tels que la santé, la justice, la banque ou l’éducation, processus démocratiques et électoraux, forces de sécurité ou migration. ↩︎
  16. Il existe déjà par exemple des IA open source comme HuggingFace, Jan ou GTP4All. Il est donc plausible — tout en restant à vérifier la transparence — que DeepSeek propose aussi une approche ouverte. ↩︎
Dominique Barthier

Dominique Barthier

Journaliste passionné par la vie publique, j'explore les rouages de la politique française depuis plus de dix ans. J’ai à cœur de rendre l'information accessible, rigoureuse et engageante pour tous les citoyens. Chez ElectionPrésidentielle.fr, je décrypte l’actualité avec une exigence constante de clarté et d’indépendance.