La nouvelle proposition de la Commission Européenne sur la régulation de l’intelligence artificielle : un premier aperçu
Récemment, la Commission Européenne a présenté une première version de son projet de réglementation sur l’intelligence artificielle (IA), un texte très attendu. Cette initiative s’inscrit dans la volonté de l’Union européenne de devenir un leader mondial en matière de régulation technologique. Au cœur de cette proposition, des mesures fortes sont annoncées, telles qu’un embargo sur la reconnaissance faciale dans l’espace public, avec quelques exceptions toutefois. Cependant, de nombreuses organisations de défense des droits civiques expriment leur inquiétude, affirmant que la proposition comporte trop de failles et ne va pas assez loin pour protéger les communautés vulnérables.
Les premières réactions des défenseurs des droits civiques face à la proposition de la Commission
Angela Chen : La réaction initiale des groupes de défense des droits civiques face à la proposition de la Commission concernant l’IA semble être qu’elle comporte de nombreux échappatoires. Partagez-vous cet avis, et pourriez-vous préciser quels sont ces points faibles, notamment en ce qui concerne l’interdiction de la reconnaissance faciale ?
Sarah Chander : En termes de formulation, on pourrait parler d’un interdit. Mais, en réalité, il existe des exceptions – ce qui, pour beaucoup, rend cette interdiction inadéquate, surtout compte tenu du nombre d’exemptions possibles à l’heure actuelle. Globalement, ces dérogations concernent principalement la lutte contre le terrorisme et les mesures anti-terroristes à l’échelle de l’UE. Plusieurs organisations pour la justice raciale ont souligné qu’en Europe, dans le cadre de ces politiques anti-terroristes, on observe souvent des applications potentiellement discriminatoires, notamment une surveillance excessive de certaines communautés musulmanes.
Une autre dérogation est encore plus large : il s’agit de « crimes graves ». La liste de ces crimes est très étendue, allant du viol et du meurtre, qui sont des infractions clairement établies, à des délits comme la « fraude », dont la signification est floue voire absente dans le texte.
Les autres risques liés aux dérogations pour les communautés vulnérables
Les experts en droits civiques craignent que ces dérogations entraînent des impacts discriminatoires sur diverses communautés, pas seulement les populations musulmanes. Cela concerne aussi les personnes noires, roms, ou encore les minorités ethniques en général. Il est nécessaire d’adopter une perspective large pour examiner l’usage des technologies de surveillance — que ce soit la reconnaissance faciale, les systèmes de policing prédictif ou encore les évaluations de risques en matière pénale.
Nous nous inspirons beaucoup des expériences américaines pour anticiper ces enjeux. Les systèmes de policing prédictif ont souvent eu des effets néfastes sur les communautés noires et brunes, tout comme la collaboration d’organisations de l’immigration avec des bases de données pour accélérer les expulsions des personnes sans papiers. Ces préoccupations restent entièrement pertinentes si ces systèmes devaient être déployés à grande échelle en Europe.
Il faut aussi rester vigilants face à d’autres technologies capables d’automatiser la reconnaissance de traits d’identité très sensibles, comme la race, le handicap ou encore l’identité de genre. Ces types de technologies ne sont pas toutes interdites dans la version actuelle du texte et ne sont pas classées comme « à haut risque ». Pourtant, leur intrusion dans la vie privée est considérable, et dépendant du contexte politique, leur usage pourrait devenir problématique, notamment pour la reconnaissance automatique de la race par exemple.
Une régulation centrée sur les acteurs, pas sur les personnes
Une critique récurrente concerne la façon dont la proposition laisse une place importante à l’auto-évaluation par les développeurs d’IA produisant des technologies à haut risque. Bien que les termes « haut risque » paraissent stricts, la régulation repose principalement sur une analyse interne effectuée par les entreprises elles-mêmes. En d’autres termes, ce sont ceux qui réalisent des profits qui décident de leur conformité, même si les exigences en matière de transparence ou de gouvernance des données restent vagues. Cela reflète une philosophie commerciale plutôt qu’un réel souci de protection des droits fondamentaux, qui n’est pas mis en avant dans la législation. »
Parce que ces systèmes s’inscrivent dans un contexte plus large d’inégalités raciales et socio-économiques, il est impossible d’apporter une simple amélioration technique pour garantir l’absence de résultats discriminatoires.
Pour résumer, la réglementation cible principalement la relation entre les fournisseurs (les entreprises et développeurs d’IA) et les utilisateurs (les acteurs publics ou privés), plutôt que d’encadrer la relation entre ces acteurs et les personnes affectées par l’intelligence artificielle — alors que beaucoup souhaiteraient que s’applique une protection concrète à ceux qui se retrouvent sous surveillance ou victimes de profils erronés. La question que posent les citoyens est : quels droits ont-ils lorsqu’ils interagissent avec une intelligence artificielle ? Que faire en cas de profilage abusif ou de surveillance excessive ?
Faut-il privilégier des protections précises ou simplement un interdit ?
Je n’ai pas examiné chaque usage à haut risque en détail, mais il me semble que beaucoup devraient tout simplement être interdits. La policing prédictive en constitue un exemple frappant. Beaucoup pensent que, si on dé-biaisait ce genre de systèmes, ils ne pro$page plus de profiler ou d’intensifier la sur-surveillance des communautés racisées ou pauvres. Je ne suis pas convaincue. Étant donné le contexte plus large d’inégalités raciales et sociales, il est impossible d’apporter une correction technique ou d’améliorer légèrement la base de données pour éviter totalement les résultats discriminatoires. D’où ma conviction que cette pratique doit être interdite. C’est un domaine où la discussion sur le biais tend à masquer les véritables enjeux.
Certains autres usages listés dans la réglementation pourraient potentiellement être corrigés par des garde-fous. Mais, en réalité, l’étiquetage de certains systèmes comme « à haut risque » devrait impliquer une vérification externe de leur conformité, plutôt qu’une auto-évaluation interne. Sinon, pourquoi qualifier ces technologies de « haut risque » si l’on a confiance absolue dans les entreprises qui les développent et en tirent profit pour s’auto-certifier ?
Le lien entre cette proposition et le Digital Services Act
Les textes indiquent clairement que cette proposition ne se substitue pas au Digital Services Act (DSA). Cependant, quelques points de convergence existent, notamment sur l’interdiction d’exploiter des personnes en se basant sur leur âge ou leur handicap, à condition de prouver qu’un préjudice physique ou psychologique en découle — ce qui prête à confusion, car cela signifie en pratique qu’il serait permis de manipuler ou exploiter ces catégories, tant que cela ne provoque pas de dommage direct.
Une généralisation de l’utilisation de l’IA, dans quelque secteur que ce soit, ne devrait pas être considérée comme une finalité en soi.
Auparavant, le texte évoquait plutôt la vulnérabilité comme un critère à protéger — notamment pour limiter la publicité ciblée. Cela soulève la question de l’interdiction de la publicité ciblée elle-même ou d’autres formes de manipulation commerciale. Nous ne sommes pas encore certains de la manière dont ces enjeux s’articulent concrètement, ni des conséquences propres de ces choix.
Les batailles à venir dans la régulation de l’IA en Europe
Les débats autour de cette proposition risquent de durer plusieurs années. La liste des technologies à haut risque, ainsi que les interdictions, ont été fixées par la Commission européenne, un organe non élu, dont la représentation est très éloignée de la diversité de notre continent, et dont la vision est avant tout élitiste. Cette Commission a choisi de décider seule, sans véritable participation citoyenne, ce qui doit être considéré comme à haut risque ou interdit dans l’avenir. Cela représentera un enjeu majeur : comment rendre ce processus plus inclusif et démocratique ? Comment donner la parole aux individus ou aux communautés directement concernées par ces technologies ?
La vision de l’UE : une volonté de généraliser l’usage de l’IA ?
Promouvoir une généralisation de l’IA dans tous les secteurs ne devrait pas devenir une finalité en soi. En réalité, cela ne pourrait que favoriser une extension du secteur privé dans le domaine public, ce que nous devons absolument contester. Au minimum, il faudrait préciser que l’adoption doit se faire dans le respect des droits de l’homme et uniquement dans des contextes où cela apporte un bénéfice social réel, ce qui n’est pas encore suffisant dans le texte actuel.
Cette interview a été initialement publiée par la Heinrich Böll Stiftung.
