Dominique Barthier

Europe

L’avenir de la créativité

Qu’est-ce qui distingue les humains de l’intelligence artificielle ? L’auteure allemande Nina George voit la réponse dans la capacité à créer l’inédit, ce qui n’existait pas jusqu’à présent. Or, à mesure que l’IA gagne du terrain dans des pans de nos vies toujours plus vastes — des contenus que nous consommons à la façon dont nous nous exprimons — nous risquons de perdre notre liberté et notre créativité.

Plus de trois ans après son introduction sur le marché, en novembre 2022, ChatGPT, cette robotique de génération de texte conçue par OpenAI au cœur de la Silicon Valley sacrée, continue d’être vénéré comme s’il s’agissait du « Pancréateur » (comme l’écrivain et philosophe de la technologie Stanisław Lem surnommait le « constructeur du monde rationnel » dans son Summa Technologiae publié en 1964).

Selon une étude interne d’OpenAI, 800 millions d’utilisateurs, essentiellement des jeunes âgés de 18 à 25 ans, posent en moyenne 18 milliards de requêtes par semaine à son chatbot. Ils recourent à ChatGPT pour les devoirs, les candidatures professionnelles, les slogans marketing, les courriels, les newsletters, des extraits de propagande pour des bots sur les réseaux sociaux, pour des produits qui ressemblent à des livres, pour des critiques ou des traductions ; pour des lettres d’amour à la Cyrano de Bergerac, version cyborg, des réponses automatiques de service client, des résumés, et des conseils relationnels ou existentiels. Bien sûr, ChatGPT n’est qu’un parmi de nombreux chatbots – il existe plus de 1000 grands modèles de langue, et leurs usages sont accessibles partout dans le monde.

Le nombre de requêtes varie au gré des périodes : début et fin de semestre, vacances scolaires. Selon une enquête menée au Royaume‑Uni par HEPI et Kortext, la proportion d’étudiants utilisant des outils d’IA générative tels que ChatGPT pour les évaluations est passée de 53 % en 2024 à 88 % en 2025. Comme l’écriture, la lecture est aussi en déclin. Des enseignants universitaires en Europe et outre‑Atlantique rapportent qu’un nombre croissant d’étudiants ne s’habitue plus à lire et trouve la lecture mentalement, émotionnellement et physiquement épuisante lorsque les textes dépassent la longueur d’un poème.

Un vieux monde audacieux

Depuis les années 1960, les tentatives de reproduire les voies neuronales du cerveau humain par le prisme des statistiques fondées sur les données ont donné ce que l’on appelle l’« IA faible ». L’IA faible peut se concentrer sur une seule tâche — contrairement aux humains, capables de traiter jusqu’à 11 millions d’impressions sensorielles par seconde et de filtrer les 40 plus importantes pour des réactions immédiates. Lorsqu’on conduit une voiture, nous réfléchissons, nous passons les vitesses, nous dirigeons, nous réagissons au feu rouge et nous surveillons l’enfant sur le siège arrière qui agite un hochet.

ChatGPT, Gemini, LlaMA, Microsoft Copilot et leurs pairs peuvent soit aller tout droit soit reconnaître le feu rouge. En outre, ils ne comprennent ni le sens ni le contexte de ce qu’ils assemblent, car toutes les lettres, les mots, les phrases, les contextes et les informations sont réduits à des formules algorithmiques. Le langage humain est converti en mathématiques machine, et les mathématiques s’expriment comme une communication simulée.

À une époque marquée par des polycrises complexes, par la montée de l’extrême droite et par l’afflux de bots de propagande sur les réseaux sociaux, la communication automatisée agit comme un accélérateur de futures dictatures (linguistiques).

Cependant, cette production est strictement pré‑censurée : les chatbots IA sont programmés pour éviter une liste croissante de termes interdits et de sujets sensibles par un « contrôle de contenu » préconfiguré en usine. Cette liste comprend des jurons et des termes à connotation sexuelle, mais aussi des adjectifs inhabituels et des sujets politiquement sensibles (et sous l’actuelle administration américaine, la liste s’allonge encore). Le résultat est, au mieux, une langue médiocre et conservatrice, dépourvue de l’élément humain.

Cette langue ne se répand pas uniquement à l’écrit, mais modifie aussi la communication orale humaine. Des chercheurs du Max Planck Institute for Human Development ont analysé plus de 770 000 podcasts et vidéos et ont conclu que nous commençons à parler dans le style de ChatGPT. Cette érosion de la diversité linguistique et culturelle accroît fortement le risque de manipulation des opinions. À une époque marquée par des polycrises, par la montée de l’extrême droite et par l’afflux de bots de propagande sur les réseaux sociaux, la communication automatisée agit comme un accélérateur de futures dictatures (linguistiques).

Exploitants du temps, de la culture et du savoir

Mais ce n’est pas là le seul problème lié à l’engouement pour l’IA. La base textuelle sur laquelle a été développé GPT‑3, par exemple, s’élève à environ 45 téraoctets de documents que OpenAI a vraisemblablement pillés illégalement au fil des années. Trois cent millions de pages de textes issues de sites privés, d’archives médiatiques, de forums Reddit, d’avis sur Amazon, de réseaux sociaux, d’entrées Wikipédia. Et aussi sept millions de livres sous copyright et 81 millions de textes scientifiques.

Des équipes de recherche comme le Dutch AI Safety Camp ou le Danish Rights Alliance ont démontré que les fondations des grands modèles de langue tels que Llama de Meta ont été construites à partir de livres et de collections comme Books3 qui ont été stockés illégalement dans des bibliothèques fantômes telles que Library Genesis (LibGen), Z‑Library (Bok), Sci‑Hub et Bibliotik — des sites de piratage.

Le nombre de plaintes pour ce gigantesque délit de droit d’auteur croît chaque semaine. En novembre 2025, on recensait 75 poursuites contre OpenAI, Microsoft, Meta et Alphabet (la société mère de Google). Les plus célèbres restent The New York Times contre OpenAI et Microsoft, et l’action collective déposée par l’US Authors’ Guild (la plus grande organisation professionnelle d’auteurs aux États‑Unis) et 18 écrivains (dont George R.R. Martin, Jonathan Franzen et John Grisham) contre OpenAI. Une autre affaire, Bartz v. Anthropic, déposée par trois auteurs individuels, a débouché sur un règlement de 1,5 milliard de dollars. En Europe, les actions collectives restent difficiles à poursuivre et peu viables financièrement pour les auteurs individuels. Même si les tribunaux américains statuaient contre l’extraction illicite par l’IA, cela n’apporterait pas justice aux auteurs européens.

Préjudice sur le marché provoqué par les sorties IA

Le linguiste Noam Chomsky a qualifié ChatGPT de « plagiat de haute technologie » qui copie à partir de livres échantillonnés illégalement afin de produire des textes qui reproduisent le style des auteurs originaux. Malgré ce vol, les résultats sont considérés comme « domaine public » et peuvent être réutilisés par tous. Mais il s’agit là d’un problème collatéral — le réel préjudice est que les produits IA qui ressemblent à ceux d’autrui riskent de nuire aux marchés de ceux dont les œuvres ont été volées.

Amazon, qui a toujours fait tourner des logiciels de contrôle de contenu sur l’ensemble des ebooks pour filtrer la pornographie infantile, les discours de haine et le déni de l’Holocauste, a ajouté un détecteur d’IA. Toutefois, la plateforme autorise encore le téléchargement de livres générés par IA par les éditeurs indépendants (avec une limite d’un ou trois ouvrages par jour et par utilisateur), sans étiquetage ni avertissements visibles pour les clients. Entre 10 000 et 40 000 livres étiquetés « IA » inondent la plateforme chaque mois, trompant les consommateurs et les mettant en danger (par exemple lorsque des « guides » non vérifiés prescrivent des traitements absurdes, des conseils de vie fatals ou prétendent que des champignons vénéneux peuvent être comestibles).

Parallèlement, les livres réels écrits par des auteurs humains deviennent moins visibles et les revenus tirés de l’auto‑édition diminuent. Par exemple, la rémunération des écrivains via le modèle de partage des revenus de Kindle Direct Publishing recule, les maîtres des bots et d’autres utilisateurs sans scrupules empochant une part importante des gains. Les livres générés par IA sont souvent conçus pour imiter les nouvelles parution de grands auteurs (ou présentés comme des « résumés » et du « matériel secondaire »). Les biographies de personnalités célèles, publiées presque immédiatement après leur mort, constituent aussi un moyen facile de gagner de l’argent avec l’IA.

On observe un phénomène similaire dans le secteur musical : selon une étude de l’application de streaming Deezer, 34 % des morceaux téléchargés quotidiennement sur la plateforme sont générés par IA, ce qui, à son tour, réduit la rémunération des auteurs et des musiciens humains via le modèle de partage des revenus des plateformes.

Les traducteurs, les illustrateurs et les narrateurs de livres audio sont les principaux perdants de ce système. Les applications de génération de textes sont largement utilisées dans le monde, y compris dans le domaine du livre. Amazon vient de déployer son « service de traduction » alimenté par l’IA pour les auto‑éditeurs. Au Royaume‑Uni, un tiers des traducteurs ont déclaré avoir perdu des marchés en raison de l’IA, et 37 % des illustrateurs ont vu leurs revenus diminuer pour la même raison. Les traducteurs se tournent vers d’autres métiers ou travaillent comme post‑éditeurs sous‑payés pour réparer des textes et des traductions générés par machine. Pendant ce temps, plusieurs narrateurs de livres audio m’ont confié, à titre confidentiel, qu’ils doivent choisir entre accepter de faire cloner leur voix et être « blacklistés » par l’industrie.

Payer les auteurs pour l’usage passé ou futur de leur travail reviendrait, selon les grandes entreprises technologiques, à freiner le développement de l’IA. L’administration Trump soutient les oligopoles technologiques : en mai, elle a licencié Shira Perlmutter, à la tête du United States Copyright Office, après que son service ait publié un rapport concluant que les utilisations non autorisées d’œuvres protégées par le droit d’auteur pour former des systèmes d’IA générative pourraient être illégales. (La Cour suprême a suspendu, pour l’instant, le retrait de Perlmutter.)

La ligne de défense de Google est que les machines ne se distinguent pas tant des humains lorsqu’ils lisent un livre. Or, les humains ne peuvent pas mémoriser des livres entiers, ni en copier le contenu comme modèle économique. Aucun auteur qui cherche à bâtir ou à préserver une réputation n’emprunte le style d’un autre, mais sacrifie des milliers d’heures de travail pour trouver sa voix propre et originale. L’astuce consistant à assimiler les machines aux humains et à attribuer des droits humains aux machines est populaire chez les GAFAM (Google, Amazon, Facebook, Apple, Microsoft ; OpenAI mérite d’être ajoutée à cette liste) afin d’éviter de payer les auteurs.

Cela n’est pas surprenant dans le secteur culturel. Les entreprises technologiques ont une longue tradition de s’emparer des idées des écrivains et des poètes. Les cyborgs, les machines humanoïdes, Internet, les réseaux sociaux, les machines à écrire automatiques omniscientes, la vidéophonie, les voitures autonomes et les robots domestiques ont tous d’abord existé dans la littérature, bien avant de devenir réalité. Les véritables innovateurs ne sont pas Mark Zuckerberg, Sam Altman ou Bill Gates, mais Stanisław Lem, E. M. Forster, Neal Stephenson, George Orwell, Mary Shelley, Karel Čapek et Isaac Asimov, entre autres. Des notions comme « avatar », « robot », « mondes virtuels » ou « métavers » émergent également de l’imagination des auteurs.

Doit‑on, en tant qu’écrivains, cesser d’imaginer de telles idées, en sachant qu’elles finiront vraisemblablement par devenir réalité ?

Perdre sa voix

Nous ne devons pas le faire. Le pouvoir des êtres humains à concevoir des utopies ou des dystopies encore inimaginables est ce qui les distingue des machines. Si les machines prenaient en charge la narration humaine, l’évolution se figerait puis reculerait. L’évidence aurait pleinement évincé l’exceptionnel — plus aucune nouvelle idée, plus aucune proposition pour coexister, plus aucun concept pour appréhender des polycrises qui évoluent sans cesse.

Le droit d’auteur et les droits des auteurs, le droit à l’intégrité et à l’absence de censure, le droit pour les auteurs de décider comment et par qui leurs œuvres et leur travail seront utilisés — ne concernent pas uniquement les professionnels et les artistes. Ils témoignent d’un changement de paradigme dans la perception de l’humanité elle‑même : la reconnaissance de la créativité humaine, du libre arbitre, de l’individualité, de l’autonomie et de la capacité de décision. Et aussi la responsabilité individuelle : chaque auteur, qu’il soit professionnel ou amateur, blogueur ou commentateur sur Facebook, est responsable de ce qu’il exprime ; et en même temps, il est autorisé à le faire. Les droits d’auteur visent la liberté.

Écrire ou s’adonner à des activités artistiques exerce également un effet multifacette sur l’identité humaine : ceux qui savent penser peuvent décider ; ceux qui savent décider peuvent agir. Ceux qui savent lire, comprendre et écrire sont moins vulnérables à la propagande, à la désinformation et à la manipulation, que ce soit face à des « offres » du Black Friday ou à des forces politiques antidémocratiques. Ils peuvent devenir des participants actifs à la démocratie, et non de simples consommateurs ou électeurs. En revanche, ceux qui se fient au langage automatisé ne peuvent plus parler en leur nom propre ; ils perdent leur voix.

Ceux qui dépendent du langage automatisé ne peuvent plus parler en leur nom propre; ils perdent leur voix.

Avoir sa propre voix et savoir s’en servir s’avère d’autant plus nécessaire face aux crises démocratiques, sociales et écologiques qui nous frappent. D’un point de vue écologique, l’IA doit être examinée avec la même attitude critique qui a été autrefois dirigée contre les chlorofluorocarbures ou les particules fines. D’ici 2030, l’infrastructure physique qui alimente les applications IA devrait dépasser les besoins énergétiques de l’ensemble de la main‑d’œuvre humaine. De nombreux emplois sont susceptibles de disparaître, pas seulement dans le secteur culturel, ce qui alourdit le fardeau des États qui font déjà face au chômage et au vieillissement de leur population. Si cela se produit, quelques monopoles de la communication auront scellé leur domination, déterminant aussi l’orientation politique de l’Europe. Ce serait l’issue ultime de la mondialisation numérique, un système dans lequel quelques-uns décident du destin des nombreux — à moins que les nombreux ne décident d’employer leur voix.

Adieu à la liberté ?

L’être humain, en tant qu’acteur libéral et responsable, est en train d’être effacé par la simulation automatisée de la communication. L’IA générative est, en réalité, dégénératrice : elle entrave les capacités de ceux qui l’utilisent régulièrement, et ce, au détriment des travailleurs du langage.

Le rêve d’une machine supérieure à l’homme, d’un golem, d’un deus ex machina, est le défaut humain éternel. C’est le désir de créer une entité plus grande, plus durable, meilleure que l’humanité, et de se vautrer avec plaisir dans une passivité infinie et libératrice lorsque l’autopilote prend le relais. Enfin libre ! Libre de toute responsabilité et de la nécessité de décider. Libre de la dureté de cette vie hideuse et déroutante, avec ses multiples crises et ses humiliations.

Peut-être que c’est là la conséquence la plus regrettable de la religion moderne des machines : ceux qui ne savent ni écrire ni parler, mais qui laissent les machines écrire et parler à leur place, embrassent ainsi la suppression de leur propre liberté d’expression.

Dominique Barthier

Dominique Barthier

Journaliste passionné par la vie publique, j'explore les rouages de la politique française depuis plus de dix ans. J’ai à cœur de rendre l'information accessible, rigoureuse et engageante pour tous les citoyens. Chez ElectionPrésidentielle.fr, je décrypte l’actualité avec une exigence constante de clarté et d’indépendance.