Reprise d’un post FB de Jonathan Durand Folco
Sommes-nous témoins du premier coup d’État basé sur l’IA de l’Histoire? C’est ce que suggère le chercheur Eryk Salvaggio dans un texte clair et percutant qui décrit comment le DOGE dirigé par Elon Musk compte transformer profondément l’État américain via des algorithmes contrôlés par les élites de la Silicon Valley. Dans mon vocabulaire, nous assistons peut-être à la naissance du « Léviathan algorithmique ».
Voici une traduction française de cet article du 9 février 2025 de Tech Policy Press que je recommande chaudement. Le texte est relativement long (2730 mots). Le lien vers l’article original : https://www.techpolicy.press/anatomy-of-an-ai-coup/
Jonathan Durand Folco
« Anatomie d’un coup d’État de l’IA »
Eryk Salvaggio (*)
Le DOGE est en train de vider les agences fédérales de leur substance afin d’installer l’IA dans l’ensemble du gouvernement. La démocratie est en jeu, écrit Eryk Salvaggio, membre de Tech Policy Press.
L’intelligence artificielle (IA) est une technologie qui permet de fabriquer des excuses. En l’absence de définitions claires ou d’outils d’évaluation, l’IA a néanmoins saisi l’imagination des politiciens et des gestionnaires du gouvernement, du monde universitaire et de l’industrie. Mais ce que l’IA sait le mieux produire, ce sont des justifications. Si vous voulez qu’une main-d’œuvre, une bureaucratie réglementaire ou une obligation de rendre des comptes disparaisse, il vous suffit de dire : « L’IA peut le faire ». Ensuite, la conversation passe de l’explication des raisons pour lesquelles ces choses devraient ou ne devraient pas disparaître à des questions sur la manière dont l’IA fonctionnerait à leur place.
Nous sommes au milieu d’un coup d’État politique qui, s’il réussit, changera à jamais la nature du gouvernement américain. Ce coup d’État ne se déroule pas dans la rue. Il n’y a pas de loi martiale. Il se déroule bureau par bureau dans les agences fédérales et dans l’automatisation banale de la bureaucratie. Le raisonnement repose sur un mythe de la productivité selon lequel l’objectif de la bureaucratie est simplement ce qu’elle produit (services, informations, gouvernance) et peut être isolé du processus par lequel la démocratie parvient à ces fins : le débat, la délibération et le consensus.
L’IA devient alors un outil pour remplacer la politique. L’administration Trump présente l’IA générative comme un remède au « gaspillage gouvernemental ». Cependant, ce qu’elle cherche à automatiser, ce n’est pas la paperasse, mais la prise de décision démocratique. Elon Musk et son département de l’efficacité gouvernementale (DOGE) misent sur une illusion populaire mais fausse selon laquelle les technologies de prédiction des mots permettent de faire des déductions significatives sur le monde. Ils s’en servent pour contourner le contrôle du budget par le Congrès, qui est, selon la Constitution, l’allocation de ressources aux programmes gouvernementaux par le biais d’une politique représentative.
Si parler d’un coup d’État de l’IA (AI coup) peut sembler conspirationniste ou paranoïaque, c’est pourtant banal. Contrairement aux affirmations de Musk et de ses acolytes sur le « risque existentiel », qui envisagent que l’IA prenne le contrôle du monde par la force brute, un coup d’État de l’IA naît de décisions collectives sur la quantité de pouvoir que nous accordons aux machines. Il s’agit d’un délestage politique, qui consiste à confier le travail fastidieux consistant à remporter les débats politiques à la fausse autorité de l’analyse des machines. C’est une façon de déplacer la prise de décision collective au cœur de la politique représentative.
La distribution des rôles
Nous pouvons planter le décor en décrivant la distribution des rôles. Dans son emploi à temps partiel à la DOGE, Elon Musk joue le rôle principal. Son équipe vise à utiliser l’IA générative pour trouver des économies budgétaires, alors même qu’il éviscère la fonction publique. L’entité DOGE a déjà tenté de prendre le contrôle du système informatique du département du Trésor pour distribuer des fonds et a effectivement démantelé l’USAID. Musk espère mettre en place une « stratégie d’IA d’abord » (AI-first strategy) pour les agences gouvernementales, comme GSAi, « un chatbot d’IA générative personnalisé pour l’administration des services généraux des États-Unis ».
Thomas Shedd, un ancien ingénieur de Tesla qui occupe aujourd’hui le poste de directeur des services de transformation technologique de l’administration des services généraux, est chargé de cette mission. Thomas Shedd a déclaré que « le gouvernement fédéral a besoin d’un référentiel de données centralisé » pour analyser les contrats gouvernementaux, malgré une légalité douteuse en matière de conservation des données et de protection de la vie privée.
Il y a ensuite l’équipe de soutien. Il y a tout d’abord une équipe de petits joueurs qui servent d’agents de la DOGE. Ces ingénieurs, dont certains seraient âgés de 19 à 24 ans, sont arrivés dans diverses agences gouvernementales pour prendre le contrôle de systèmes informatiques sans même donner leur nom complet ni préciser leur objectif. Bien que le plus jeune d’entre eux vienne de terminer ses études secondaires, cette équipe a perturbé les réseaux des Centers for Disease Control et des Centers for Medicare and Medicaid Services, Musk refusant de discuter de l’utilisation des données par DOGE. Le 5 février, ils ont commencé à « extraire des données » sur les prestations des anciens combattants et les dossiers d’indemnisation des invalidités du ministère des anciens combattants. La liste est encore longue.
Enfin, nous avons les supposés adultes. Dans le décret de Trump sur l’IA, le président demande que les systèmes d’IA soient exempts de préjugés idéologiques ou de programmes sociaux élaborés et que soient révoquées les directives qui font obstacle à l’innovation américaine en matière d’IA, un plan qui sera élaboré par le nouveau tsar de l’IA et des cryptomonnaies, le capital-risqueur David Sacks. M. Sacks sera rejoint dans ce rôle par l’architecte du projet 2025, Russell Vought, à la tête de l’Office of Management and Budget (OMB), et par l’ancien et l’actuel directeur de la technologie de l’administration Trump à la Maison-Blanche et candidat au poste de directeur de l’Office of Science and Technology Policy de la Maison-Blanche, Michael Kratsios.
Le plan
Au milieu du chaos qui règne à Washington, les entreprises de la Silicon Valley continueront à démontrer qu’elles sont la solution. Nous pouvons nous attendre à ce que l’industrie annonce une nouvelle capacité radicale pour l’IA dans un avenir proche. OpenAI pourrait à nouveau prétendre atteindre une intelligence de niveau doctoral (comme en septembre 2024 et à nouveau en janvier 2025), ou le DOGE pourrait lancer un nouveau chatbot formé à partir de données gouvernementales.
Après des mois passés à ridiculiser la fonction publique pour son inaptitude et à dénoncer la politique de l’ombre des institutions de recherche universitaires, une nouvelle illusion sur la prédiction des mots émergera probablement de toute annonce de ce type. Dans cette histoire, les bénéficiaires du coup d’État de l’IA annonceront la solution parfaite aux échecs du gouvernement et à leur engagement décrié en faveur de la diversité, de l’équité et de l’inclusion (EDI) dans la science. La solution sera un « dépôt de données centralisé » relié à un chatbot et à une série de promesses.
Shedd a décrit un tel projet lors d’une réunion avec sa nouvelle équipe : « Parce qu’à mesure que nous réduisons la taille globale du gouvernement fédéral, comme vous le savez tous, il y a encore une tonne de programmes qui doivent exister, ce qui constitue une énorme opportunité pour la technologie et l’automatisation d’entrer en force, et c’est pourquoi vous êtes tous si essentiels et critiques pour cette prochaine phase… C’est le moment de construire parce que, comme je le disais, la demande de services techniques va monter en flèche. »
Pour servir son objectif, toute IA générative déployée ici n’a pas besoin d’être capable de prendre des décisions ou même de faire preuve de nouvelles capacités. Elle doit simplement être considérée comme un concurrent plausible de la prise de décision humaine suffisamment longtemps pour déloger les décideurs humains existants dans la fonction publique, des travailleurs qui incarnent les valeurs et la mission de l’institution. Une fois remplacée, la connaissance humaine qui produit l’institution sera perdue.
Une fois les employés licenciés, l’institution n’est plus elle-même. Trump et Musk peuvent l’adapter à n’importe quel objectif inscrit dans la requête (prompt) du chatbot, en dirigeant le type de résultats qu’il est autorisé à fournir à un utilisateur.
Après cela, le système automatisé peut échouer, mais c’est une caractéristique, pas un bug (that is a feature, not a bug). Car si le système échoue, l’élite de la Silicon Valley qui l’a créé s’assurera une place dans un nouveau régime technique. Ce régime concentre le pouvoir entre les mains de ceux qui comprennent et contrôlent la maintenance, l’entretien et les mises à jour de ce système. Tout échec accélèrerait également les efforts visant à confier le travail à des sous-traitants privés. Le système ChatGPTGov d’OpenAI est un excellent exemple de système prêt à entrer en jeu. En confiant les décisions gouvernementales à des systèmes d’IA qu’ils savent pertinemment inadaptés, ces élites technologiques évitent un débat politique qu’ils perdraient probablement. Au lieu de cela, ils créent une crise informatique nationale qu’ils sont les seuls à pouvoir résoudre.
Affaiblir l’opposition
Alors que l’élite technologique intègre l’IA générative dans des institutions vidées de leur substance, l’administration poursuivra ses efforts pour éviscérer les institutions de recherche indépendantes. En 2023, Trump a fait campagne pour une « Université américaine », une ressource en ligne présentant « des groupes d’étude, des mentors, des partenariats industriels et les dernières avancées en matière d’informatique », qui « sera strictement apolitique, et il n’y aura pas de wokisme ou de djihadisme autorisé ». Trump a proposé que l’Université américaine soit financée en « taxant, en imposant des amendes et en poursuivant en justice les dotations excessives des universités privées ».
Ajoutez à cela le système de mots-clés de l’administration Trump qui rejette les subventions de recherche même si elles sont tangentiellement axées sur la diversité et l’inclusion. Tout cela aura un impact sur la recherche scientifique et les finances des universités. À terme, cela créerait une crise par laquelle l’enseignement supérieur, dont les engagements en faveur de la diversité ont déjà été réduits à néant, pourrait mourir de faim. Un écosystème de recherche universitaire affaibli renforcerait le secteur privé en attirant les scientifiques dans leurs laboratoires, diminuant ainsi la supervision indépendante de la recherche.
Les listes de mots-clés signalant le rejet d’une demande de subvention par la National Science Foundation comprennent des termes liés au fait de débiaiser l’IA. Les experts savent depuis longtemps que les systèmes algorithmiques sont biaisés en faveur de la majorité parce qu’ils favorisent les échantillons statistiquement dominants. Cependant, les mots utilisés dans la recherche pour étudier et traiter les biais algorithmiques – y compris le mot « biais » – sont désormais des drapeaux rouges pour le financement. D’autres termes relatifs à l’étude des biais algorithmiques abondent, tels que l’étude des populations « sous-représentées » ou des biais « systémiques » dans les données d’entraînement. Tout cela fait partie de la promesse de Trump d’expurger les « idées radicales de gauche » sur l’IA.
S’emparer du contrôle du Congrès sur les dépenses et les programmes gouvernementaux promulgués par la loi et les confier à un système automatisé serait le premier signe que le coup d’État de l’IA est terminé. Cela marquerait le passage d’une gouvernance démocratique à un automatisme technocratique, dans lequel les ingénieurs déterminent comment coopter le financement du Congrès pour atteindre les objectifs de l’exécutif. Le refus de partager la connaissance des résultats du système – en s’en remettant à une combinaison de préoccupations sécuritaires ou même commerciales et de mythes sur les réseaux neuronaux de type « boîte noire » – le mettrait à l’abri de tout examen réel de la part du Congrès.
Le DOGE vise à remplacer la bureaucratie gouvernementale par une infrastructure technique. L’inversion et le démantèlement des dépendances intégrées dans l’infrastructure sont lents et difficiles, en particulier lorsque les efforts visant à étudier les biais systémiques sont interdits. Les ingrédients du « technofascisme » seront réunis.
Générer une crise
L’infrastructure défectueuse de ces agences et services gouvernementaux automatisés finira par produire un langage ou un code qui créera une crise nationale induite par l’IA. Comme aucun système d’IA n’est actuellement adapté à la tâche complexe de la gouvernance de l’État, l’échec est inévitable. Déployer ce système malgré tout est une décision humaine, et les humains devraient en être tenus pour responsables.
Les concepteurs de l’IA nous ont répété à maintes reprises qu’elle représentait une menace comparable à celle de la bombe atomique.
Langdon Winner a écrit un jour que les exigences infrastructurelles d’une nation dotée d’armes nucléaires « exigent qu’elle soit contrôlée par une chaîne de commandement centralisée, rigidement hiérarchisée et fermée à toutes les influences qui pourraient rendre son fonctionnement imprévisible ». Le système social interne de la bombe doit être autoritaire ; il n’y a pas d’autre solution.
La bombe atomique représente un risque réel pour la vie humaine. Mais Winner met en garde contre le fait que la simple perception du risque d’une technologie peut inspirer une rigidité sociale autour de son utilisation, qui se répercute dans la société. Que se passe-t-il lorsque la « bombe atomique » est un système d’intelligence artificielle qui prétend automatiser les décisions au sein d’un gouvernement démocratique ?
Les avertissements vagues et répétés de Sam Altman, d’Elon Musk et d’autres sur les dangers de l’intelligence artificielle générative ont amené le public à croire qu’une telle menace se profilait à l’horizon. Ils affirment que la combinaison de mots dans des arrangements convaincants conduira à notre anéantissement physique.
Malheureusement, de nombreux législateurs croient en ce mythe. Des années de lobbying bipartisan par des groupes axés sur les « risques existentiels » de l’IA l’ont positionnée comme une menace pour la sécurité contrôlable uniquement par l’élite technique de la Silicon Valley. Cette élite est désormais prête à tirer profit de toute crise.
Étant donné que les systèmes automatisés ne peuvent pas garantir la sécurité du code, les scénarios probables incluent une violation de données au profit d’un adversaire. Dans la hâte de construire au détriment de la sécurité, les équipes pourraient déployer directement des logiciels et des plateformes écrits par l’IA. Le code généré pourrait, par exemple, mettre en œuvre des mesures de sécurité dépendant d’actifs externes ou compromis. Il peut s’agir du meilleur scénario d’échec. Parmi les autres possibilités, on peut citer une « hallucination » concernant des données sensibles ou essentielles qui pourrait avoir des effets en cascade par le biais de dépendances automatisées, avec des conséquences secondaires physiques et fatales.
Comment les États-Unis pourraient-ils réagir ? L’émergence récente de DeepSeek – un large modèle de langage chinois, moins cher et plus efficace – fournit un manuel (playbook). Les hommes politiques des deux partis ont réagi à la révélation d’une IA plus abordable et moins dépendante en énergie en déclarant leur engagement envers les entreprises américaines d’IA et leur approche. Une crise offrirait une nouvelle occasion bipartisane de justifier de nouveaux investissements au nom d’une politique américaine axée sur l’IA.
La résistance algorithmique
Le coup d’État de l’IA n’est pas seulement né de l’union de Donald Trump et d’Elon Musk. Il est né de pratiques et de croyances désormais courantes chez les idéologues de la Silicon Valley, mais obscures pour la plupart des Américains. Cependant, la faiblesse de l’industrie technologique est qu’elle n’a jamais compris la complexité émotionnelle et sociale des êtres humains réels.
Une grande partie de ce que je décris ci-dessus suppose un public passif, une bureaucratie complaisante et un Congrès qui ne fait rien. Cela suppose que le fait d’opérer dans une zone grise juridique est un moyen d’échapper au contrôle judiciaire. Cette tactique est bien connue dans la Silicon Valley, où l’innovation technique est de plus en plus rare, mais où l’évasion réglementaire est courante.
La rapidité est essentielle à leur travail. Ils savent qu’ils ne peuvent pas créer un consensus public pour cet effort et doivent agir avant qu’il ne prenne forme. En avançant rapidement et en cassant les choses (move fast and break things), DOGE force un effondrement du système où les questions sans réponse sont résolues par des solutions technologiques. Déplacer la conversation vers la technique est une façon d’exclure les décideurs politiques et le public des décisions et de transférer ce pouvoir au code qu’ils écrivent.
Le coup d’État de l’IA repose sur un cadrage d’efficacité gouvernementale. Cela crée un piège pour les représentants démocrates, où le fait de plaider pour le maintien des services publics et des fonctionnaires sera interprété comme un soutien au gaspillage de l’État. Mais c’est aussi une opportunité. L’IA atteint l' »efficacité » en supprimant des services. L’IA, comme le Big Data avant elle, peut utiliser la commodité et l’efficacité pour soutenir les revendications visant à étendre la surveillance numérique et à supprimer les processus démocratiques tout en diminuant la responsabilité.
Ne tombez pas dans le piège. La participation démocratique et la politique représentative au sein du gouvernement ne sont pas du « gaspillage » (waste). Les arguments ne doivent pas non plus se concentrer sur les limites techniques de certains systèmes, car les élites technologiques ne cessent de revoir les attentes à la hausse en promettant sans cesse des améliorations exponentielles. L’argument doit être qu’aucun système informatisé ne doit remplacer la voix des électeurs. Ne demandez pas si l’on peut faire confiance à la machine. Demandez plutôt qui les contrôle.