« Je les ai virés comme des chiens. » C’est la formule que Donald Trump, avec l’élégance qu’on lui connait, a utilisée pour résumer sa passe d’armes avec l’entreprise étatsunienne Anthropic. Il devra attendre encore un peu avant de fanfaronner : dans une première ordonnance rendue ce 27 mars, la justice a suspendu la mise à l’index du géant de l’intelligence artificielle (IA), dont les outils peuvent donc toujours être utilisés par les administrations, contrairement aux souhaits du président. Mais le bras de fer n’est pas terminé, et il faut prendre la mesure de ce qui s’y joue : l’utilisation par les États-Unis de l’IA au service d’un régime de terreur.
Rappel des faits
Fondée par d’ancien·nes employé·es d’Open AI, l’entreprise qui a conçu le célèbre chatbot ChatGPT, Anthropic est l’un des principaux challengers sur le terrain des grands modèles de langage (en anglais large language models, ou LLM). Son modèle, Claude, avait atteint les 30 millions d’utilisateur·rices à la mi-2025. Dans sa communication, elle met l’accent sur la fiabilité et la sécurité et avance le concept d’« IA constitutionnelle », c’est-à-dire d’IA entraînée pour agir dans le respect de textes fondateurs comme la Déclaration universelle des droits de l’homme(1)https://time.com/6295523/claude-2-anthropic-chatgpt/. Une approche qui se veut sage et raisonnable, qui ne l’a cependant pas empêché de devenir, en novembre 2024, le fournisseur attitré de logiciels d’IA pour le département de la défense étatsunien.
Le Pentagone utilise notamment Claude, dans le cadre d’un partenariat qui implique aussi la sulfureuse entreprise de big data Palantir, propriété du milliardaire d’extrême droite Peter Thiel. Palantir fournit les outils pour collecter et traiter de grandes quantités de données, et Anthropic permet de les exploiter pour concevoir des plans d’action. Dans le cadre de la guerre au Moyen-Orient, ces outils ont permis d’automatiser la recherche de cibles, ce qui explique l’exceptionnel rythme des frappes(2)https://www.ft.com/content/fedb262e-e6db-40bc-a4d0-080812f0f82b. Le Wall street journal a également révélé que Claude avait été utilisé pour planifier l’enlèvement de Nicolás Maduro, en janvier(3)https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17.
Fin 2025, le Pentagone engage des négociations pour réviser les termes de ces contrats. En cause : les restrictions sur les cadres d’utilisation, que le secrétaire d’État Pete Hegseth souhaite balayer au profit de la formule « tout usage légitime ». Anthropic se montre alors ouverte à la discussion, mais pose deux lignes rouges : la surveillance de masse des citoyen·nes étatsunien·nes, et les armes entièrement autonomes. Tout en affirmant que ces usages sont de toute façon interdits par la loi étatsunienne (ce qui est très contestable), le Pentagone s’offusque, fixe un ultimatum, puis rompt la collaboration avec l’entreprise. Le 4 mars, Anthropic reçoit une lettre l’informant du châtiment que Donald Trump a choisi pour elle : elle sera désormais considérée comme un « risque pour les chaînes d’approvisionnement » (supply chain risk), un statut habituellement réservé aux entreprises de pays ennemis ou non fiables, ce qui interdit à toute administration de recourir à ses services. Et c’est cette décision qui, trois semaines plus tard, a été suspendue par la justice – un sauvetage bienvenu pour une entreprise désormais en disgrâce, désignée comme « de gauche radicale woke » par le président étatsunien.
Règlements de comptes et petits copinages
Entre temps, la concurrence s’est frotté les mains. Avec un cynisme tout calculé, OpenAI et Google ont publié au début de la procédure judiciaire un amicus curiae, un avis extérieur destiné à éclairer la juge : elles y prennent la défense de leur rivale, et affirme la légitimité des préoccupations soulevées par Anthropic. En parallèle, OpenAI négociait un contrat pour reprendre la place encore chaude ; et si elle affirme avoir réaffirmé les deux lignes rouges d’Anthropic, et les avoir fait accepter à l’administration étatsunienne, l’accord réellement conclu semble plutôt souple. Dans un message interne à ses employé·es, le PDG d’Anthropic, Dario Amodei, accuse celui d’OpenAI, Sam Altman (qui est par ailleurs son ancien patron) de s’être livré à une pure et simple mise en scène pour dissimuler son opportunisme(4)https://bankwatch.ca/2026/03/05/the-full-leaked-memo-amodei/. Un peu plus tard, le sinistre Elon Musk rejoint la partie avec son entreprise XAI, qui conclue un autre accord avec le Pentagone dont les termes, cette fois, ne comportent clairement plus aucune restriction.
Anthropic est-elle donc une entreprise « de gauche radicale woke », engagée dans la résistance au fascisme trumpien ? Les chances sont minces. Dans tous les espaces où on lui tend un micro, Dario Amodei réaffirme son attachement à la « sécurité nationale », et s’inquiète de voir l’armée des États-Unis perdre en efficacité à cause de cette affaire (imaginez donc que pendant plusieurs jours, elle ne puisse bombarder aucune école). Ses scrupules vis-à-vis de la surveillance de masse ne semblent concerner que les citoyen·nes étatsunien·nes ; et en ce qui concerne les armes entièrement autonomes, son unique argument est que l’IA ne serait pas encore suffisamment fiable, laissant clairement entendre qu’elle pourrait le devenir demain. En réalité, poser des limites à ces utilisations hasardeuses est avant tout un moyen de se protéger de possibles scandales, qui pourraient faire dévisser la cote d’Anthropic, dans un marché de l’IA qui reste encore très spéculatif(5)Voir à ce sujet l’article de Michael Robert : https://thenextrecession.wordpress.com/2025/10/14/the-ai-bubble-and-the-us-economy/.
Du point de vue de l’administration Trump, cette opération consiste surtout à récompenser les loyautés et punir les infidélités. On connait la relation, parfois orageuse mais toujours bien réelle, entre Elon Musk et Donald Trump. Ce qu’on sait moins, c’est Sam Altman, le PDG d’OpenAI, figurait également parmi les donateurs du républicain ; et Anthropic, de son côté, a commis l’erreur de soutenir Kamala Harris. Dans le message interne déjà cité, Dario Amodei lui-même affirmait que c’était la raison principale pour laquelle le Pentagone se montrait aussi fermé dans les négociations – laissant entendre que lui-même aurait été prêt à beaucoup de concessions.
IA policières, IA militaires : l’urgence d’un coup de frein
Le sujet est pourtant grave, et mériterait que notre camp social s’en empare, sans laisser les Trump et les Amodei définir les termes du débat. L’essor de l’IA ouvre de nouvelles possibilités pour la surveillance de masse, dont l’extrême droite a d’ores et déjà fait un dogme. Palantir, l’ex-partenaire d’Anthropic dans les collaborations avec le Pentagone, s’est aussi illustrée ces derniers mois pour l’aide qu’elle a apporté à l’ICE, la police de l’immigration étatsunienne : ce sont ses logiciels qui ont été utilisés pour identifier et traquer les migrant·es(6)https://www.amnesty.org/en/documents/amr51/3124/2020/en/, avec les conséquences que l’on connaît. Amnesty International a aussi montré que les IA de Palantir avaient été utilisées pour identifier des animateur·rices du mouvement de solidarité avec la Palestine(7)https://www.amnesty.org/en/latest/news/2025/08/usa-global-tech-made-by-palantir-and-babel-street-pose-surveillance-threats-to-pro-palestine-student-protestors-migrants/.
Dans l’amicus curiae d’OpenAI et de Google[8], les deux multinationales expliquent d’elles-mêmes que leurs technologies ont le potentiel de transformer complètement le type de surveillance qu’un État peut mettre en place : « En 2018, on comptait environ 70 millions de caméras de surveillance en service aux États-Unis, réparties dans les aéroports, les stations de métro, les parkings, devant les magasins et aux coins des rues. Chaque smartphone transmet en continu des données de localisation aux opérateurs et à des dizaines d’applications. Les cartes de crédit et de débit génèrent un historique horodaté de presque toutes les transactions commerciales effectuées par les Américains. […] Ce qui n’existe pas encore, c’est la couche d’IA qui transforme ce paysage de données tentaculaire et fragmenté en un appareil de surveillance unifié et en temps réel. » Comment les militant·es du changement social pourront-iels faire face ?
S’opposer au déploiement de ces outils est évidemment le début de la réponse. Dans l’Union européenne, l’AI Act adopté en mars 2024 interdit déjà aux États d’utiliser certaines formes d’IA parmi les plus sordides, comme la reconnaissance faciale en temps réel, ou les logiciels qui prétendent prédire à quel point un individu est susceptible de commettre des infractions – deux garde-fous qui n’existent pas aux États-Unis. Mais si ces dispositions sont des acquis à défendre, leurs limites sont évidentes : il n’y a en réalité aucun moyen de s’assurer que, dans le secret des bureaux des services de renseignements, ces technologies ne sont réellement jamais utilisées. L’AI Act autorise d’ailleurs l’usage de la reconnaissance faciale pour des cas spécifiques (recherche d’enfant disparu, trafic d’être humain, terrorisme), ce qui signifie que les polices disposent de ces outils – et peuvent en réalité les utiliser comme elles le veulent, tant qu’elles ne le font pas de manière trop évidente. Le meilleur moyen d’éviter une répression d’État boostée à la reconnaissance faciale, c’est encore de ne pas avoir de caméras dans les rues. Et c’est sans doute le raisonnement qu’il faudra désormais appliquer pour contrer cet « appareil de surveillance unifié » qui effraie jusqu’à Google et Open AI : combattre pied à pied tous les leviers dont les États – ou les entreprises – disposent pour collecter des données, des restrictions aux messageries cryptées à la systématisation des paiements par carte.
Vers un traité international contre les robots tueurs ?
En ce qui concerne l’armement, la période n’est pas propice à accueillir avec enthousiasme les innovations dans ce secteur. À ce stade, les armes entièrement autonomes, pilotées par IA, ne semblent encore être utilisées que dans des cas très spécifiques, généralement défensifs et sans victime humaine (l’interception d’un missile, par exemple). Pour autant, l’affaire Anthropic montre que les robots tueurs n’appartiennent plus à la science-fiction(8)https://storage.courtlistener.com/recap/gov.uscourts.cand.465515/gov.uscourts.cand.465515.24.1.pdf.
Caractériser la situation actuelle est une tâche ardue, car les armes autonomes sont difficiles à caractériser. De nombreuses armes déjà déployées, en particulier les drones massivement utilisés dans la guerre d’Ukraine, sont pourvues d’un niveau important d’autonomie. Officiellement, les armées des grandes puissances, dont celles des États-Unis, revendiquent toutes la doctrine de « l’homme dans la boucle ». Mais cette expression est soumise à interprétation : quel est le rôle de l’humain en question ? Fixer une cible ? Valider celle que le système propose ? Surveiller le système et reprendre le contrôle s’il commet des erreurs ? Activer le système et le laisser engager le combat sans cible précise ? Et bien entendu, les affirmations de cette nature ne sont pas toujours vérifiables en pratique. En 2021, un rapport de l’ONU établissait qu’un drone turc, en Libye, avait ouvert le feu de manière entièrement autonome(9)https://www.newscientist.com/article/2278852-drones-may-have-attacked-humans-fully-autonomously-for-the-first-time/.
Ces développements déclenchent des inquiétudes à plusieurs niveaux. Le premier niveau relève principalement du fantasme : celui de machines dotées d’une volonté propre, échappant au contrôle de leurs concepteurs. Abondamment nourrie par la science-fiction, mais aussi par des choix lexicaux ambigus (« robots tueurs », ou même le terme « autonome »), cette figure apocalyptique permet de dévier le débat et de rassurer les populations à bas coût – comme disait la ministre des armées française, « Terminator ne défilera pas aux Champs-Élysées ». Aucune armée, en réalité, n’a intérêt à développer un système d’armes qui se fixe ses propres objectifs indépendamment des stratégies et tactiques de l’État : l’autonomie dont il est question consiste toujours à suivre un programme écrit à l’avance, avec des objectifs bien définis, tout en introduisant un certain degré d’adaptabilité à des conditions changeantes.
La ligne rouge la plus communément admise est la capacité d’un système d’armement à choisir lui-même une cible – c’est ce à quoi Anthropic refuse de contribuer, avec un argument technique : les IA actuelles ne sont pas (encore) capables de faire un tel choix de manière fiable. En clair, le risque de tuer des civils par erreur est trop important. C’est un deuxième niveau d’inquiétude, largement légitime ; après tout, c’est pour ce motif que les mines antipersonnel, qu’on peut considérer comme une première forme d’arme autonome, ont été interdites par un traité international en 1997 (signé par 161 États, mais pas les États-Unis, la Russie ou la Chine). Mais les arguments de cet ordre peuvent aussi représenter un piège, car ils ouvrent la voie à un déploiement de ces technologies dès lors qu’elles seraient devenues suffisamment performantes pour commettre autant ou moins d’erreurs que des soldats humains, ce qui pourrait tout à fait être possible demain.
Notre rejet de ces systèmes doit mobiliser un troisième niveau : l’automatisation de la guerre, qu’il s’agisse des armes autonomes ou des applications de l’IA au renseignement, donne tout simplement trop de pouvoir aux États. Le glissement, à la fin du XXe siècle, des armées de conscrits aux armées professionnelles, était déjà un pas de géant vers la concentration du pouvoir de tuer : là où les premières, profondément liée à la population, étaient souvent le théâtre de contestations et de mutineries parfois difficiles à mater, les secondes sont devenues bien plus disciplinées – et bien plus à même de commettre des atrocités sans ciller. Loin de l’imaginaire du robot qui se retourne contre son créateur, les IA militaires sont dangereuses précisément parce qu’elles sont le soldat discipliné ultime. Ajoutons à cela que le développement de ces technologies jusqu’à leur plein potentiel, qui demande des moyens gigantesques, ne sera probablement accessible qu’à quelques grandes puissances : on obtient un monde où celles-ci pourront de plus en plus facilement prendre la décision d’engager des conflits totalement asymétriques, ravageant des pays en subissant très peu de pertes humaines.
L’humanité dispose déjà de traités internationaux limitant l’usage des armes nucléaires, chimiques et bactériologiques. Ils sont largement insuffisants, et l’horizon doit rester celui du démantèlement total des arsenaux dans ces trois domaines ; mais ils ont le mérite d’exister, et on peut raisonnablement penser qu’ils ont permis d’éviter quelques désastres.
Il y a quelques années, l’ONU a engagé des négociations pour un traité similaire sur les systèmes d’armement létal autonomes, suite aux prises de position de nombreux pays (notamment du Sud global), d’une large coalition d’ONG, d’une grande partie de la communauté des chercheur·ses en IA, du Secrétaire général de l’ONU, et même de l’Église catholique. Elles n’ont abouti à rien. Et la liste des pays qui ont bloqué le processus ne surprendra personne : principalement le Royaume-Uni, l’Australie, l’Inde, les États-Unis, la Russie et Israël.
À l’heure où les puissances impérialistes cherchent à réaffirmer leur domination dans le sang et la souffrance, freiner la course aux technologies d’armements les plus cauchemardesques est une priorité politique. Et pour cela, mieux vaut ne pas compter sur des multinationales privées.
Photo : licence Creative Commons
Notes

