L'IA au service de la guerre contre l'Iran
L'IA générative produit des morts à la pelle au Moyen-Orient, faisant craindre le pire pour la suite, dans un contexte ou les technologies sont déployées de manière particulièrement irresponsable.
Dès les premières heures de leur guerre contre l’Iran, les États-Unis et Israël ont commis un massacre d’ampleur historique. Comme je l’écrivais dans un article analysant leur guerre illégale :
Les fillettes de la petite ville de Minab venaient d’entamer leur semaine lorsque leur école a été bombardée par la coalition israélo-américaine. Plus de 140 enfants et les 26 enseignantes sont morts, en plus de la centaine de blessés graves, brûlés ou écrasés par les gravats, qui porteront à jamais le traumatisme de ce cataclysme. The Guardian décrit des scènes d’horreur absolue, où des bouts de bras d’enfants de six ans jouxtent des morceaux de cartables roses.
(…)
Ni Israël ni les États-Unis n’ont nié le crime, simplement qualifié de “tragédie, si avérée” par le ministre des affaires étrangères américain Marco Rubio. Une ancienne caserne des gardiens de la révolution iranienne se trouvait à proximité, mais n’est plus en service depuis une dizaine d’années. L’explication la plus généreuse consiste à supposer que la cible, choisie sur la base d’informations périmées, était cette ancienne base.
Depuis, le New York Times a attribué la responsabilité du massacre à l’armée américaine, qui a frappé l’école à deux reprises en moins d’une heure, aggravant dramatiquement le bilan initial et tuant une partie des premiers secouristes1.
Quel est le rapport avec l’IA et les Big Tech, me direz-vous ? Peut-être aucun. Mais en lisant les articles traitant de cette tragédie, je n’ai pas pu m’empêcher de faire le lien avec d’autres informations fuitées par le Pentagone à propos de l’usage de l’IA. Les États-Unis se vantent d’avoir été en mesure de frapper aussi rapidement des centaines de cibles grâce à un recours massif à l’Intelligence artificielle.
Les programmes conçus à partir des principes de “deep learning” et intégrés à de grands modèles de langage type GPT-5 permettent de traiter de grandes quantités de données et de réaliser des interpolations en vue de corréler certaines informations pour suggérer des listes de cibles à bombarder.
À Gaza, l’IA a été massivement employée par Israël pour sélectionner des cibles, en recoupant des masses d’informations incomplètes, avec un taux d’erreur de 10 % environ.
Comme le rapporte The Guardian, l’usage de l’IA compresse le temps d’analyse et de décision et permet de déterminer où bombarder “plus vite que la pensée humaine”. La “chaine de décision” (identification d’une cible suite au recoupement d’informations, évaluation de sa valeur stratégique, des risques de dommages collatéraux, de la légalité du bombardement, attribution des coordonnées, choix de l’armement et de l’unité qui sera chargée de mener la frappe, validation finale de la décision, etc.) est exécutée infiniment plus rapidement. Comme l’expliquent les experts cités par le Guardian “ces systèmes produisent plus d’options de cibles et plus rapidement”. Le risque évident est de commettre de nombreuses erreurs en plaçant une trop grande confiance dans l’aptitude des programmes d’IA à identifier les cibles légitimes ou militaires sans commettre d’erreurs. À Gaza, Israël avait estimé que ses outils se trompaient une fois sur dix, tout en considérant qu’il s’agissait d’un taux d’erreur acceptable. Qu’en est-il des seuils de tolérance américains ?
Le second problème découle de l’impact de cet usage sur les décideurs humains. Confrontés à un plus grand choix de cibles et mis sous pression pour valider plus rapidement ces dernières, ils seraient davantage susceptibles de commettre des erreurs.
Le massacre des écolières de Minab pourrait résulter d’une attribution erronée de la cible par une IA agrégeant des informations périmées et dont la recommandation n’avait pas fait l’objet d’une vérification suffisamment poussée par un humain. Il se peut également que le bombardement ait été réalisé sciemment, pour tester la réaction des médias occidentaux et de l’opinion publique face à ce massacre (dans ce cas, la réponse est claire : les médias et décideurs occidentaux ont pratiquement ignoré ce crime de masse, en particulier quand cela comptait le plus, au début du conflit). On peut également imaginer que l’IA se soit simplement trompée de coordonnées, que l’erreur d’attribution de la cible fut commise par un humain. Mais si on évacue l’hypothèse d’un massacre intentionnel, les chances pour que l’emploi de l’IA dans la sélection des cibles à bombarder soit responsable de cette tragédie semblent très élevées.
En effet, les États-Unis communiquent amplement sur l’emploi de leur système “Maven”, concu par la société de Peter Thiel Palantir et propulsé par l’IA d’Anthropic. On lui attribue le “succès” des bombardements qui ont permis de frapper plus de milles cibles dans les premières 48 heures de l’attaque. Cette utilisation massive de l’IA s’inscrit dans une tendance particulièrement inquiétante, qui ne fait pas l’unanimité au sein des employés de la Silicon Valley.
Anthropic vs Pentagone
Dans les jours qui ont précédé l’agression américaine non provoquée contre l’Iran, une polémique a secoué la Silicon Valley.
Depuis que le ministère de la Défense américain (rebaptisé ministère de la Guerre) souhaite intégrer directement les modèles d’IA générative au cœur de ses systèmes d’armement, sans exclure la prise de décisions létales sans intervention humaine, des voix se sont insurgées contre cette option inconsidérée. Dont Anthropic, le principal concurrent d’OpenAI, qui commercialise les modèles de langage “Claude”.
La firme californienne a mis son véto à l’utilisation de ses outils pour “conduire une surveillance de masse des Américains ou automatiser entièrement des systèmes d’armement” susceptibles de déployer une force létale sans l’intervention d’un être humain dans le processus décisionnel. Trump et son administration se sont révoltés contre cette exigence, menaçant Anthropic de résilier tous ses contrats militaires. Un bras de fer s’en est suivi, en partie justifié par la sortie d’un article devenu viral.
L’IA, générative d’Hiver nucléaire ?
Le journal “New Scientist” a publié un reportage décrivant des tests effectués par des chercheurs en IA à partir des modèles de langage de Google, Anthropic et OpenAI. Le but des chercheurs était de voir si les IA, chargées de prendre des décisions militaires et diplomatiques dans le cadre de simulations de conflits (“war games”), auraient recours à l’arme nucléaire. Le résultat a permis de produire de gros titres alarmistes :
“Dans 95 % des cas, l’IA a recours à l’arme nucléaire”
Bien sûr, ce genre de résultat n’est pas nouveau et ne dit pas grand-chose au sujet de l’IA. Cette dernière ne semble pas consciente du fait que le recours à l’arme nucléaire tactique reste largement un tabou moral et éthique. Ni ne semble mesurer le fait qu’un emploi stratégique de l’arme nucléaire provoquerait un “hiver nucléaire” apocalyptique, même si l’adversaire n’est plus en mesure de répliquer suite à l’attaque nucléaire initiale. Ce n’est pas parce que l’IA est immorale (elle l’est), mais simplement parce qu’elle a été programmée d’une manière qui l’a conduite à ce genre de conclusion. En particulier dans le cadre d’une simulation n’ayant pas suffisamment défini les conséquences d’une guerre atomique.
On pourrait même estimer que cet état de fait reflète assez bien le type de décisions que seraient capables de prendre les dirigeants américains actuels.
Néanmoins, le fait que l’IA ne soit pas intrinsèquement responsable de son usage systématique de l’arme nucléaire dans les simulations ne permet pas d’ignorer le problème sous-jacent. Les études de ce genre confirment le fait que la manière dont sont programmées les IA les plus avancées pose un risque civilisationnel en cas d’intégration trop poussée dans la chaine de commandement militaire.
Certes, les chances de voir le feu nucléaire confié à une IA restent faibles à court et moyen terme, malgré le fanatisme et l’hubris démontrés par le “ministre de la Guerre” de Trump, l’ancien présentateur de FoxNews Peter Hegseth. Mais le simple recours à l’IA par les décideurs militaires en situation de crise pourrait accroitre le risque qu’ils prennent des décisions inconsidérées, par foi aveugle dans un outil mal configuré ou en conséquence de l’influence négative de ce dernier.
Anthropic vs OpenAI
Dans ce contexte, Anthropic a certainement eu raison de tenir tête au Pentagone. Non seulement pour des questions morales et éthiques, mais également du point de vue de son intérêt commercial. Apparaitre comme l’IA responsable alors qu’OpenAI signe un accord avec Trump semble un calcul financièrement cohérent.
Rappelons que l’IA générative est un secteur non rentable, qui accumule les pertes financières pour des raisons structurelles, que nous avions détaillées précédemment.
En se positionnant comme un acteur responsable, Anthropic peut prendre des parts de marché à OpenAI sur le segment grand public, améliorer son image auprès des entreprises et attirer plus facilement les employés les plus talentueux dans ses laboratoires de recherche.
Mais la posture d’Anthropic doit être analysée comme de l’opportunisme. La société travail depuis longtemps avec l’armée américaine, en dépit des prétendues inquiétudes de sa direction. Le PDG Dario Amodei abreuve fréquemment la presse de prédictions et déclarations apocalyptiques au sujet de l’IA, tout en refusant d’en tirer les conséquences logiques (arrêter de produire ces IA, ne pas collaborer avec l’armée et militer pour une autre approche industrielle vis-à-vis de ces systèmes, par exemple).
Ironiquement, le clash d’Amodei avec l’administration Trump semble avoir conduit cette dernière à se venger d’Anthropic en fuitant à la presse des informations particulièrement détaillées sur l’implication des programmes basés sur Claude et utilisés pour planifier et gérer l’attaque américaine contre l’Iran. La rupture n’étant pas immédiate, le Pentagone avait vraisemblablement le droit de continuer à se servir des outils d’Anthropic, bien que le timing de la dispute, survenue quelques jours avant l’entrée en guerre des États-Unis, explique probablement pourquoi ce bras de fer semblait se dérouler de manière précipitée.
À l’arrivée, Anthropic se retrouve perdant des deux côtés : la firme risque d’être privée de ses contrats avec le ministère de la Défense, tout en voyant sa réputation endommagée par son implication dans les massacres en cours en Iran.
C’est peut-être pour tenter de sauver ses billes que la start-up a tenté un rétropédalage en publiant un communiqué qui semble avoir été écrit sous la menace d’un preneur d’otage. On peut y lire qu’Anthropic, accusé par l’administration Trump de mettre en danger les vies des soldats américains en plein conflit armé, est “particulièrement fier d’aider les combattants en première ligne avec nos outils”. Amodei insiste sur le fait qu’Anthropic “a bien plus en commun avec le ministère de la guerre qu’il n’a de désaccords” . Autrement dit, Anthropic assume pleinement de fournir des armes à un gouvernement qui commet des crimes de guerre et compte continuer “aussi longtemps que possible ou nécessaire” cette collaboration. Ceux qui s’imaginaient qu’il y avait de bonnes et de mauvaises entreprises d’IA en seront pour leurs frais.
Au-delà de l’IA, Big Tech vs Low Tech ?
Comme je l’écrivais dans mon article sur la guerre contre l’Iran, le conflit nourrit les intérêts de la Silicon Valley. Il pourrait affaiblir la Chine, notamment en réduisant au silence son allié iranien tout en mettant en péril son approvisionnement en pétrole. Mais cette guerre est aussi le théâtre d’un déploiement accru de technologies.
Côté iranien, on voit à quel point l’approche “low tech” reposant sur des drones bon marché et des missiles à longue portée permet de perturber significativement l’économie et la stabilité d’une région entière du monde. Ce qui risque de pousser de nombreux acteurs à investir dans des systèmes de défense susceptibles de contrer ce nouveau type de menaces. Le fait que des États en crise économique permanente et sous embargo depuis des années puissent développer des systèmes capables de menacer l’économie mondiale et de conduire des frappes de grandes précisions contre des chambres d’hôtel, bâtiments de la CIA et infrastructures militaires montre également le danger représenté par la guerre asymétrique.
Côté israélo-américain, on assiste à un nouvel éventail de prouesses technologiques, notamment en termes de renseignement et de guerre cybernétique.
On a ainsi appris que l’assassinat de Khamenei et de nombreux dirigeants civils iraniens dans l’opération initiale visant à décapiter le régime avait été rendu possible par la collecte d’une quantité délirante d’informations, analysées en temps réel par des systèmes intégrant des programmes d’IA dernier cri. Entre autres, Israël avait piraté le système de vidéo surveillance de la sécurité routière de Téhéran et utilisé l’IA pour traquer les allées et venues des gardes et employés des dirigeants iraniens.
Le piratage de systèmes civils à des fins militaires, dans le but de commettre des crimes de guerre, ne semble pas poser problème aux médias et observateurs occidentaux. La normalisation de telles pratiques, devenues fréquentes, pointe le risque posé par le déploiement de ces technologies de vidéosurveillance sur les populations que ces systèmes sont censés protéger.
Parier en ligne sur la fin du monde
Notre passage en revue des aspects technologiques du massacre en cours en Iran et au Liban ne saurait être complet sans la mention d’un nouveau phénomène inquiétant. L’émergence d’une industrie du pari en ligne via les plateformes non régulées comme Polymarket et Kalshi fait peser un nouveau risque géopolitique et sécuritaire. Il est désormais possible de miser sur la détonation d’une arme nucléaire d’ici une certaine date ou de parier sur le bombardement de personnalités ou infrastructures spécifiques. Or, une partie des cadres de la Maison-Blanche impliqués dans ce genre de décisions sont des habitués de ce genre de sites, donc potentiellement susceptibles de commettre des délits d’initiés en étant incités à prendre des décisions faisant l’objet de paris en ligne. On a ainsi répertorié des paris suspects placés quelques heures avant l’enlèvement de Maduro ou l’assassinat de Khamenei.

Le lien avec la Silicon Valley est bien plus sérieux qu’on pourrait l’imaginer. Ces sites utilisent les cryptomonnaies comme moyen de paiement et autorisent l’anonymat des parieurs. Suite à la dépression du secteur des cryptomonnaies, de nombreux acteurs de cette industrie se tournent vers le secteur des paris en ligne non régulés. Les investissements ne se limitent vraisemblablement pas à prendre des parts dans ces entreprises et à financer des campagnes de publicité, mais prennent également la forme de campagne de lobbying pour empêcher les régulateurs d’encadrer ce business particulièrement lucratif.
Et tant pis si cela encourage un responsable à déclencher une frappe nucléaire suite à la recommandation d’une IA mal “alignée”.
Une semaine plus tard, le Croissant Rouge avait identifié une dizaine d’autres écoles frappées par Israël et les États-Unis et un nombre équivalent de cliniques et hôpitaux, des gymnases et stades, aéroports civils et usines de production d’eau potable et infrastructures pétrolières…




Le fait de frapper la même structure à 1h d’intervalle est une tactique délibérée particulière ignoble destinée à massacrer les équipes de secours. C’est un crime de guerre. Israel et les USA sont devenus des états félons. Les conséquences à long terme sont incalculablement néfastes.