La bulle de l'IA atteint un nouveau sommet
Éclatera ? Éclatera pas ? Après les milliards de Stargate et le supplice chinois de DeepSeek, le sommet de l’IA de Paris a confirmé une fuite en avant. Est-elle souhaitable ou simplement soutenable ?
Tel un rouleau compresseur, l’Intelligence artificielle s’impose progressivement dans nos vies. Derrière les fausses promesses qui alimentent une bulle financière préoccupante se cachent des effets délétères, souvent masqués par l’enthousiasme technophile ou la politique du fait accompli. Pourquoi développer l’IA, comment et à quel prix ? Ces questions élémentaires sont écartées par un système politico-médiatique engagé dans une fuite en avant. Dans cet article de fond, je vais tenter de faire le point sur les développements récents, depuis l’irruption de l’IA chinoise DeepSeek jusqu’au sommet de Paris, avant de revenir sur les multiples problèmes et illusions associés à cette technologie.
N’hésitez pas à passer sur certaines parties qui vous sembleraient trop longues. Et à partager l’article autour de vous pour faire connaitre mon travail…
De Stargate à DeepSeek : un modèle de développement à bout de souffle
Le 21 janvier, Donald Trump annonçait un projet d’investissement de 500 milliards de dollars dans « Stargate », un vaste complexe de data centers et superordinateurs susceptible de conférer un avantage décisif aux États-Unis. À peine avions-nous débunké ce coup de com’ que la bourse américaine perdait plus de 1000 milliards de dollars de capitalisation boursière en une séance, dont 600 milliards pour le fabricant de puces électroniques NVDIA1. Pas à cause de notre journalisme chirurgical, mais du fait de la sortie de DeepSeek, une IA générative2 chinoise approchant les performances du leader américain OpenAI. Non seulement la Chine semble avoir comblé l’essentiel de son retard, mais le modèle DeepSeek fonctionne avec moins de puissance de calcul et aurait été développé pour une fraction du cout de ses concurrents américains. Pire, il est publié en « open source »3. Tout le monde peut s’en inspirer pour construire ses propres modèles, qui seront ainsi libérés de la censure potentielle de Pékin.
Quelques jours après sa publication, une équipe de chercheurs de Stanford a fait exactement cela en mettant au point un modèle inspiré de DeepSeek. Cout de l’opération ? 50 dollars de frais de temps de calcul. Comparez ce montant aux 500 milliards de Stargate et vous comprendrez pourquoi un vent de panique a brièvement soufflé sur la Silicon Valley.4 Tout le modèle économique américain, reposant sur le protectionnisme et la course au gigantisme, semblait voler en éclats. La bulle de l’IA allait-elle exploser ?
Pensez donc. Big Tech s’est rapidement convaincue que les Chinois avaient triché. Le cours boursier de NVIDIA et consort est reparti à la hausse, aidé par les nouvelles ambitions affichées par les GAFAM5 : 80 milliards de dollars d’investissement dans des data centers pour Microsoft, 50 pour Amazon, 200 pour Meta, etc.
C’est dans cette ambiance électrique que la France coorganisait le « Sommet pour l’action sur l’IA ». Transformé en VRP de la « French Tech », Emmanuel Macron a multiplié les annonces fracassantes : 109 milliards d’euros d’investissement privé dans des data centers, auxquels s’est ajoutée une « grande alliance public-privé » à l’échelle européenne. Dévoilée par Ursula Van der Layen et abondée à hauteur de 50 milliards par l’UE, cette initiative devrait permettre de lever 150 milliards d’euros pour financer 60 champions européens.
Cerise sur le gâteau, le sommet de Paris fut l’occasion de faire la promotion du fleuron national Mistral, start up valorisée à plus de deux milliards d’euros. L’entreprise lançait opportunément « Le Chat », son propre agent conversationnel6 destiné à concurrencer ChatGPT. Mistral a également annoncé des partenariats avec différents grands groupes français (Free, Orange,…), faisant miroiter la création d’un véritable écosystème à la Française.
MISTRAL GAGNANT
Sur le papier, l’intention portée par le Sommet pour l’IA semblait louable. À l’image des COP sur le climat, elle devait proposer un contre-modèle à la course effrénée dans laquelle les États-Unis et la Chine sont engagés. Les Américains nous ont numériquement colonisés en dominant le marché de la micro-informatique (Intel, Miscrosoft, Apple, Oracle, SalesForce, Dell, HP…) puis l’Internet et les réseaux sociaux avec leurs GAFAM. Si la Chine a su, grâce à son protectionnisme, développer sa propre industrie du numérique (Alibaba, Huawei, WeChat, TikTok et désormais DeepSeek), la France et l’Europe semblent à la ramasse. Ils ne peuvent pas se permettre de rater la course à l’IA, quitte à sauter dans le train en marche. Question de souveraineté, d’indépendance et d’éthique. Car l’IA européenne doit respecter nos valeurs, sous peine de se faire imposer celles de la Chine ou des États-Unis.
Toujours sur le papier, l’objectif semble avoir été atteint. Le sommet a bel et bien accouché d’un communiqué pour une IA « ouverte », « inclusive » et « éthique ». Emmanuel Macron a pu positionner la France comme un acteur susceptible de dessiner un chemin entre les géants chinois et américains. Enfin, la création d’un observatoire de l’impact énergétique de l’intelligence artificielle, piloté par l’Agence internationale de l’énergie, ainsi que la création d’une coalition pour une IA durable, semble autant de victoires. Et tant pis si ces petits pas paraissent contradictoires avec le mot d’ordre du Président de la République, explicité avant le sommet :
« On ne peut pas avoir peur de l’innovation (…) Il faut y aller à fond ».
Pour aller où et faire quoi ? Peu importe. « Quand le monde accélère, on ne peut pas décider de ralentir », assène Emmanuel Macron. Sur France 2, il a comparé les investissements annoncés à ceux du projet Stargate, rapporté à la taille des économies respectives. Mission accomplie ? Le sommet de l’IA lui a permis d’exister médiatiquement. Mistral a réalisé un beau coup de pub. Pour le reste, nous ne dirons pas que ce fut un échec, mais que le sommet n’a pas marché…
Le sommet de Paris : beaucoup de renoncements pour peu de résultats
Les États-Unis et le Royaume-Uni ont refusé de signer le communiqué final, qui ne réunit qu’une soixantaine de signataires, dont des pays autoritaires comme la Chine. La délégation de dirigeants étrangers faisait pâle figure : les présidents chinois et américains avaient refusé de se déplacer et une petite centaine de pays seulement étaient représentés. JD Vance, le vice-président de Trump, s’est servi de l’estrade pour sermonner et menacer les Européens en affirmant que les USA comptaient rester les seuls leaders incontestés de l’IA. Tout effort de régulation sera sévèrement puni, pouvait-on lire entre les lignes.
Quant aux investissements annoncés, il est bon de rappeler qu’il ne s’agit que de promesses formulées par des acteurs problématiques. Le fonds d’investissement des Émirats arabes unis qui a promis de mettre 50 milliards d’euros sur la table finance également le projet Stargate. On imagine mal cet acteur sincèrement engagé pour une IA « inclusive, éthique et ouverte ». 20 autres milliards doivent provenir du fonds d’investissement américano-canadien Brookfield. Et 11 seront issus d’Amazon et la société américaine Digital Reality. Quant au projet européen à 200 milliards, il doit être piloté par le fonds d’investissement américain General Catalyst.
De même, Mistral a été fondé à l’aide de capitaux américains : Lightspeed Venture Partners, l’ancien PDG de Google Éric Schmidt (qui milite pour l’abandon des objectifs climatiques au profit du développement accéléré de l’IA), le fonds Andresseen Horrowitz (dont le gestionnaire principal a financé la campagne de Donald Trump et place de nombreux proches au sein de l’administration) et le géant du logiciel pour entreprise Salesforce. Récemment, Mistral a signé un partenariat avec Microsoft pour distribuer ses produits via les serveurs Azure de l’Américain, contre une prise de participation minoritaire de ce dernier. Autrement dit, le champion tricolore est essentiellement un spin-off californien dont les principaux investisseurs français (JC Decaux, la BNP et Xavier Niel) n’ont pas la réputation de se soucier du bien commun.
Surtout, Mistral s’est fait une réputation sulfureuse en embauchant Cédric O, l’ancien ministre au numérique d’Emmanuel Macron. Détenant des parts désormais valorisées à 20 millions d’euros, il a joué le rôle du lobbyiste officiel de la firme à Bruxelles. Le but était d’affaiblir la régulation européenne qui devait déboucher sur « l’IA Act ». Le média Disclose a révélé que le lobbying de la France a été déterminant pour édulcorer la régulation européenne, au point d’obtenir l’abandon des régulations visant à limiter l’usage de la surveillance de masse et de la reconnaissance faciale. Mistral s’est félicité du travail accompli en déclarant « Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ». L’IA inclusive et responsable attendra. Comme le confiait un ministre à Médiapart en marge du sommet :
Nous, on veut d’abord donner une dynamique. On ne peut pas être le continent qui encadre avant d’innover, on ne pèsera rien face aux États-Unis et à la Chine si on fait ça. »
Personne ne semble s’être préoccupé du fait que les gigantesques investissements dans des data centers promis par le Président ne correspondent à aucun besoin immédiat (« il va falloir développer l’IA pour les remplir » dixit l’Élysée), mais vont consommer 1 GW de puissance électrique (pour le premier centre à 50 milliards), soit l’équivalent d’un réacteur nucléaire ou de près de 2 % de la puissance électrique totale installée sur le territoire. De même, personne ne semble s’interroger sur la pertinence d’avoir un champion français qui contribue à défaire la régulation européenne au lieu de défendre une autre approche de l’IA…
« Cela peut paraître contre-intuitif à première vue, mais ce n’est qu’en refusant de participer à cette course délirante que l’Europe aurait vraiment une chance de s’en sortir par le haut ». Gary Marcus, spécialiste américain de l’IA (entretien).
Loin de remettre en cause l’approche d’Emmanuel Macron, les médias hexagonaux se sont employés à faire sa communication. Pendant le sommet, il n’était question que d’intelligence artificielle. Outre les tribunes, débats et articles en tout genre, France 2 a programmé une soirée de divertissement spécial IA et un entretien avec le Président au 20h. Ce dernier pouvait compter sur l’appui de visuels présélectionnés par ses services et d’une démonstration d’un exosquelette à usage médical pour dérouler son message optimiste et volontariste. Le lendemain, Nicolas Demorand et Léa Salamé ouvraient la première matinale de France au PDG de Mistral Arthur Mesch et l’un de ses principaux actionnaires (Xavier Niel, l’ancien « roi du Porno » devenu milliardaire après un bref passage en prison pour une affaire de proxénétisme et de recel de biens sociaux).
Cet entretien lunaire a repris tous les poncifs du discours technobéat, Léa Salamé allant jusqu’à promettre une hausse spectaculaire des téléchargements de l’application « le Chat » de Mistral en guise d’ouverture de son interview sans concessions. Puis elle a pris le temps, entre deux questions sans relances, d’expliquer en quoi ChatGPT permettait à ses copines d’organiser des chasses au trésor passionnantes pour les gouters d’anniversaires de leurs enfants. Ni Emmanuel Macron ni les représentants de la « French Tech » n’ont eu à répondre à deux questions pourtant simples et essentielles : l’IA, mais à quel prix et pour faire quoi ?
L’IA à quel prix ?
En seconde partie de sa soirée spéciale IA, France 2 avait programmé un documentaire percutant : Les sacrifiés de l’intelligence artificielle. Selon la banque mondiale, entre 150 et 400 millions de travailleurs sont payés à la tâche pour traiter les données qui servent à entrainer les algorithmes de « deep learning » (apprentissage profond). Leur travail consiste à annoter des données (images, vidéos, textes) et à juger les réponses de certains programmes d’IA. Ces travailleurs ultra-précarisés et majoritairement issus du sud global sont, pour certains, confrontés à des missions atroces : lire des textes ou visionner des vidéos montrant des scènes de pédophilie, torture, meurtre et violence. Cela peut aller jusqu’au viol d’enfants par des animaux. Ces travailleurs du clic en ressortent durablement traumatisés, comme des soldats revenant du front. Certains se suicident ou commettent des meurtres contre leurs propres familles. OpenAI et les géants de la Tech font partie des plus gros clients des plateformes comme le « Turc mécanique » d’Amazon, qui met en relation les travailleurs du clic et les développeurs d’IA dans la plus grande opacité. Ceux qui parlent peuvent s’exposer à des poursuites judiciaires. Cet esclavagisme ou colonialisme moderne n’est qu’une des conséquences néfastes de la mise au point des grands modèles d’IA.
Nos données sont utilisées pour entrainer les algorithmes sans nous demander notre avis. C’est un problème pour la propriété intellectuelle, surtout lorsque des artistes se font « voler » leur travail pour mettre au point des programmes informatiques destinés à les remplacer ou à leur faire concurrence. Mais c’est aussi un problème pour vous et moi.
En effet, les grands modèles d’IA générative stockent leurs données d’entrainement de manière passive, sans qu’on puisse les effacer. D’une certaine manière, les réseaux de neurones artificiels sur lesquels ils reposent (des programmes informatiques utilisant des milliards de paramètres ajustables pour produire une réponse se conformant aux exemples contenus dans la base de données ayant servi à leur entrainement) conservent une mémoire de vos informations. Ces dernières peuvent ensuite être récupérées par des acteurs malveillants. Autrement dit, ce type d’intelligence artificielle pose un énorme risque en matière de protection de la vie privée.
L’exploitation ne se limite pas aux hommes et à leurs données. Ces intelligences, pas si artificielles, requièrent de plus en plus de ressources naturelles pour fonctionner. Électricité pour faire tourner les data centers et superordinateurs, eau pour les refroidir, minerais pour les construire, terrain pour les installer. Sans parler de la pollution atmosphérique induite par certains centres, comme ceux mis en service par xAi, l’entreprise d’Elon Musk qui rend les riverains livides.
Les projets évoqués plus haut se chiffrent en gigawatts de puissance, l’équivalent de la production d’un réacteur nucléaire, mais souvent assurée par des centrales à charbon ou à gaz, parfois redémarrées pour l’occasion. Plus les modèles sont gourmands en énergie, plus les processeurs servant à les faire tourner « grillent » rapidement. Le Wall Street Journal évoquait ainsi le risque financier pesant sur les gros opérateurs de data centers, qui pourraient devoir dépenser la moitié de leur budget opérationnel en cout de remplacement.
Enfin, la question de la sécurité et de ses conséquences sociétales ne se limite pas à nos simples données, déjà largement exploitées à des fins publicitaires par d’innombrables firmes. L’IA générative produit beaucoup de contenu souvent approximatif ou faux. YouTube est inondé de bandes-annonces réalisées à partir de l’IA. Nous sommes de plus en plus exposés, via internet, à des contenus artificiels poussés par les algorithmes des plateformes, sans nous demander notre avis. Le web risque de rapidement regorger de sites construits par l’IA à partir de données elles-mêmes générées par des algorithmes et truffées d’erreurs. Avec le risque qu’il soit de plus en plus difficile et laborieux d’accéder à de l’information de qualité, sans même parler des opérations de manipulation en vue d’influencer consommateurs et électeurs.
Le programme d’OpenAI « Deep research » propose ainsi de produire des résumés et bibliographies scientifiques ou des articles citant leurs sources sur des sujets donnés. Il risque de générer des corpus d’informations approximatives, voire erronées. Non seulement des acteurs mal intentionnés vont pouvoir produire des articles de recherche scientifique « plausibles » pour vendre des solutions douteuses (suppléments alimentaires, par exemple), mais les erreurs introduites par l’IA risquent ensuite de polluer le travail des vrais scientifiques. Au point d’inquiéter certains d’entre eux, qui voient dans la généralisation de ces outils le risque que la capacité à mener des recherches scientifiques s’effondre face à la montagne d’informations crédibles, mais erronées, qui va polluer le web.
On pourrait également mentionner le problème des biais idéologiques des grands modèles de langages types ChatGPT. Parce qu’ils sont entrainés avec la somme des textes figurant sur internet, ils tendent à reproduire les biais présents dans le discours médiatique et politique dominant. C’est déjà un problème lorsque ces modèles reflètent fidèlement les biais inhérents à leurs données d’entrainement, mais c’est encore plus dangereux lorsque leurs concepteurs introduisent des biais supplémentaires à des fins idéologiques. On a beaucoup parlé de la censure et de la propagande contenues dans l’IA chinoise DeepSeek, mais Elon Musk s’est également vanté de produire avec son agent conversationnel Grok 3 un outil d’influence subtile pour distiller ses vues réactionnaires, voire néonazies, au sein de la société. Comme l’ont montré certains travaux de recherches, l’utilisation d’agents conversationnels influence l’opinion des utilisateurs, même lorsque ces programmes ne sont pas conçus dans ce but.
Enfin, les IA génératives présentent de nombreux risques en termes de sécurité. Le plus évident concerne la cybersécurité, les IA étant à la fois de parfaits outils pour mener des piratages en tout genre et des programmes truffés de failles faciles à exploiter. Outre les risques purement numériques, ces IA posent des problèmes dans le monde physique. Il est relativement aisé de les « jailbreaker », c’est-à-dire faire sauter les protections introduites par le concepteur pour éviter certains usages nocifs du programme. Une fois piraté de la sorte, des agents conversationnels peuvent devenir de vrais conseillers pour expliquer comment construire une bombe, planifier un attentat ou même recruter un tueur à gages sur le dark web. De nombreuses démonstrations ont été faites en ce sens.
On voudrait nous faire croire que tenter d’éviter ces risques et conséquences néfastes s’opposerait au progrès. Payer convenablement les travailleurs du clic en prenant soin de leur santé mentale serait trop cher pour les géants de la Silicon Valley. Exiger des normes de sécurité, interdire la violation des droits d’auteurs ou réguler la commercialisation des IA risquerait de nous faire perdre cette course existentielle. Pour ne pas prendre du retard, les firmes s’attaquent aux régulations et déploient leurs produits mal conçus dans la précipitation, sans égard pour les consommateurs ou la société dans son ensemble. Rien ne doit arrêter la machine infernale, sous peine de ralentir les levés de fonds, tarir le flux d’investissements et faire éclater la bulle financière qu’est devenue la course à l’IA générale.
L’IA générative pour faire quoi ?
Emmanuel Macron nous a assuré que l’IA générative n’allait pas détruire l’emploi, mais nous rendre plus productifs, ressassant l’argument typiquement déployé par les promoteurs de cette fuite en avant. L’intelligence artificielle comme solution miracle pour relancer la croissance et la prospérité ? N’en déplaise au président de la République, ce n’est pas exactement comme cela que les principaux acteurs du secteur voient les choses. Elon Musk, Sam Altman, Marc Andresseen et tant d’autres ne s’en cachent pas : le but est de supprimer des emplois massivement pour comprimer les salaires de tous les « survivants ».
Inutile de rejoindre ceux qui s’inquiètent de l’avènement d’une IA toute puissante capable de penser par elle-même et de détruire l’humanité. L’apocalypse sociétale promise par Musk et consort peut se réaliser avec de simples « Intelligences artificielles générales » (IAG), c’est-à-dire des IA capables de faire mieux que les humains dans de multiples domaines et avec constance. Pour que cette éventualité, élevée au rang de Graal par des firmes comme OpenAI, devienne réalité, il conviendrait de déployer les IA génératives imparfaites partout et au plus vite.
Les conséquences ne sont guère roses. Outre les problèmes déjà évoqués, différentes études ont confirmé que l’usage des agents conversationnels de type ChatGPT réduisait l’esprit critique des utilisateurs et diminuait leurs capacités cognitives, selon une étude de Microsoft. Vous avez bien lu : l’IA ne nous rend pas plus productifs, mais plus incompétents et stupides.
Dans la matinale de France Inter, le PDG de Mistral a cité la médecine et le tri des patients aux urgences pour illustrer les bienfaits de l’IA. Problème : les témoignages de médecins constatant les méfaits de cet usage se multiplient. Les urgentistes qui font appel à l’IA pour interpréter les radios deviennent moins performants et moins susceptibles de détecter les cas où cette technologie commet une erreur. Ce qui peut conduire à la non-prise en charge de patients en état critique. Cette perte de compétence ou « deskilling » risque d’empirer avec la prochaine génération de médecins exposés à l’IA dès leur formation, explique un spécialiste.
Les exemples de dégâts collatéraux sont innombrables : malades à qui on refuse les remboursements de frais médicaux, civils palestiniens tués par erreur suite à leur ciblage par le système d’IA « Lavender », robotaxis qui bloquent la circulation ou écrasent des piétons, Tesla « autonomes » qui provoquent des centaines d’accidents graves, vidéosurveillance avec reconnaissance faciale testée en France avec des résultats catastrophiques en termes d’efficacité et de fiabilité, employés virés par des IA par erreur, candidatures à des offres d’emplois systématiquement rejetées, personnes rayées de la CAF et privées d’aides sociales indument, des générateurs de vidéos utilisés pour produire massivement des films pornos, y compris avec les visages de vraies personnes non consentantes, les tribunaux empêchés de rendre justice par des avocats qui citent de fausses jurisprudences hallucinées par l’IA…
Même dans le domaine d’excellence des LLM, il semblerait y avoir un hic. La BBC vient de pondre un rapport estimant que la moitié des articles rédigés par l’IA générative contenait des informations fausses ou inexactes. Une autre étude portant sur la fonction “recherche” des LLM, utilisée pour trouver des informations sur le web, vient d’établir un taux d’erreur supérieur à 60 % pour les huit principales IA. Les versions premium payantes (ChatGPT et Grok 3) se trompant dans 67 % et 94 % des cas (respectivement).
Quant aux gains de productivité tant attendus, ils se font encore désirer. De nombreuses études ont démontré que l’utilisation de l’IA générative dans des secteurs aussi prometteurs que la programmation, le consulting, l’éducation et l’administration publique ne produisait pas de gain de productivité, voire détériorait les performances des salariés. Le PDG de Air BNB Brian Chesky, lors d’une assemblée des actionnaires, a concédé que « le déploiement d’IA pour assister les programmeurs n’a pas produit de changement fondamental en termes de productivité » avant d’ajouter « j’ai discuté avec de nombreux PDG du secteur de la Tech, la majorité n’a pas vu de gains de productivité ».
Certes, de nombreuses professions sont déjà négativement impactées par le déploiement de l’IA, subissant des pertes d’emplois et baisses de revenus. Il existe également des exemples d’applications intéressantes de l’IA. Mais cela reste quelque peu anecdotique.
The Economist avertissait récemment que la croissance promise par l’IA et la réduction de la masse salariale qu’elle devait permettre ne seront pas pour tout de suite. Le journal note que l’IA n’a eu aucun impact notable sur l’économie américaine ou britannique, et que le taux d’adoption de cette technologie (6 % des entreprises américaines contre 20 % des entreprises britanniques, selon une enquête du Census Bureau américain) stagnait depuis 2022. Un état de fait qui risque de se prolonger en 2025, puisque seulement 7 % des entreprises américaines prévoient de déployer des outils d’IA dans les prochains mois, toujours selon The economist.
Certains justifieront le déploiement de ses IA génératives comme une étape nécessaire pour atteindre l’IA générale (IAG). Mais de nombreux experts considèrent que c’est faire fausse route.
Selon Yann Le Cun, père du deep learning et désormais responsable de la recherche en IA chez Meta, continuer de développer les larges modèles de langage ne permettra pas d’aboutir à l’IAG. Ce serait même une déviation ou une voie de garage. L’idée qu’il suffit de construire des data centers plus gros et d’aligner une puissance de calcul démesurée pour s’approcher de l’IA générale ne convainc plus grand monde. L’industrie semble réaliser que cette stratégie d’hyperscaling ne paye plus. OpenAI a repoussé la sortie de son ChatGPT-5 et parle désormais de modèles hybrides et « d’agents » combinant un modèle de langage avec des applications plus spécifiques pour effectuer des tâches précises, sans grand succès pour le moment. D’où cette question : pourquoi continuer à investir des sommes colossales dans cette technologie écocide ? Pour faire de l’argent ?
Le mirage d’une IA générative rentable, ou l’éclatement probable de la bulle IA
Dans sa forme actuelle, l’IA générative type ChatGPT, n’est pas rentable. D’abord parce qu’elle coute extrêmement cher à mettre au point puis à commercialiser, ensuite parce qu’il n’y a pas de réel débouché.
Prenons OpenAI, leader incontournable du secteur avec son logiciel ChatGPT. Dans une analyse détaillée sur laquelle je vais m’appuyer, le journaliste technocritique Ed Zitron examine le bilan financier de 2024, sur la base des données rapportées par The Information, CNBC et le New York Times. La start up a dépensé 9 milliards de dollars sur l’année, dont 3 pour entrainer ses modèles et 2 pour générer les réponses aux requêtes des utilisateurs de ChatGPT (les inférences). À cela s’ajoutent entre 1 et 1,5 milliard de dollars de masse salariale (salaires et stock options) et divers frais fixes qui excluent les investissements dans les data centers. Jusqu’à récemment, la start up bénéficiait d’un accord avec Microsoft (qui a investi 13 milliards dans OpenAI) pour accéder librement à ses data centers. OpenAI jouissait aussi d’un tarif préférentiel pour utiliser les serveurs de Microsoft afin de faire tourner ses modèles (1.5 $ par heure de GPU au lieu du prix de marché de 3.40 à 4 $ heure/GPU). Malgré ces subventions, OpenAI a perdu 5 milliards de dollars en 2024.
Le chiffre d’affaires serait de 4 milliards de dollars, dont 3 proviennent des abonnements payants à ChatGPT et le dernier des droits versés par des entreprises clientes pour utiliser les API (Application Programming Interface - une licence pour utiliser ChatGPT comme base au développement d’une application tierce). Autrement dit, ses revenus ne couvrent pas les frais de fonctionnement de ses modèles (3 milliards pour le développement et 2 pour l’utilisation).
Bien sûr, Uber, Facebook, Google, Amazon et d’innombrables autres start up ont commencé par perdre beaucoup d’argent avant d’en gagner. Mais la différence entre l’IA générative et la plupart des produits issus de la Silicon Valley tient dans l’absence d’économie d’échelle. Lorsqu’une entreprise informatique classique met un logiciel sur le marché, chaque client supplémentaire vient gonfler le bénéfice. Il n’y a presque pas de couts additionnels. Même un réseau social comme Facebook, qui doit augmenter ses capacités de stockage de données et sa quantité de serveurs lorsque son nombre d’utilisateurs augmente, voit son cout par nouveau client diminuer du fait des économies d’échelles.
Ce n’est pas le cas des LLM les plus avancés. À chaque fois qu’un utilisateur effectue une requête, les serveurs de l’entreprise commercialisant l’IA doivent tourner pour fournir une réponse. Autrement dit, chaque nouvel utilisateur de ChatGPT augmente les couts d’OpenAI. Même la version Premium de ChatGPT-4 à 200 dollars par mois perdait de l’argent, selon Sam Altman. Quant au nouveau modèle ChatGPT-4.5, il nécessite une telle puissance de calcul qu’OpenAI limite le nombre d’utilisateurs y ayant accès. Un phénomène qui n’est pas unique à ChatGPT : même Microsoft perdait de l’argent avec son agent d’aide à la programmation, GitHub Copilot.
Si les couts de fonctionnement augmentent avec les revenus, les couts d’entrainement ne sont pas fixes non plus. Il ne suffit pas à OpenAI d’entrainer une fois pour toutes ses modèles comme Amazon investit une seule fois pour bâtir un entrepôt supplémentaire. Si OpenAI arrête de produire de nouveaux modèles ou ne met plus à jour ses anciens, ses clients partiront vers un concurrent. Et les couts de développement continuent d’augmenter avec la complexification des modèles, tout en montrant des rendements décroissants : les modèles les plus récents (Grok 3, ChatGPT4.5) ont nécessité des puissances de calcul largement supérieures à leurs concurrents pour des gains qualitatifs faibles, voire insignifiants.
Grok 3 ne sait pas qui est le Premier ministre de la France, pense que François Bayrou est à la retraite et s’avère incapable d’annoter un schéma. ChatGPT 4.5 serait particulièrement décevant. Quel que soit l’agent conversationnel choisi, les mêmes problèmes qui minaient les premières versions persistent : tendance à halluciner des réponses fausses, imprécisions, incapacité à effectuer de nombreuses tâches à la portée d’un enfant, absence de sens commun, erreur flagrante de raisonnement…
Ce qui pose la question du marché potentiel. OpenAI est de très loin le leader du secteur, avec 400 millions d’utilisateurs hebdomadaires revendiqués et entre 500 et 600 millions d’utilisateurs mensuels, selon des estimations indépendantes. Un chiffre qui placerait ChatGPT derrière les douze premiers réseaux sociaux mondiaux, malgré un battage médiatique constant depuis sa sortie en 2022. Il faut garder à l’esprit que l’on parle du produit le plus discuté et le plus « révolutionnaire » de ces deux dernières années, distribué gratuitement et disponible via n’importe quel smartphone ou navigateur internet. OpenAI n’aurait que 15 millions d’abonnés payant, soit un taux de conversion de 2.5 %. En guise de comparaison, le New York Times possède 11 millions d’abonnés à la version numérique, alors qu’il s’agit d’un titre de presse équivalent à de nombreux autres journaux et centré sur les États-Unis. Qu’en est-il des concurrents d’OpenAI ?
Google semblerait avoir 275 millions d’utilisateurs actifs de son IA « Gemini », un nombre qui stagne depuis l’été 2024 malgré l’intégration de cet outil aux autres produits Google. La firme ne communique pas sur le nombre d’abonnés payants, ce qui suggère un sacré flop lorsqu’on sait que l’application Gemini elle-même ne totalise que 47 millions d’utilisateurs actifs.
Anthropic ne totaliserait que 19 millions d’utilisateurs mensuels, dont 3 millions, via l’Application Claude. La société aurait engrangé 918 millions de dollars de chiffre d’affaires pour une perte nette de 5 milliards de dollars en 2024. Elle est pourtant valorisée à hauteur de 60 milliards de dollars suite à sa dernière levée de fonds (vous avez dit “fake tech” ?).
Perplexity serait encore plus bas, avec 15 millions d’utilisateurs, pour un chiffre d’affaires de 35 millions de dollars malgré une valorisation à 9 milliards suite à la levée de fonds de décembre.
Le Chat, de Mistral, aurait dépassé le premier million de téléchargements.
Copilot, de Microsoft, revendique 27 millions d’utilisateurs. Cela ne compte pas les utilisateurs de la version intégrée à Windows 365, mais il est important de noter que seul 1 % des clients de Microsoft paye le supplément pour intégrer Copilot à Windows 365. La firme a rapporté 13 milliards de dollars de chiffre d’affaires lié à l’IA en 2024, sans fournir davantage de précision (le chiffre inclut probablement la location de ses data centers et serveurs). Soit 4 % des 245 milliards de dollars de chiffre d’affaires de Microsoft, une goute d’eau.
Conclusion ? Si le nombre d’utilisateurs total semble impressionnant, le taux de conversion en abonnement payant est ridiculement faible. Les professionnels ne semblent guère plus friands de ces produits, comme en témoigne le faible niveau de revenu dégagé par OpenAI via ses licences API.
Or le secteur devient de plus en plus concurrentiel. Il faudrait ajouter aux acteurs précédant le modèle Lama de Meta (intégrés à Facebook, WhatsApp, Instagram…), Grok d’Elon Musk (intégré à X), les nombreux concurrents chinois au-delà de DeepSeek et l’arrivée imminente d’un modèle “grand public” produit par Amazon. La guerre des prix et le nivellement par le bas ne font que commencer.
Tous ces acteurs espèrent devenir le prochain Google ou Facebook de l’IA, définir le standard global et obtenir un avantage concurrentiel décisif pour capturer la majorité du marché. D’où les investissements colossaux dans les infrastructures, la compétition féroce pour attirer les talents et l’exagération des performances. Mais le succès de DeepSeek, ou dans une moindre mesure, de Mistral, montre qu’il n’est pas nécessaire de faire la course en tête pour jouer dans la cour des grands. Dans le meilleur des cas, on pourrait observer un phénomène similaire à l’explosion de la bulle internet, où seules les entreprises les mieux financées et disposants d’un vrai avantage technologique avaient survécu.
Si tous les modèles se valent, sont intégrés d’offices dans de nombreux outils et sont développés par une douzaine d’acteurs, il sera difficile à l’un d’entre eux de devenir rentable. Surtout lorsque des applications plus spécifiques peuvent être développées par de petites équipes via l’open Source pour une fraction des couts initiaux.
Le modèle de DeepSeek capable de “raisonner” présente des performances comparables aux versions les plus abouties de ChatGPT. Grok 3 propose également un mode “think” et une option “Deep search” inspirée de la fonctionnalité “Deep research” d’OpenAI. Pour se différencier, ce dernier prévoit de commercialiser un agent “doctorant” capable d’aider un chercheur et des agents “programmeurs” pour les développeurs en informatique. Les prix évoqués (20 000 dollars par mois pour le premier, 10 000 pour le second) sont supérieurs à ce qu’on payerait sur le marché du travail pour un équivalent en chair et en os. Ce qui pose encore une fois la question de la viabilité financière de tels produits.
D’où une tendance à imposer l’utilisation et le déploiement de ces outils, malgré le peu d’enthousiasme des usagers. Après les modèles d’IA embeded de force dans les moteurs de recherches et réseaux sociaux, attendez-vous à voir différents gouvernements et services publics les adopter envers et contre toute logique.
L’IA envers et contre tous
Récapitulons. Le développement accéléré de l’IA générative génère de nombreuses conséquences néfastes. Elle repose sur l’exploitation des travailleurs de l’ombre, provoque des retombées désastreuses sur l’environnement, expose la société à de multiples risques, rend les utilisateurs moins intelligents et compétents, détruit l’esprit critique, pollue internet et la recherche scientifique, est utilisée comme une arme de propagande, devient un outil destiné à des fins militaires, détériore les conditions de travail des salariés, fait pression à la baisse sur les salaires et ne génère quasiment aucun gain de productivité.
Ce développement alimente une bulle financière géante, dans l’espoir d’aboutir sur des IA super intelligentes susceptibles de détruire l’emploi qualifié. Fin 2024, 500 milliards de dollars auraient déjà été dépensés7 pour des résultats peu convaincants. Or, dans ce secteur ultra-concurrentiel, la moindre innovation est copiée en quelques mois, réduisant les chances de déboucher sur des technologies rentables.
Ce qui entraine un autre risque : celui de se faire imposer l’IA de force. Bien qu’ils ne soient pas au point, ces outils sont de plus en plus fréquemment intégrés à notre quotidien, dans les produits commercialisés par les géants de la Tech, mais également dans les services publics et entreprises. Bien sûr, certaines applications sont bénéfiques. Mais il devient de moins en moins facile d’éviter d’avoir affaire à un chatbot quand on veut parler à son banquier ou à son fournisseur d’électricité. Bientôt, ce sera le tour des services publics, de l’école aux caisses d’assurances maladie en passant par les médecins traitants. Non seulement pour servir l’usager, mais également pour l’identifier et le surveiller, comme c’est déjà le cas dans certains domaines. Ces cas particuliers sont appelés à se généraliser et les rapports humains à s’effacer devant l’IA. Pour la simple raison que, puisque ces intelligences artificielles génératives ne sont pas rentables, il va bien falloir que quelqu’un rembourse tous ces investissements. Quitte à ce que les gouvernements se servent de ces technologies pour casser les services publics, comme tente de le faire Donald Trump aux États-Unis et Keir Stramer en Angleterre.
À moins que la bulle n’éclate avant. On pourra alors repenser cette technologie, pour la concevoir comme un bien commun au service du public, respectueuse des principes humanistes les plus élémentaires et conçue démocratiquement.
NVDIA est un fabricant de cartes graphiques (GPU - Graphic processing unit), des microprocesseurs historiquement associés aux fonctions d’affichage graphique des ordinateurs, mais dont la puissance de calcul et le fonctionnement en font des instruments idéaux pour certaines tâches, comme le type de calcul nécessaire pour “miner” des cryptomonnaies ou entrainer et faire tourner les modèles d’IA.
Le terme IA génératives ou intelligence artificielle générative désigne les logiciels d’intelligence artificielle capables de générer des contenus inédits (texte, audio, image). ChatGPT et ses concurrents appartiennent à ce domaine. À l’inverse, les logiciels d’IA employés pour la reconnaissance faciale ou les fonctions de conduite autonome de voitures ne sont pas des IA génératives.
Il existe des débats sur le cout réel de DeepSeek. Et en réalité, seul le code du programme est disponible en Open Source (accès libre), pas les données ayant servi à l’entrainement. C’est une pratique courante dans le domaine de l’IA générative, les modèles de Meta (Lama, de Facebook) et Mistral (le Chat) sont également en Open source seulement sur la partie code du logiciel.
Je simplifie à l’extrême. Cependant, on voit à travers ces ordres de grandeur qu’il sera difficile de rentabiliser un investissement à 500 milliards si les avancées qu’il permet sont ensuite reproductibles quasi gratuitement.
GAFAM : Google, Amazon, Facebook, Apple, Microsoft.
Un petit point lexical : les agents conversationnels (chatbot) comme ChatGPT sont basés sur des grands modèles de langage (Large Language Model - ou LLM en Anglais). Ils appartiennent à la famille des IA génératives. Ces IA génératives utilisent le concept de “réseaux de neurones artificiels” (des modèles mathématiques disposant de multiples paramètres ajustables) qu’on entraine via des processus de “deep learrning” (ou apprentissage profond) autoapprenant et “reinforced learning” (apprentissage par renforcement). Ces processus d’apprentissage nécessitent de très larges bases de données qui doivent être annotées et classées en amont.
Chiffre que m’a fourni Gary Marcus et qui résulte d’une estimation “conservatrice” selon lui.
Merci beaucoup pour cette analyse extrêmement complète et instructive sur cette arnaque de l’IA !