🇬🇧 English

Souveraineté IA, trillion d'euros et État vassal : ce qu'a dit Arthur Mensch à l'Assemblée nationale

Décryptage critique de l'audition du PDG de Mistral AI devant la commission d'enquête sur les vulnérabilités numériques

Par Angelo Lima

Mardi 12 mai 2026, 16h00. Arthur Mensch, cofondateur et directeur général de Mistral AI, est auditionné par la commission d’enquête de l’Assemblée nationale « sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique ». À ses côtés, Audrey Herblin-Stoop, directrice des affaires publiques de Mistral. Face à eux, des députés qui veulent comprendre où l’Europe en est dans la course mondiale à l’IA.

L’audition dure plus d’une heure et demie. Mensch déroule une thèse construite : l’IA est une technologie d’infrastructure, l’Europe a quelques mois pour décider si elle en est productrice ou simple consommatrice. Comme dans tout exercice de ce type, ce qu’il dit, ce qu’il ne dit pas et ce qu’il omet méritent d’être lus séparément. C’est ce que je propose ici, en croisant ses positions avec les sources publiques disponibles (livre blanc Mistral d’avril 2026, couverture LCP, Bloomberg sur la riposte à Mythos).

L’IA comme matière première : les électrons deviennent des tokens

La première idée structurante de Mensch, c’est sa manière de redéfinir ce qu’est l’IA. Pas un produit logiciel, pas un service web : une technologie de transformation énergétique. On entre des électrons d’un côté, on sort des tokens de l’autre. Le token étant l’unité de mesure de la production linguistique d’un modèle, c’est-à-dire, dans son vocabulaire, l’unité d’intelligence machine.

Le glissement est plus qu’un effet rhétorique. Il rapproche l’IA d’une industrie lourde, avec ses externalités physiques (consommation électrique, refroidissement, foncier des datacenters) et son cycle économique de capex massif. Et il sert un argument central : la France, par son nucléaire, a un atout géographique. Une électricité décarbonée et relativement bon marché à grande échelle est exactement ce qu’il faut pour entraîner et faire tourner des modèles.

Là où Mensch fait passer un avertissement utile, c’est sur la fenêtre de tir étroite. Les opérateurs américains de cloud annoncent des contrats long terme avec EDF et avec les énergéticiens européens. Si la France ne fléche pas son électricité vers ses propres acteurs, les électrons partiront aux États-Unis sous forme de tokens. La question qu’on aurait pu lui poser, et qu’aucun député n’a vraiment posée : quelle quantité d’électricité Mistral consomme aujourd’hui, et quelle est sa trajectoire ? Le débat reste à ce stade très macro.

Une nuance qu’il aurait pu apporter lui-même : l’électricité décarbonée française est aussi un atout pour l’industrie classique, qui en aura besoin. L’allocation prioritaire à l’IA, si elle peut se défendre stratégiquement, n’est pas neutre.

Le « trillion d’euros » : un chiffre qui marque, une extrapolation qui fragilise

Le chiffre qui a fait les titres. Mensch explique que la consommation d’IA chez Mistral représente déjà 10 % de la masse salariale. Si on extrapole à l’échelle européenne d’ici trois à quatre ans, on parle d’un trillion d’euros annuel. Si l’Europe importe cette IA, c’est autant qui s’ajoute au déficit commercial.

L’image est efficace. Elle a tourné dans toute la presse, LCP comprise, et c’était sans doute le but. Mais elle ne tient pas à un examen rigoureux.

Premier problème : extrapoler la consommation d’une entreprise comme Mistral AI, dont le cœur de métier est de produire de l’IA, à l’ensemble de l’économie européenne. C’est comme estimer la consommation d’acier d’un pays à partir d’une aciérie. La structure de coût d’une boîte d’IA n’est pas celle d’une PME industrielle, d’une mairie ou d’un cabinet d’avocats.

Deuxième problème : l’hypothèse implicite que toute la valeur ajoutée par l’IA passe par le paiement d’un service externe. Une partie significative de la valeur générée par l’IA reste capturée localement (productivité, marges, nouveaux produits). Ce qui sort réellement du territoire, c’est la dépense d’inférence et d’entraînement chez les fournisseurs étrangers, pas l’équivalent de 10 % d’une masse salariale.

Troisième problème : le chiffre suppose une trajectoire linéaire de croissance qu’aucun cycle technologique n’a jamais suivi. Les coûts d’inférence par token chutent d’environ un ordre de grandeur par an depuis 2023.

Tout cela ne veut pas dire que le risque est imaginaire. Il est réel, et l’asymétrie commerciale numérique entre l’Europe et les États-Unis est documentée depuis des années. Mais en gonflant le chiffre, Mensch s’expose à une critique facile et fragilise un argument qui n’en avait pas besoin.

La souveraineté comme « levier », pas comme repli

C’est la formulation la plus intéressante du PDG de Mistral. La souveraineté numérique n’est pas un projet d’autarcie : c’est un levier de négociation. Si l’Europe n’a aucune capacité de production souveraine en IA, elle n’a rien à mettre dans la balance face aux États-Unis. Pas de menace crédible d’arbitrage, pas de standard à imposer, pas de couteau dans la poche.

Cette manière de poser le débat évite le piège classique du nationalisme technologique. Mensch ne réclame pas la fermeture des frontières. Il réclame qu’il existe au moins un acteur européen crédible dans chaque couche critique de la pile IA. C’est la même ligne que Mistral a poussée en avril 2026 dans son livre blanc « European AI: a playbook to own it », avec ses 22 mesures dont la clause de préférence européenne dans la commande publique est probablement la plus structurante.

Il y a aussi une dimension culturelle qu’il aborde plus discrètement. Importer un modèle d’IA, c’est importer ses biais. Les modèles encodent des choix de représentation, des biais linguistiques et des présupposés politiques. Un LLM massivement entraîné sur du contenu anglo-saxon produit par défaut des analyses anglo-saxonnes. Le benchmark français Phare (Giskard × Google DeepMind) a documenté que les principaux LLMs sont moins robustes en français qu’en anglais. L’asymétrie est mesurable.

Là où je trouve le raisonnement plus discutable, c’est sur la conclusion implicite : pour qu’il y ait souveraineté, il faut qu’il y ait Mistral. La souveraineté est-elle souveraineté si elle se résume à un seul champion national ? Quel pluralisme européen quand un acteur écrit les recommandations qu’il appliquera ?

L’AI Act : critique fondée ou intérêt bien compris ?

Mensch critique frontalement l’accumulation des règles : RGPD, législation sur le droit d’auteur, AI Act. Sa thèse est que cet empilement freine paradoxalement les acteurs européens et favorise les géants américains, seuls capables d’absorber les coûts de conformité.

C’est l’argument classique des startups. Il a une part de vérité. Une exigence de conformité de 500 000 euros représente une fraction négligeable du chiffre d’affaires d’OpenAI ou de Google ; pour une scale-up européenne, c’est un trimestre de runway. Et il est documenté que les obligations de l’AI Act ont fait l’objet d’un lobbying intense, notamment de la part de Mistral, pour relever les seuils déclenchant la catégorisation « modèle à risque systémique ».

Mais il y a un angle mort. La protection que cherchent à apporter les régulateurs européens n’est pas un caprice bureaucratique : elle répond à des cas réels (discrimination algorithmique, deepfakes, manipulation politique, fuite de données personnelles). Quand Mensch dénonce « l’accumulation de réglementations », il dénonce aussi, dans le même mouvement, les obligations de transparence sur les données d’entraînement. Et celles-là ne sont pas anodines quand on entraîne sur du contenu protégé sans licence.

Le bon débat n’est pas régulation contre dérégulation. Il est : quelle régulation, à quel seuil, avec quelle proportionnalité. Mensch a raison de dire que 27 réglementations nationales différentes tuent l’échelle européenne. Il a tort de présenter chaque obligation comme une entrave à l’innovation : certaines sont la condition pour que l’innovation soit acceptable.

La défense : cohérent, et pourtant inconfortable

L’audition s’est tenue quelques jours avant que Bloomberg ne révèle que Mistral développe un modèle de cybersécurité pour les banques européennes coupées de Mythos, l’outil d’Anthropic à accès restreint. Pendant l’audition, Mensch déclare : « On ne peut pas laisser Mythos scanner le code source des armées françaises. Cela crée une dépendance irréparable, on doit trouver une solution. »

C’est le passage le plus solide de l’audition, et aussi le plus inconfortable. Solide parce qu’il s’appuie sur un cas concret et récent : un outil étranger, sous contrôle d’un acteur étranger, plus efficace que ses équivalents, peut redéfinir unilatéralement l’accès à une capacité critique. C’est précisément ce que Palo Alto Networks documente, avec un facteur 7 de découverte de vulnérabilités par les IA frontalières, et trois à cinq mois de marge défensive avant inversion.

Inconfortable parce que Mensch refuse explicitement un droit de regard sur l’usage final de sa technologie par l’armée française. « L’armée est souveraine, elle a une légitimité démocratique que nous n’avons pas. » La phrase a une logique constitutionnelle, mais elle évacue d’un revers de manche un débat qui n’a jamais eu lieu : qu’est-ce qu’une « IA souveraine » utilisée pour des cas d’usage militaires sans que les ingénieurs qui l’ont construite aient leur mot à dire ? Le sujet mérite mieux qu’un renvoi à la légitimité élective.

Modèle économique : l’IA, c’est cher, et c’est tant mieux

Mistral facture environ 1 € pour un million de tokens générés sur ses modèles d’entrée de gamme. La marge brute du secteur est d’environ 50 %. Mensch le revendique : c’est nécessaire pour financer les coûts massifs d’entraînement, qui se comptent en centaines de millions par cycle de modèle frontalier.

Le chiffre d’affaires de Mistral est réalisé à 70 % hors de France. C’est cohérent avec sa stratégie de champion européen exportateur. Et c’est aussi une réponse implicite à la critique du « petit acteur subventionné » : Mistral vend à l’international, donc ses clients valident une proposition de valeur. Le capital américain est présent (moins de 30 %), mais les fondateurs gardent le contrôle stratégique et visent une cotation européenne.

Sur le plan macroéconomique, c’est exactement le profil d’entreprise que l’Europe doit avoir le plus possible. Sur le plan politique, c’est aussi un acteur dont la valorisation à 11,7 milliards et la trajectoire dépendent de décisions publiques très concrètes : choix d’infrastructure, fléchage électrique, commande publique. La position de Mensch est sincère sans être désintéressée. Tout interlocuteur des pouvoirs publics arrive avec son agenda. Il faut l’entendre comme tel.

La commande publique : la recommandation la plus intéressante, et la plus difficile à appliquer

Pour Mensch, la commande publique est le levier. 50 % du PIB européen passe par la dépense publique. Si une fraction significative de cette dépense privilégiait des fournisseurs européens d’IA et de cloud, le marché interne se structurerait mécaniquement. C’est la recette qu’ont appliquée les États-Unis depuis les années 1940 (DARPA, NIH, NASA, contrats du Pentagone) pour faire grossir leur écosystème tech.

C’est techniquement la bonne idée. Politiquement, elle se heurte aux règles européennes de non-discrimination dans la commande publique et aux accords OMC. Mistral pousse pour des « clauses de préférence européenne sur les marchés publics critiques », notamment l’IA et le cloud. Ce serait juridiquement faisable sur la sécurité nationale ; nettement plus contesté ailleurs.

Et il y a une question de méthode. La commande publique américaine en tech ne s’est pas faite par préférence affichée, mais par cahiers des charges techniques qui éliminaient de facto les acteurs incapables de répondre (clearance, certifications, intégration). Si l’Europe veut produire le même effet, elle doit construire des spécifications techniques exigeantes sur la souveraineté de la donnée, l’auditabilité, l’hébergement. Pas un drapeau, des exigences vérifiables. Ce levier-là est entièrement aux mains des États membres, sans changer un mot de droit européen. Et il est très peu utilisé.

Ce que l’audition révèle, et ce qu’elle laisse de côté

L’audition d’Arthur Mensch a deux mérites principaux.

Elle pose, à la représentation nationale, des questions que la classe politique française n’avait pas l’habitude de formuler en ces termes : l’IA comme infrastructure industrielle, l’électricité comme matière première stratégique, la fragmentation européenne comme obstacle structurel à l’échelle.

Elle force aussi un examen lucide de la dépendance numérique. La France et l’Europe ne se sont jamais dotées d’un acteur cloud de premier plan. Elles risquent de manquer le même train sur l’IA, avec des conséquences plus lourdes, parce que cette fois l’enjeu n’est plus seulement industriel : il est culturel, militaire, démocratique.

Ce que l’audition laisse de côté est tout aussi parlant.

Le rôle des modèles ouverts comme infrastructure publique européenne. Mensch préfère parler de Mistral plutôt que de l’écosystème open weights dont il a longtemps été un acteur. Or si on veut une souveraineté plurielle plutôt qu’un monopole national, c’est par là que ça passe.

Le débat sur l’empreinte environnementale de la course aux modèles frontaliers. La décarbonation française est mise en avant comme atout, mais la trajectoire d’usage énergétique de l’IA à dix ans n’est pas neutre, et la priorisation de l’électricité au profit des datacenters mérite un débat public, pas un présupposé.

La question des biais et de la diversité linguistique européenne. L’Europe ne parle pas français, elle parle 24 langues officielles. La défense de la souveraineté ne peut pas se réduire à substituer une dépendance américaine par une dépendance francophone.

Et puis, plus prosaïquement, la lucidité sur les usages : si l’IA va remplacer 10 % de la masse salariale, ce n’est pas une statistique. Ce sont des métiers, des bassins d’emploi, des trajectoires individuelles. L’État vassal qu’évoque Mensch en conclusion est une figure utile pour faire peur. L’État qui n’accompagne pas ses propres salariés dans la transition est une figure plus immédiate, et beaucoup moins évoquée dans l’audition.

Pour aller plus loin


Audition d’Arthur Mensch (Mistral AI) — Commission d’enquête de l’Assemblée nationale sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique, 12 mai 2026.

Tags: IA Tech Personnel
Share: