19/03/2026
19 Mar , 2026 read
Dans les environnements stériles des laboratoires de recherche, les promesses de l’intelligence artificielle dans le domaine de la défense semblent illimitées une vision de flottes autonomes invincibles exécutant des décisions parfaites en une fraction de seconde. Cependant, il faut dépasser le vernis marketing pour considérer la « réalité physique » du champ de bataille, bien moins indulgente.
Nous devons atténuer le risque de défaillance catastrophique inhérent aux modèles actuels. Imaginez un scénario où un agent autonome contraint par le SWaP (taille, poids, puissance), scrutant un horizon lointain, identifie par erreur une cour d’école remplie d’enfants comme une formation de chars en mouvement. Il ne s’agit pas d’une défaillance des capteurs ni d’une distorsion atmosphérique, mais d’un effondrement algorithmique fondamental causé par un bruit adversarial au niveau des pixels, invisible à l’œil humain.
En un instant, le rêve de précision devient un cauchemar d’escalade involontaire. Nous nous dirigeons vers une « hyperguerre » — un paradigme où les conflits sont dictés par l’IA avec une intervention humaine minimale, et où la vitesse des engagements dépasse les capacités cognitives humaines.
Pour naviguer cette transition, nous devons affronter les contraintes techniques strictes et les fractures géopolitiques qui définissent le front algorithmique moderne.
La barrière physique la plus importante à l’autonomie en vol n’est pas la sophistication du code, mais la contrainte de taille, poids et puissance (SWaP). Pour les agents à l’échelle nano (moins de 50 g), les lois de la physique imposent un compromis brutal entre énergie et autonomie.
À faible nombre de Reynolds (Re < 10⁴), la viscosité de l’air domine les forces d’inertie, donnant à l’environnement une sensation proche du « sirop » plutôt que de l’air. Pour surmonter cela, 95 à 96 % du budget énergétique total d’un drone est consacré uniquement à la propulsion.
Il ne reste alors qu’un budget infime, de l’ordre du milliwatt (souvent inférieur à 100), pour l’intelligence embarquée. Cette réalité physique rend l’utilisation de GPU haute performance — comme ceux utilisés en IA commerciale — impossible sur le terrain.
Nous faisons face à trois limitations techniques majeures :
Si l’IA peut surpasser les humains aux échecs, elle possède une fragilité unique : le machine learning adversarial.
C’est une menace réelle pour la sécurité nationale, car cette « intelligence » est souvent superficielle. On parle d’asymétrie d’inférence : un modèle peut réussir des tâches complexes mais échouer sur des cas simples à cause de perturbations invisibles.
Les attaques adversariales introduisent du bruit imperceptible qui provoque des erreurs déterministes. Par exemple, un avion de chasse peut être identifié comme un mouton, ou un bus scolaire comme une autruche.
Ce risque est aggravé par la transférabilité : une attaque conçue pour un modèle peut en tromper d’autres.
« Imaginez les scénarios suivants : un engin explosif, un avion ennemi ou un groupe rebelle sont identifiés comme une boîte en carton, un aigle ou un troupeau de moutons… Les conséquences sont terrifiantes. » – AFCEA International
La guerre en Ukraine est devenue un laboratoire en conditions réelles pour l’IA, contournant les cycles lents d’acquisition militaire.
Des initiatives comme Brave1 ou « Test in Ukraine » permettent de tester directement les systèmes dans des environnements électromagnétiques contestés.
L’évolution la plus marquante est celle des drones kamikazes, capables de poursuivre une cible de manière autonome malgré le brouillage électronique.
Technologies clés :
Le mythe selon lequel le calcul peut être externalisé vers le cloud a été réfuté par les limites de bande passante et de latence.
Le projet Overwatch de Lockheed Martin (F-35) démontre la nécessité d’une autonomie embarquée (« indigenous autonomy »). Les modèles peuvent être réentraînés en quelques minutes et redéployés immédiatement.
Comparaison :
Pour résoudre les contraintes énergétiques, on s’oriente vers des architectures inspirées du cerveau.
Les réseaux neuronaux impulsionnels (SNN) et les caméras événementielles permettent :
Une divergence apparaît :
Selon Kai-Fu Lee, la force de la Chine réside dans sa capacité à industrialiser rapidement les innovations.
L’IA accélère les conflits mais augmente le risque de perte de contrôle.
L’ONU propose :
António Guterres souligne que déléguer la décision de tuer à une machine est moralement inacceptable.
L’IA militaire n’est pas une solution clé en main. C’est une transformation profonde mêlant physique, informatique et éthique.
Le défi majeur est de combler l’écart entre simulation et réalité.
Dans un monde d’hyperguerre, une question demeure :
L’humain restera-t-il une sécurité… ou deviendra-t-il un obstacle que l’on choisira d’éliminer ?r is it destined to become a bottleneck that we eventually – and dangerously – decide to remove?
Pour aller plus loin