le sommet de genève 2026 — l'ia sous haute surveillance militaire
L'Urgence d'un "Nuremberg de l'Algorithme"
En ce dimanche 18 janvier 2026, les couloirs du Palais des Nations à Genève bruissent d'une tension électrique. Ce sommet n'est pas une simple conférence technologique ; c'est le rendez-vous de la dernière chance pour la stabilité mondiale. Depuis que des drones autonomes ont démontré leur capacité à prendre des décisions létales sans intervention humaine lors des escarmouches frontalières de l'automne dernier, la communauté internationale a compris que la boîte de Pandore était ouverte.
L'objectif affiché par le Secrétaire Général de l'ONU est clair : poser les jalons d'un traité de non-prolifération des cyber-armes dotées d'IA. "Nous sommes au même point qu'en 1945 avec le nucléaire", confie un diplomate européen. "Sauf que l'arme ici est invisible, reproductible à l'infini et évolutive."
La menace fantôme : Les SALA (Systèmes d'Armes Létaux Autonomes)
Le cœur du débat porte sur les SALA. Ces systèmes, capables d'identifier, de cibler et d'éliminer un objectif sans "boucle de décision humaine", représentent une rupture éthique majeure. La France et l'Allemagne mènent une coalition de 50 pays demandant une interdiction totale de ces armes. À l'opposé, les puissances de l'Est et certains pôles technologiques américains freinent, arguant que "la supériorité algorithmique est le seul rempart contre une attaque surprise".
Le risque d'une course aux armements algorithmiques est réel. Si un État développe une IA capable de paralyser les infrastructures critiques d'un pays (réseaux électriques, systèmes bancaires) en quelques microsecondes, la dissuasion classique devient caduque.

Vers une Agence Mondiale de l'IA (AMIA)
La proposition phare de ce sommet est la création de l'AMIA, une organisation calquée sur l'Agence Internationale de l'Énergie Atomique (AIEA). Cette instance aurait pour mission d'inspecter les centres de calcul massif et de s'assurer que les modèles de langage et de raisonnement ne sont pas détournés à des fins de cyberguerre.
Cependant, la mise en œuvre se heurte à la souveraineté numérique. Comment inspecter un serveur sans voler les secrets industriels ? La réponse pourrait venir de la "preuve à divulgation nulle de connaissance" (Zero-Knowledge Proof), une technologie cryptographique qui permettrait de certifier la non-dangerosité d'une IA sans en révéler le code source.
