Intelligence artificielle, arme fatale du futur.

Pendant la guerre froide l’arme nucléaire était le pivot de l’équilibre Est-Ouest, l’arme fatale du XXème siècle. L’assurance de la destruction mutuelle était, et est encore, un frein dans l’escalade des conflits entre puissances nucléaires, conflits qui se déroulent alors par le biais de proxys usant d’armes conventionnelles. La Corée du Nord existe politiquement du fait qu’elle est capable d’anéantir Séoul ou Tokyo, quitte à disparaître en retour sous le feu nucléaire. La dissuasion nucléaire, même si les piles de missiles et de bombes ont diminué au cours des 30 dernières années, restera un élément central des stratégies de défense et de prédation dans les décennies à venir pour les huit pays dotés d’une capacité avérée, neuf avec Israël (1).

Le monde qui vient va voir de nouvelles armes se développer, adaptées à des conflits localisés où les belligérants vont notamment tenter de minimiser leurs propres pertes. En effet pour l’opinion occidentale actuelle, le laisser-faire guerrier est inversement proportionnel aux pertes de ses soldats, tout mort médiatisé jetant un seau d’eau froide sur la politique guerrière menée par les gouvernements (2).

La frappe dite chirurgicale a longtemps été le moyen de prétendre à l’avènement de guerres “propres”, laissant le champ libre aux intérêts géopolitiques et commerciaux malgré les éventuels “dommages collatéraux”. Ce mode de combat n’a pourtant jamais réellement produit un succès militaire, notamment dans le cadre des guerres asymétriques où l’ennemi se fond dans les populations. Localiser et éliminer précisément des personnes, plutôt que des bâtiments, grâce à des drones survolant une zone pendant des heures voire des jours entiers, est aujourd’hui une technique couramment utilisée par les USA (3).

Ces drones, associés à un système de repérage de signaux de téléphonie cellulaire, sont capables de localiser une cible dans la “kill list” de l’engin, et de faire feu. C’est effrayant en soi, mais c’est la préhistoire des machines tueuses. Tous les pays développent des drones, même Daech utilisait en Syrie des drones “maison”, et l’avenir proche sera entre autres sous la forme des nuages (swarms) de mini-drones capables de collaborer pour exécuter des missions militaires (ou terroristes, les deux étant aujourd’hui les mêmes dans les faits, nommées de l’une ou l’autre façon selon le camp que l’on défend). L’an prochain les USA vont tester le Gremlin (4), et les Russes, Chinois, Israéliens ou Iraniens ne sont sans doute pas très loin derrière.

Ces machines fonctionnent avec de l’IA. Les objectifs de ces systèmes sont (pour le moment du moins) dictés par les humains, mais les stratégies collaboratives sont développées par les IA elle-mêmes. Ces systèmes apprennent et optimisent leurs actions par eux-mêmes. L’opérateur humain définit les actions et donne le départ, le reste est automatique. Mais rien n’empêche que tout soit automatique, par exemple un système de missile anti-missiles conçu pour contrer les nouveaux missiles balistiques hypersoniques russes Sarmat (5) pourrait être entièrement automatique, car une intervention humaine serait bien trop lente pour espérer intercepter un tel engin. Avec le risque d’une fausse alerte, et l’on sait que de telles fausses alertes se produisent et que c’est l’élément humain qui prévient in extremis la catastrophe définitive (6).

Une commission de l’ONU, la Convention on Certain Conventional Weapons ou CCW, s’inquiète activement de ces questions. En novembre 2017 une réunion a eu lieu entre représentants gouvernementaux et ONG dans le cadre de la campagne pour l’interdiction des robots tueurs, au même titre des interdictions visant les mines anti-personnel, les armes chimiques, les bombes à fragmentation, etc… La question centrale est celle de l’humain et sa place dans la boucle de contrôle Observation – Orientation – Décision – Action (OODA). A l’heure actuelle, la position des pays représentés dans cette commission est de développer des systèmes dits “on the loop“, c’est-à-dire avec un humain capable d’intervenir dans cette boucle. C’est plus sûr mais plus lent qu’un système entièrement automatique dit “off the loop“, sans intervention humaine, 100% IA.

Il est néanmoins clair que si un pays estime qu’il encourt un risque d’attaque par un système ennemi ultra-rapide que seule une réponse “off the loop” peut espérer contrer, il la développera. Et c’est là où la situation passe de dangereuse à potentiellement catastrophique: une escalade mortelle sur base d’une fausse information quelque part dans le système, liée à une erreur, un hack ou un phénomène imprévu.

Les trois forces qui conditionnent actuellement le développement de telles armes sont la concurrence géopolitique, le développement technologique et le profit commercial associé à la vente de ces systèmes. Le fameux complexe militaro-industriel, déjà dénoncé par Eisenhower dans les années 50, est évidemment au centre du jeu: les militaires à la recherches de nouvelles armes financent les sociétés spécialisées pour les développer, à coups de milliards de dollars annuels et sans intervention démocratique si ce n’est à la marge. Ce faisant ils influencent les équilibres géopolitiques, justifiant sans cesse de nouvelles armes par de nouvelles menaces.

Les nouvelles armes basées sur l’IA, que ce soient des drones, des robots fantassins, des virus ou n’importe quelle plateforme, vont tendre vers l’automatisation et la déshumanisation au même titre que l’arquebuse s’est transformée au fil du temps en fusil d’assaut. La concertation des pressions de rapport de force, de progrès technologique et de business dépassent du cadre dans lequel ces armes furent initialement pensées.  Aux USA, le fameux 2nd Amendment permettant à tout citoyen de porter une arme s’inscrivait dans une logique de défense contre un gouvernement potentiellement dictatorial, et dans un temps où le fusil tirait un coup par minute. La transformation technologique et commerciale du fusil l’a fait sortir de son cadre d’origine et a créé un nouveau problème, en l’occurrence la mort violente d’une vingtaine d’américains chaque jour.

Idem pour l’IA, la simple automatisation algorithmique déterministe étant en voie de laisser la place à des “boîtes noires” dotées d’une grande autonomie, très difficiles à tester vu que l’on ne maîtrise pas les processus internes de ces IA, et dont on ne peut donc prédire à 100% les réactions face à telle ou telle situation.

Mais les systèmes d’armes contrôlés par l’IA ont ceci de particulier qu’ils permettent un équilibrage des puissances militaires malgré des budgets très différents. Les moyens à mettre en oeuvre pour développer de tels systèmes, qu’ils soient capables de frappes précises et indétectables par micro-drones, ou qu’ils soient l’équivalent de la “pédale de l’homme mort” entraînant l’activation automatique de processus de tir en cas de détection d’attaque préemptive, demande moins de ressources que pour le développement de missiles balistiques à têtes nucléaires, moins que pour le développement d’avions de chasse et de bombardiers furtifs haute performances, moins que pour la construction de sous-marins nucléaires et de puissantes flottes de guerre.

Autrement dit, un petit pays voire une organisation non étatique type Daech pourrait, avec un minimum de financement, quelques bons ingénieurs et un accès à des moteurs IA, mettre en oeuvre des armes très effectives à relativement bas coût. Un swarm de micro-drones lancés sur un champ de bataille pourrait semer la terreur parmi les forces adverses, sans pertes pour l’assaillant. En cas de conflit imminent, la menace de l’envoi de tels drones tueurs dans les grandes villes d’un pays adverse, ou la démonstration d’une capacité d’attaque cybernétique de grande envergure, pourrait faire réfléchir à deux fois les tenants d’une intervention armée classique. La Russie a clairement identifié l’IA en tant que voie de développement fondamentale de leurs prochains systèmes d’armes, Vladimir Poutine allant jusqu’à dire que celui qui dominera le développement de l’IA deviendra le maître du monde (7).

Malgré l’existence d’un fort contre-courant face au développement militaire de l’IA, dont des personnalités telles Elon Musk et Stephan Hawkings font partie, et le fait que l’ONU propose une “convention de Genève numérique” visant à interdire certaines armes automatisées sous IA, la tendance lourde est vers le développement de telles armes – du moins tant que la société civile n’aura pas réalisé où ce développement va la mener, et il sera alors déjà sans doute trop tard. Car bien évidemment, dans ce monde en phase de dé-démocratisation et de contrôle par les quelques % des plus riches, les polices seront aidées par un arsenal d’outils de surveillance, de contrainte et d’agression à base d’IA.

Les caméras à reconnaissance faciale, les mouchards dans les réseaux, les tags GPS dans nos téléphones et voitures, la disparition du cash au profit de systèmes de paiements entièrement contrôlés par les banques et donc les Etats, sont tous en train d’être connectés à des systèmes IA capables de suivre et analyser nos moindres mouvements et actions, ensuite à les prédire, et enfin à les contrôler. Le rêve humide des technocrates de tous bords est réellement en train de se réaliser.

Avec l’IA l’humanité s’apprête à entrer dans une toute nouvelle phase dont il me semble impossible de prédire la nature. Ce pourrait être une grande extinction rejoignant l’hypothèse du Grand Filtre civilisationnel (8), ce pourrait être l’avènement d’un Brave New World où la majorité improductive passerait sa vie dans des mondes parallèles (9). Ce pourrait être 1984 avec un siècle de retard, ou le début d’une expansion transhumaniste à l’assaut de l’univers. Où bien d’autres choses encore, selon que nous prenions suffisamment conscience des enjeux tant qu’il nous reste la possibilité de les influencer.

 

Notes:

(1) https://en.wikipedia.org/wiki/List_of_states_with_nuclear_weapons

(2) https://zerhubarbeblog.net/2017/10/08/la-guerre-sans-front-par-elie-paul-cohen/

(3) https://en.wikipedia.org/wiki/General_Atomics_MQ-9_Reaper

(4) http://www.dailymail.co.uk/sciencetech/article-5226505/US-military-test-swarms-tiny-Gremlin-drones-2019.html

(5) https://www.rt.com/news/420157-russia-new-hypersonic-icbm/

(6) https://en.wikipedia.org/wiki/1983_Soviet_nuclear_false_alarm_incident

(7) http://fortune.com/2017/09/04/ai-artificial-intelligence-putin-rule-world/

(8) https://zerhubarbeblog.net/2018/01/22/le-grand-filtre-de-lexpansion-civilisationnelle/https://zerhubarbeblog.net/2018/01/22/le-grand-filtre-de-lexpansion-civilisationnelle/

(9) https://zerhubarbeblog.net/2017/07/04/strategies-pour-ceux-qui-ne-sont-rien/

 

 

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

4 réponses

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.