Quel contrôle pour l’intelligence artificielle?

Ce ne sont pas les sujets chauds qui manquent en ce moment, mais celui qui risque fort de nous impacter le plus profondément dans les années à venir est, à mon avis, le développement et le contrôle de l’intelligence artificielle. Les choses se bousculent un peu en ce moment, du côté technique comme du côté encadrement.

Sur le côté technique, l’IA de DeepMind que j’ai récemment présentée sur ce blog, AlphaZero (1), vient à nouveau de s’illustrer par un nouvel exploit: après quatre heures d’auto-apprentissage, partant de rien d’autre que les règles du jeu d’échecs, AlphaZero a battu à plate couture le meilleur logiciel “classique” de jeu d’échecs actuel, Stockfish 8. Après 24 heures de jeu, ayant tout appris par lui-même, AlphaZero développait une approche quasi humaine (surhumaine, en fait) du jeu en ciblant ses recherches à chaque tour: au lieu des 7 000 000 de coups explorés par seconde par Stockfish, AlphaZero n’en explorait “que” 80 000 mais, sur 100 parties il n’en perdit pas une (2).

Stockfish étant déjà reconnu comme imbattable par un humain, AlphaZero l’a ringardisé en quelques heures, et sans aucune programmation autre que les règles de base. On voit là la puissance du Deep Learning des réseaux neuronaux, et plus particulièrement la méthode dite “d’apprentissage par renforcement”. Autre exemple tout à fait d’actualité, le projet AutoML de Google Brain, une IA dédiée à la création d’autres IA plus performantes qu’elle-même. Lancée en mai 2017, AutoML vient d’être testée sur la reconnaissance d’images fixes et vidéos en temps réel.

Je cite un extrait de l’article du site Trustmyscience.com (3):

AutoML agit comme un contrôleur de réseau neuronal, qui développe un réseau IA dit enfant, pour qu’il effectue une tâche spécifique.

Concernant cette nouvelle IA que les chercheurs ont appelé NASNet, la tâche constitue à reconnaître des objets : des personnes, des voitures, des feux de circulation, des sacs à main, des sacs à dos, etc., et tout cela en vidéo et en temps réel. AutoML évalue ensuite les performances de NASNet et utilise ces informations pour améliorer la nouvelle IA, tout en répétant ce processus des milliers de fois, afin de maximiser son amélioration.

Selon les chercheurs, NASNet a atteint une précision de 82,7% pour prédire les images sur l’ensemble d’ImageNet. C’est 1,2% mieux que tous les résultats précédemment publiés.

D’ici peu, NASNet aura la capacité d’identifier de manière presque parfaite toute banque d’images, tout flux vidéo. Raccordé à des caméras de surveillance de plus en plus présentes sur nos lieux de vie, Big Brother est – vraiment – en passe de devenir une réalité objective: là où se trouvera une caméra, l’opérateur (IA ou humain derrière l’IA) saura précisément, pour peu qu’elle ait accès à une image référencée type image taguée sur Facebook, qui passe dans le champ.

Que faire face à cela, c’est-à-dire face à la réalité d’entités super-intelligentes – du moins telles que mesurées sur des tâches précises avec des objectifs simples, mais cela couvre déjà un large spectre d’applications. Des entités invisibles nourries par les milliards de données que nous, public, faisons transiter chaque jour sur les réseaux ou générons par le simple fait de vivre, de nous déplacer, de rencontrer autrui, de nous informer. La nécessité de faire face devient une évidence, même au niveau des Etats comme au niveau des organisations qui développent ces systèmes.

En France, le mathématicien et député LREM Cédric Villani lançait, ce 6 décembre, une consultation publique sur l’intelligence artificielle (4). Ouverte à tous jusqu’au 7 janvier 2018, elle propose au départ un certain nombre d’actions sur sept grands thèmes:

Chacun est invité à donner un avis sur ces propositions, et/ou en soumettre de nouvelles. J’invite toute personne qui se sent concernée par le sujet d’aller y faire un tour. J’ignore ce que Mr Villani va faire de tout cela mais un retour est prévu après la clôture de l’enquête. Espérons que cette enquête n’aura pas le caractère d’écran de fumée et de corruption qu’avait une autre enquête publique récente, celle-là menée par une certaine Marisol Touraine puis reprise par la lobbyiste en chef Agnès Buzin au sujet des vaccins (5).

Du côté développement de l’IA, un récent article dans Wired (6) relaie un appel d’une représentante de cette communauté lors du Neural Information Processing Systems conference qui se tient cette semaine en Californie. Kate Crowford, de Microsoft, incite ses collègues à se pencher sur les risques et dangers des développements IA. Une application qui étiquetait en 2015 les noirs comme des gorilles, et plus généralement le fait que les applications IA amplifient les stéréotypes de genres. Pour elle, ces exemples ne sont que la partie visible de l’iceberg et de nombreux dangers rôdent sous la surface des développements appliqués à la justice, la finance, etc… Un exposé par la chercheuse Victoria Krakovna, de DeepMind, est prévu sur la sécurité IA.

Le sujet est très complexe mais certains font des efforts pour le rendre accessible aux non-spécialistes. Le physicien Max Tegmark, bien connu du petit monde de la physique théorique et des plateaux médiatiques un peu spécialisés, a récemment publié un livre intitulé Life 3.0 où, entre autres, il tente de donner un cadre conceptuel à ce qu’est l’IA, et quels sont les principaux paramètres de design que nous ne devons pas rater.

Pour Tegmark, un élément clé est la définition d’objectifs. Pour une machine classique, l’objectif ne varie pas au cours de sa vie, sauf si elle est reprogrammée mais à nouveau, si l’objectif est correctement défini au départ il reste stable. Les choses ne sont pas aussi évidentes pour une machine capable d’apprendre, donc capable d’évaluer la pertinence de ses objectifs. Tout comme un enfant n’a pas les mêmes objectifs ni la même analyse d’une situation donnée un fois adulte, on ne peut garantir a priori qu’une IA qui apprend par elle-même, sur base d’un objectif initial donné, ne s’en éloigne pour des raisons – rationnelles sans doute – qui lui seraient propres.

Il est donc non seulement nécessaire de donner les bons objectifs à l’IA, mais il faut en plus s’assurer que cette IA adopte ces objectifs, et qu’elle les retiennent comme tels. Il faut donc, en d’autres termes, que les objectifs de l’IA soient alignés avec les nôtres, et pour ce faire il faut que l’IA “comprenne” non seulement ce que nous voulons faire, mais pourquoi nous voulons le faire.

Prenons un exemple: vous vous engouffrez dans une voiture autoconduite en lui ordonnant de vous conduire le plus rapidement possible à l’aéroport. Vous y arrivez rapidement effectivement, mais après avoir vomi vos tripes et dix voitures de police aux trousses: votre voiture aura compris votre ordre littéralement. Il faut donc que l’IA de votre voiture “comprenne” les notions de code de la route, de confort, le contexte d’urgence, et de ce que nous voulons réellement dire par “le plus rapidement possible”.

Et là se pose un problème délicat: tant que l’IA est moins intelligente que nous, sa compréhension de nos objectifs restera imparfaite mais gérable. Le jour où elle devient super-intelligente, elle pourra développer une analyse critique de ces mêmes objectifs et décider, peut-être, qu’ils ne sont pas “bons”. Ou, inversement, les trouver tellement bons qu’elle refusera d’en changer même s’ils ne sont plus bons pour nous. Elle pourra même, un jour, devenir capable de se modéliser elle-même afin d’analyser les raisons de ses propres objectifs, comme certains humains “s’analysent” via la psychologie ou la méditation.

Il faut se pencher sur ces questions dès maintenant, et ne pas les laisser aux mains d’opérations commerciales ou étatiques. L’IA peut nous être bénéfique comme elle peut transformer le monde en un vaste cauchemar. Her, ou Terminator.

 

Notes:

(1) https://zerhubarbeblog.net/2017/10/19/alphago-zero-le-futur-en-jeu/

(2) https://arxiv.org/abs/1712.01815

(3) http://trustmyscience.com/une-ia-genere-une-nouvelle-ia-plus-performante-que-toutes-les-autres/

(4) https://parlement-et-citoyens.fr/blog/lancement-d-une-consultation-publique-sur-l-intelligence-artificielle-par-cedric-villani-participez-jusqu-au-6-janvier

(5) https://zerhubarbeblog.net/2017/07/05/sur-vaccination-le-lobby-pharma-en-marche-avec-edouard-philippe/

(6) https://www.wired.com/story/artificial-intelligence-seeks-an-ethical-conscience/amp?__twitter_impression=true

 

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

7 réponses

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.