AlphaGo Zéro, le futur en jeu!

En janvier 2016 l’équipe ayant créé l’ordinateur neuronal AlphaGo, DeepMind (Google), invitait le champion européen de Go, Fan Hui, à un match contre leur machine. Les programmeurs d’AlphaGo avaient nourris l’ordinateur avec l’ensemble des règles de ce jeu millénaire, et un grand nombre de parties réelles précédemment jouées par des humains. AlphaGo avait alors commencé à pratiquer et était devenu capable de reconnaître les motifs gagnants, les logiques de jeu qui lui permirent rapidement de battre tous les simulateurs de Go actuels. Il était donc bon, mais face à un champion humain c’était quand même loin d’être gagné car le jeu de Go, de par l’innombrable éventail de possibilités de placements de pions, se prête mal à la modélisation – a contrario du jeu d’échecs où la puissance de calcul, permettant d’anticiper les coups bien au-delà de toute capacité humaine, est la pièce maîtresse d’un bon simulateur. 

Fan Hui fut battu 5-0. Tout le monde fut surpris, à commencer par l’équipe de DeepMind elle-même. L’étape suivante, quelques mois plus tard, fut de confronter AlphaGo au champion du monde de Go, Lee Sedol. Sedol fut battu 4-1, ayant quand même réussi à enlever une manche. Le petit monde du Go était atterré: un phénomène que l’on ne pensait pas voir avec encore dix ans venait de se produire, une machine avait battu le meilleur humain au jeu le plus compliqué à modéliser, un jeu autant basé sur le raisonnement (là où les machines sont très fortes) que sur l’intuition (là où elles sont nulles, ou l’étaient jusqu’à AlphaGo).. Ce faisant, la machine avait même inventé des coups jamais vus auparavant, au point que lors d’un coup particulièrement incompréhensible Lee Sedol dut quitter la pièce un moment tellement il était désarçonné.  Et de fait, plusieurs coups plus tard, on se rendit compte que ce coup initial bizarre était devenu un élément clé de la victoire de la machine.

La manière exacte dont fonctionne ce type de machine, à réseau neuronal, n’est pas entièrement comprise et est le sujet de nombreux travaux actuels – notamment au sein des GAFA mais pas que. Ces machines apprennent par elles-mêmes selon un processus nommé Deep Learning, ou Apprentissage Profond, où l’information passe par plusieurs couches neuronales (équivalent électronique très simplifié d’un neurone biologique) pour finalement arriver à la couche supérieure, où ne reste que l’information la plus pertinente relative à la tâche donnée – en l’occurrence poser un pion de Go en vue de gagner la partie. Le principe du réseau neuronal est en fait assez ancien, il avait connu une première gloire dans les années 80 mais avait été quasiment abandonné car improductif avec la technologie de l’époque. 30 ans plus tard, avec la puissance des calculateurs modernes, le principe du réseau neuronal est revenu sur le devant de la scène et semble être la voie royale vers une intelligence artificielle générale (Artificial General Intelligence, AGI), capable à priori d’apprendre des tâches très diverses, par opposition à l’intelligence artificielle (IA) classique ou “étroite” (narrow) qui ne sait faire que la chose pour laquelle elle est programmée: un robot, une voiture autonome ne peuvent pas faire autre chose que leur mission initiale. Une AGI par contre peut, comme un être biologique développé, apprendre par elle-même et n’est pas confinée à un domaine d’activité particulier.

L’équipe de DeepMind n’en est évidement pas restée à sa victoire contre Lee Sedol et travaille depuis lors sur une nouvelle machine appelée AlphaGo Zero (1). Ce système diffère fortement du modèle initial au sens où il utilise un processus de Reinforcment Learning (Apprentissage Renforcé) lui permettant d’apprendre sans l’aide humaine. On lui donne un but, les règles de base, et il se débrouille. AlphaGo Zero est devenu en trois jours meilleur au Go que l’AlphaGo d’origine, en ayant tout appris tout seul. Les premières heures il posait des pions plus ou moins au hasard, puis rapidement il a “compris” les techniques et les motifs de base permettant de gagner, et trois jours plus tard il battait son vieux papa 100 à 0. Il a même inventé des phases de jeu, des stratégies inédites désormais étudiées par les joueurs humains… Inversion totale de la situation, en à peine une année. Dingue.

Que cela peut-il signifier pour nous, pour l’humanité? De l’avis général nous sommes encore loin, voire très loin d’une intelligence artificielle capable de simuler l’ensemble d’un comportement humain, mais sur un certains nombre de points sur lesquels nous pensions, hier encore, être inattaquable c’est clairement une nouvelle ère qui s’ouvre. Que ce soit par exemple en termes de traduction d’une langue vers l’autre ou de reconnaissance visuelle fine, la chirurgie, l’analyse radiologique etc., bref ces processus analogiques pour lesquels notre cerveau est particulièrement adapté, les machines prennent le dessus. AlphaGo Zero va être utilisé pour déchiffrer le très complexe processus de pliage de protéines, la manière dont une protéine se plie en 3D déterminant, par un processus encore mal compris, l’effet de la protéine. Ces machines vont devenir des assistants experts de l’humanité, mais deux questions fondamentales sont clairement posées: d’une part une AGI pourra t’elle un jour “comprendre” en plus de simplement “savoir”, autrement dit développer une forme de conscience d’elle-même? D’autre part, comment nous assurons-nous de garder la bête sous contrôle, ou l’idée même de contrôle a t’elle encore réellement un sens?

En effet, il est un principe de base qui dit que tout ce que l’homme a besoin de faire, c’est de créer une machine intelligente. Une seule. Celle-ci pourra alors tout apprendre, sans limitation physique, sans fatigue, et ainsi construire toutes les autres machines dont elle aura besoin pour mener à bien sa tâche – qui devrait être avant tout l’amélioration de la condition humaine. Mais en ce cas c’est la machine qui contrôle effectivement l’humain. Pour son bien, certes. En théorie.

Ces questions sont posées par des gens très impliqués dans la recherche en IA. Max Tegmark les pose dans son nouveau livre “Life 3.0: Etre humain à l’ère de l’intelligence artificielle” (2). Life 3.0, c’est une forme de vie qui est capable de développer aussi bien son hardware que son logiciel. C’est une machine, ou un mixte homme-machine. Nous, simples humains, sommes de l’ère de Life 2.0: nous pouvons modifier nos logiciels (notre culture, nos savoirs) mais pas vraiment notre hardware, sinon à la marge (prothèses). Life 1.0 c’est le monde du déterminisme évolutif sans choix possible, le monde primitif des bactéries par exemple. De nombreux grands noms de la technologie et de la science, tels Elon Musk et Stephen Hawkings, participent de ce mouvement questionnant la politique à adopter face à cette évolution avant qu’il ne soit trop tard, avant que nous ne soyons au pied du mur avec face à nous des machines que nous ne savons plus comment contrôler. Tout comme Isaac Asimov avait à l’époque développé les règles de la robotique, la première d’entre elles étant qu’un robot ne peut pas tuer ou blesser un humain, règle qui n’a pas survécu à la confrontation avec la réalité. Il nous faut faire mieux.

Il nous faut, dans ce monde réel où l’on met autant d’argent dans le développement de Terminators que de robots utiles, faire en sorte que le public ne se laisse pas duper par les politiciens et technocrates ineptes, les militaires et les prédateurs qui peuplent les couloirs obscurs du pouvoir. Les scientifiques, les penseurs à la pointe de ces développements sont de notre côté, bien conscient des enjeux à venir. Comme l’assène Max Tegmark, il nous faut prendre la parole.

 

Notes:

(1) https://www.theguardian.com/science/2017/oct/18/its-able-to-create-knowledge-itself-google-unveils-ai-learns-all-on-its-own?CMP=fb_gu

(2) https://www.amazon.com/Life-3-0-Being-Artificial-Intelligence/dp/1101946598

Sur le même sujet:

https://zerhubarbeblog.net/2013/10/18/lintelligence-artificielle-et-nous-et-nous-et-nous/

https://zerhubarbeblog.net/2011/02/17/watson-entre-connaissance-et-intelligence/

https://zerhubarbeblog.net/2015/07/31/transhumanisme-2-0-big-futur-ou-big-delire/

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

13 réponses

  1. La question de l’intelligence 3.0 n’est-elle est mal posée, et pour trois raisons ? En premier, elle ne tient pas compte de l’interférence des « intérêts de sa discipline, relativement aux conditions sociales de sa théorisation. Et deuxièmement, parce que la discipline croit que l’homme serait dépassé du fait que le jeu des affects rendrait son réseau neuronal névrosé ou « psychosé ». Dans le cas de la névrose, le réseau ne peut que communiquer difficilement avec une autre partie de lui-même, dans le cas de la psychose il y a forclusion (au sens lacanien,cf. P.Jorion, Principes des Systèmes Intelligents), c’est-à-dire que le réseau global se trouve divisé en deux sous réseaux n’ayant plus aucun arc commun. Dans les deux cas, il difficile en effet d’avoir une vision claire permettant d’agir sur le monde tel qu’il est. En troisième raison, l’IA 3.0 oublie qu’en termes d’énergie consommée et de taille, le hardware humain est sans doute proche de l’optimum physico-chimique ». Pour avancer davantage, il faut donc revenir d’une part sur les blocages affectifs, et d’autre part sur les conditions sociales de l’exercice de l’intelligence humaine ou artificielle. Il est en effet remarquable qu’au moment où les envolées lyriques (mais des capitaux considérables) sont mises à contribution pour chanter l’autonomisation et l’émancipation de la pensée artificielle, tandis qu’aucune réflexion ne va dans le sens de l’autonomisation des hommes par la libération de leur coinçage affectif. Nous avons parfaitement, qu’il serait simple de remplacer notre – servitude volontaire – c’est-à-dire (comme l’explique le comptage de la Boétie et bien avant que Henri Laborit en affine le modèle) notre habitude acquise à compenser le déplaisir à recevoir des coups par au-dessus en donnant à l‘étage en dessous. D’autres modalités de plaisir, plus subtiles que ceux liés à la névrose hiérchique nous sont ouvertes. Par ailleurs nos capacités endoceptives relativement à notre propre fonctionnement cérébral, peuvent être considérablement développées, bien sûr sans l’usage de drogues sophistiquées, ni concentration chamanomaniaques et autres « techniques « transcentantales » traditionnelles. Ce processus prendra du temps, mais finira par user le dernier carré de la dominance du 1%, désireux de cacher son fiasco planétaire en priant les intelligences spécialisées de niveau 0.-1 d’accepter d’être subsidiées afin que nous soyons désormais auto-assujettis volontaires aux décisions supérieures « de niveau 3°0 », lesquelles seront « bonnes pour l’espèce », et bien entendu, pour autant que ne soit pas mis en cause le statut de ce petit groupe devenu “second” certes, mais ainsi bien abrité et bien lotis,dans et par le maintien du principe de l‘échelle hiérarchique.

    1. Bonjour, et merci pour votre commentaire. Si je comprends bien vous proposer de mettre l’émancipation de nous tous par rapport au 1% avant celle du 1% de nous tous grâce a l’IA. Je suis bien d’accord tout comme pas mal de gens qui s’inquiètent du fait que ce sont précisément les dominants qui sont les mieux placés pour tirer bénéfice de l’IA.
      La question, c’est comment faire. Informer est le point de départ mais cela ne suffira pas.

  2. Viçent, merci de votre réponse, je me suis mal fait comprendre; veuillez m’excuser.

    Il serait, je crois, nécessaire de relire l’œuvre d’Henri Laborit, et ainsi de comprendre que nous pouvons modifier notre environnement social de façon à permettre d’autres satisfactions que les plaisirs moroses de la soumission et de la domination, lesquels sont aussi bien partagés à tous les étages de l’escalier.

    Les intellectuels affidés au 1% ne cherchent pas à investiguer les voies d’évolution possibles de l’usage que nous faisons de nos systèmes nerveux. Malheureusement, pour l’instant, les libertaires restent enfermés dans de vieux discours et se contentent d’invoquer la coopération selon Kropotkine, ce qui est aujourd’hui trop court. Je présume néanmoins que la disparition du travail obligera le 1% à instituer la gratuité de l’essentiel ( nourriture logement santé) et parallèlement perpétuera le contrat de subordination comme voie d’accéder au superflu. Cette contradiction rendra plus visible la nécessité d’aller au bout de l’émancipation des hommes plutôt que de rechercher l’autonomisation des robots.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.