Le rapport Villani sur l’intelligence artificielle.

Tout le monde connait Cédric Villani, actuel député de l’Essonne mais surtout mathématicien mondialement connu. Sa spécialité lui a valu de se voir confier par Edouard Philippe, en septembre 2017, la charge de réaliser un rapport stratégique sur le devenir de l’intelligence artificielle (ci-après IA) en France et en Europe. Le processus comportait un volet d’appel à l’opinion publique, dont j’ai parlé dans cet article (1) et un rapport qui vient d’être rendu disponible au public (2).

Le rapport insiste sur le fait que l’IA est l’un des programmes scientifiques les plus fascinants de notre époque, tout en reconnaissant le rôle majeur des fantasmes issus de la SF, qui véhiculent souvent des idéologies politiques, dans l’imaginaire public mais aussi dans la direction de développement de cette discipline.

Le rapport note la dépendance actuelle forte sur l’IA made in USA, y compris au sein même de l’Etat français (Microsoft à l’Education Nationale, Palantir à la DGSI) comme au sein des entreprises qui préfèrent souvent la sécurité des grands noms américains aux efforts locaux moins médiatisés. Le rapport insiste sur le fait que les grandes puissances géopolitiques (USA, Russie et Chine mais également le Canada, le Royaume-Uni et Israël) misent toutes sur l’IA comme l’outil leur ouvrant la domination mondiale. Rien de moins. L’IA est appelée à devenir une des clés du monde à venir. Se faire larguer dans ce secteur signifierait, pour la France comme pour l’Europe, une soumission quasi-définitive en termes technologiques.

D’entrée de jeu le rapport affirme le rôle central de l’Etat: Le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des Etats européens – qui l’appliquent trop souvent à sens unique. Tiens prends ça, CETA! L’Etat, donc, doit donner un sens au développement de l’IA. Donc un cap, donc une politique industrielle focalisée sur cinq secteurs prioritaires: l’éducation, la santé, l’écologie, les transports-mobilité et la défense-sécurité. L’éducation n’apparaît pas dans l’introduction (omission volontaire ou non je l’ignore), mais fait bien partie des cinq fiches “focus” traitant de ces secteurs.

Si j’étais zadiste, la première chose que je reconstruirais serait une cabane siglée “Laboratoire scolaire écologique d’intelligence artificielle à mobilité réduite” pour décourager les gendarmes. Bref. Les raisons pour ce choix de secteurs clés sont le lien avec l’intérêt général, la possibilité de créer des avantages comparatifs au profit de la France / Europe, et le lien indicible avec l’Etat lui-même. Par “‘avantages comparatifs” il faut sans doute entendre qualité de vie, qualité des services et des infrastructures.

Le rapport ne rate pas un point essentiel du développement de l’IA, à savoir la relation homme-machine. Il note la nécessité de penser les modes de complémentarité entre l’humain et les systèmes intelligents. Que ce soit au niveau individuel ou collectif, cette complémentarité peut prendre plusieurs formes et peut être aliénante comme libératrice. Au coeur du développement de l’IA doit résider la nécessité de mettre en oeuvre une complémentarité qui soit capacitante, en ce qu’elle permet de désautomatiser les tâches humaines. Et de rajouter, remarque essentielle: En matière d’IA, la politique d’inclusion doit ainsi revêtir un double objectif: s’assurer que le développement de ces techniques ne contribue pas à accroître les inégalités sociales et économiques; et s’appuyer sur l’IA pour effectivement les réduire.

La couleur est affichée d’emblée: Le monde du travail est à l’aube de grandes transformations et n’y est encore que peu préparé. Les incertitudes et les conséquences du développement combiné de l’intelligence artificielle, de l’automatisation et de la robotique sont très importantes, notamment concernant les emplois détruits et créés… Il est donc nécessaire de prendre le problème à bras le corps et d’agir résolument, sans céder à la panique ni au fatalisme. Une problématique directement associée au monde du travail est celle de la formation, et son financement: Le financement de la formation professionnelle est fondé sur la masse salariale. Or, le développement de l’IA renforce la mutation des chaines de valeur et entraîne une décorrélation entre les acteurs qui financent la formation professionnelle et ceux qui captent la valeur ajoutée. Autrement dit ceux qui sont susceptibles d’impacter positivement la chaîne de valeur à un certain endroit ne participent pas, à l’heure actuelle, au financement de la transition professionnelle des individus employés par d’autres secteurs de cette même chaîne mais impactés négativement. D’où l’appel à un dialogue social autour du partage de la valeur ajoutée au niveau de la chaîne de valeur entière, chose fondamentalement différente de la négociation traditionnelle par branche.

De la formation aux politiques éducatives: Plus que jamais la mission de l’école est de donner à chacun les capacités pour appréhender les transformations en cours de notre société et s’adapter dans un monde en constante évolution. Et donc de nous accompagner dans la construction d’une complémentarité capacitante avec les machines. Autrement dit, l’objectif éducatif ne devrait pas être de servir la machine mais de développer des modes de complémentarité capacitante avec elle. De plus, les compétences créatives, sociales et situationnelles seront de plus en plus sollicitées. Il est évident que la vie dans un monde intégrant l’IA implique de profonds changements de politique éducative focalisés sur la créativité plutôt que la répétition. Plus précisément, l’intégration de l’IA dans le processus d’apprentissage déchargera les professeurs du transfert de connaissances en tant que tel, et de déplacer la valeur de leur enseignement vers la scénarisation de l’expérience d’apprentissage, et l’accompagnement personnalisé des élèves.

Le rapport aborde le problème des “boîtes noires”: vu l’impact à venir de l’IA deux dangers sont identifiés, d’une part le risque de reproduire des discriminations existantes ou d’en produire de nouvelles, d’autre part la normalisation diffuse des comportements que pourrait introduire le développement généralisé d’algorithmes IA. Ces deux risques sont déjà avérés: un cas où une IA assimile les Noirs à des gorilles, un autre étant l’effet normalisateur d’électeurs via des informations très ciblées, basé sur la création de profils psychologiques (3). Il est donc nécessaire de pouvoir ouvrir ces boîtes noires, mais également réfléchir en amont aux enjeux éthiques que les algorithmes d’IA peuvent soulever.

La question de l’ouverture des boîtes noires, à mon avis, risque de buter rapidement sur la loi du secret des affaires mais c’est un autre problème. D’autant que le rapport présente le fait que l’IA, et en particulier l’IA à base d’auto-apprentissage, le modèle dominant actuel, est basé sur l’accès aux données – données aujourd’hui parcellaires, privatisées (les GAFAM) et difficilement accessible pour les pouvoirs publics, les plus petits acteurs économiques et la recherche. D’où le principe que la puissance publique doit pour cela amorcer de nouveaux modes de production, de collaboration et de gouvernance sur les données, par la constitution de “communs de données“. L’Etat doit ouvrir l’accès à ses données tout en gardant un objectif de souveraineté: la France et l’Europe doivent conserver une position ferme s’agissant du transfert de données hors de l’UE.  Il y a donc tout un travail à faire en amont afin de spécifier les modalités d’accès, la protection, et le champ d’utilisation des données et cela doit en outre se faire à un niveau européen pour avoir une masse suffisamment conséquente.

C’est sans doute un élément de la tentative de remise en ordre de marche de l’UE par Emmanuel Macron: si l’IA devient un déterminant géopolitique, une politique européenne en matière d’IA aura plus de chances de survie que 27 initiatives locales cherchant toutes à réinventer les mêmes outils.

Le rapport fait évidemment appel à pas mal de concepts technocratiques genre plateformes sectorielles de mutualisation et de bacs à sable d’innovation pour faciliter le développements d’applications IA visant les secteurs sus-mentionnés. Il appelle également à la création d’un coordinateur interministériel visant à équilibrer les grandes différences de maturité, en matière d’IA, d’un ministère à l’autre. On aura effectivement remarqué que certains ministères, et notamment celui de l’Intérieur, ont une forte immaturité côté intelligence, artificielle ou non. Passons.

Autre petite phrase à contre-courant du libéralisme ambiant: Notre mission recommande plusieurs mesures qui visent à mettre l’achat public au service du soutien aux industries européennes et à dynamiser l’achat public innovant. Très bien. Le rapport appelle également à la création, au sein d’établissements publics d’enseignement et de recherche, d’Instituts Interdisciplinaires d’IA (3IA) autonomes et coordonnés, réunissant ingénieurs, chercheurs et étudiants. Personnel qu’il faudra payer, et cher, si on ne veut pas qu’il aille se vendre ailleurs et la question salariale est également abordée. Et ces 3IA auront besoin d’un supercalculateur dédié à l’IA, capable de rivaliser avec les grands acteurs privés…

La question écologique est indissociable de l’IA du simple fait que d’ici 2040, les besoins en espace de stockage au niveau mondial, fondamentalement corrélés au développement du numérique et de l’IA, risquent d’excéder la production disponible globale de silicium. La consommation énergétique du numérique augmente de 8,5% par an, et sa part dans la consommation électrique mondiale se situera entre 20% et 50% en 2030! De futurs développements liés à l’IA devront aller au-delà de la simple optimisation énergétique et devra intégrer un paradigme de croissance plus économe et collectif, inspiré de la compréhension de la dynamique des écosystèmes, dont elle sera un outil clé. Non seulement cela mais L’IA, en permettant de modéliser la dynamique et le devenir des écosystèmes biologiques, peut contribuer à une véritable transition écologique. Le rapport en appelle à la France pour prendre le leadership mondial de cette transition.

Ce qui impliquerait à titre symbolique, à mon sens, d’envoyer sur la Zad de Notre-Dame-des-Landes non plus des gendarmes et des blindés mais des chercheurs en écologie et des développeurs d’application en IA. C’est pas gagné…

Dans cette logique de transition écologique, le rapport envisage une forte coopération de l’IA avec le monde agricole, au sein d’une agriculture augmentée où l’IA pourra accéder à l’ensemble des données de production, de transformation, de distribution et d’information du consommateur afin de les optimiser: diminution des intrants chimiques, meilleur suivi des rendements, etc… Le rapport en appelle à la profession agricole de se saisir de ces enjeux, sous peine de devoir subir les clauses et standards des grands équipementiers – la plupart étant non-français.

En matière de sécurité-défense, enfin, le rapport stipule que dans un contexte marqué par ce qui est parfois dénoncé comme une forme d’inflations de lois sécuritaires, les risques liés notamment à la surveillance de masse et à la diminution des libertés publiques ne peuvent être négligés. On comprend la mise en garde, mais on ne voit pas quelles mesures effectives pourraient être prises pour limiter la prédation sécuritaire des officines opaques qui, par définition, ne divulguent pas au public ni ce qu’elles savent ni ce qu’elles font. Il n’y a, par essence, aucun contrôle démocratique possible de l’appareil militaro-sécuritaire, et d’autant moins qu’il développe les moyens de surveillance et de contrôle lui permettant de contrer toute velléité contraire à ses intérêts.

Le rapport me semble faire l’autruche sur cette question, pourtant au cœur de la perception grand public de ce qu’est l’IA. A quoi servirait tout ceci si c’est pour vivre sous l’œil omniscient et omnipotent de Big Brother?

Dans son ensemble le rapport Villani est une plongée intéressante dans un monde en devenir où l’IA va prendre, c’est clair, une place prépondérante. Pour exister dans un état autre que la soumission aux pays ayant déjà lancés de grands programmes en matière d’IA, la France et l’Europe doivent mettre en oeuvre leur propre politique de développement et des règles de conduites dictées par nos fameuses valeurs, pourtant si souvent négligées dans les faits: démocratie, émancipation, transition écologique. Le cadre est posé, des pistes sont proposées. Il faut maintenant que les peuples, autant que les politiques, prennent conscience des enjeux.

 

Notes:

(1) https://zerhubarbeblog.net/2017/12/08/quel-controle-pour-lintelligence-artificielle/

(2) https://www.aiforhumanity.fr/

(3) https://zerhubarbeblog.net/2018/04/12/de-facebook-au-brexit-la-course-au-profil/

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

8 réponses

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.