Intelligence artificielle - weave
IA Lab

AI for Humanity : au coeur des enjeux de l’IA

30 mars 2018

ai humanity

« The place to be »

C’est un peu le sentiment que partageaient beaucoup de participants au Sommet de L’intelligence artificielle au Collège de France ce matin du 29 mars. Le casting des orateurs était particulièrement impressionnant puisque se trouvaient réunies-là quelques-unes des plus brillantes têtes pensantes de la discipline. Notre ministre de l’économie, Bruno Lemaire, a lui-même reconnu être intimidé par Demis Hassabis, fondateur de Google DeepMind et directeur de recherche du projet AphaGo. Une humilité plutôt de bon aloi venant d’un politique. Mais jugez plutôt :

  • Cédric Villani, médaille Fields et accessoirement député en charge de la mission sur l’IA,
  • Stéphane Mallat, mathématicien titulaire de la chaire en sciences des données au Collège de France,
  • Yann Le Cun, directeur de Facebook AI Research à New York et inventeur des réseaux de neurones de convolution, utilisés par tous les systèmes d’analyse d’images,
  • Stuart Russel, un informaticien de l’université de Berkeley, auteur d’un ouvrage de référence sur l’IA utilisé dans 1200 universités,
  • Cathy O’Neil, mathématicienne, célèbre pour son ouvrage Weapons of Math Destruction, en pointe sur la réflexion des enjeux démocratiques de l’IA.
  • Fei Fei Li, directrice du labo de recherche en IA à Stanford, physicienne et militante inlassable pour la diversité culturelle et la mixité dans le monde de la recherche sur l’IA.

 

Cédric Villani au sommet de l'Intelligence Artificielle, jeudi 29 mars, à Paris
Cédric Villani au sommet de l’Intelligence Artificielle, jeudi 29 mars, à Paris

 

Bien sûr les cyniques et les désabusés de service ne manqueront pas de tourner en dérision ce genre d’événement, n’y voyant que de la « com » gouvernementale pour la remise d’un (n+1)ème rapport, dont la seule utilité serait de caler quelques armoires bancales d’ici quelques mois.

Et si pour une fois on laissait les vieilles rengaines défaitistes et l’autodénigrement au placard ? Cela n’empêche pas la lucidité. Sans doute 1,5 milliard d’euros à l’échelle de la France ne suffiront-ils pas à l’emporter face à la Chine et aux USA dans la course à l’IA. Sans doute faut-il passer à l’échelle de l’Europe, qui n’est pas une entité aussi homogène culturellement et économiquement que les deux mastodontes précédents. Mais on peut ne pas être un mastodonte et ne pas être insignifiant pour autant. En témoigne par exemple la vitalité du tissu de startups et la recherche de pointe en IA menée par Israël.

Pour ma part j’ai plutôt envie d’être optimiste et de me réjouir qu’une mission de cette importance ait été confiée à une personnalité aussi compétente et aussi impliquée que l’est M. Cédric Villani. Voilà déjà un motif de fierté tout à fait légitime. Quel autre pays peut s’enorgueillir d’avoir dans ses rangs un politicien d’une telle envergure scientifique ? La puissance publique ne peut pas tout, certes (la Silicon Valley est née sans l’aide de l’état), mais elle peut définir des priorités, fixer les règles du jeu pour préserver l’intérêt général, affirmer la primauté de certaines valeurs face aux intérêts à court terme. Elle est ici pleinement dans son rôle.

Choisies sur la base de mes propres centres d’intérêt, voici quelques idées qui ont plus particulièrement retenu mon attention.

Comprendre l’intelligence humaine

Pour inaugurer les échanges et avant de plonger dans la technique, le business et la finance de l’IA, un face à face entre Justine Cassell et Laurence Devillers se proposait de définir ce qu’est l’intelligence humaine. Une gageure étant donné le temps imparti de … 15 minutes !

Les deux intervenantes ont insisté sur l’aspect fondamentalement social de l’intelligence humaine, dont l’IA devrait peut-être un jour s’inspirer pour progresser. L’intelligence humaine est en effet faite de désirs, de projets, d’empathie et de projections psychologiques. L’intelligence artificielle est quant à elle une intelligence purement apprenante, sans conscience, sans désirs ni bons sens. Elle est même dépourvue, pour l’instant, d’une véritable compréhension du monde. Une boutade célèbre dans le monde l’IA affirme d’ailleurs :

Une IA est une machine capable de jouer aux échecs à la perfection… dans une chambre qui brûle.

L’IA est aussi une formidable opportunité pour réfléchir à ce qui fait la nature profonde et spécifique de l’homme face à la machine.

La capacité de projection psychologique des humains sur des IA totalement dépourvues de sensibilité et d’intentions peut être source de problèmes éthiques, si on les utilise pour tenir compagnie à des personnes isolées par exemple.

Limites et possibilités des réseaux de neurones

Ce sujet a été abordé dans un face à face entre Stuart Russel (UC Berkley) et Stéphane Mallat (Collège de France).

 

A gauche : Stéphane Mallat (Collège de France), à droite : Stuart Russell (UC Berkeley)
A gauche : Stéphane Mallat (Collège de France), à droite : Stuart Russell (UC Berkeley)

 

D’un point de vue de la recherche en mathématiques, le monde de la data science est un monde encore un peu sauvage et mal défriché. Si le Deep Learning constitue un modèle efficace d’apprentissage dans beaucoup de situations (à condition d’utiliser des architectures adaptées), la raison profonde de la capacité des réseaux de neurones à faire des prédictions à partir de données demeure encore un mystère. L’apprentissage automatique c’est en effet non seulement des données (souvent beaucoup de données d’où le Big Data) et également une forme de régularité cachée dans les données caractérisées par une myriades de caractéristiques (des features disent les data scientists) qui les rendent exploitables à des fins prédictives. Pour Stéphane Mallat la solution de ce mystère est un enjeu important, non seulement pour la recherche fondamentale, mais également pour résoudre le problème de l’ « explicabilité » des algorithmes qui demeurent encore largement des boites noires.

Pour améliorer les algorithmes de Deep Learning il faut que les humains comprennent ce qu’apprennent les réseaux de neurones profonds.

Stuart Russel a de son côté insisté sur la nécessité pour l’IA de demain de dépasser le modèle restrictif du Deep Learning constitué de réseaux figés, pour construire des systèmes aux capacités d’expressions beaucoup plus riches comme le sont par exemple la logique, les langages de programmation ou le langage naturel. Il s’agira dans le futur de combiner les capacités d’apprentissage associatif des réseaux profonds avec l’expressivité d’un langage de programmation.

Biais de données, défauts algorithmiques et impacts démocratiques

De prime abord on s’attache au look un zeste gothique du personnage de Cathy O’Neil (soutane noire et cheveux bleus) mais on l’oublie rapidement pour écouter attentivement ses mises en garde sur les dangers que peuvent représenter des algorithmes tombés en de mauvaises mains. Des algorithmes qui ont un impact direct et grandissant sur nos vies, que nous sollicitions un prêt ou cherchions un emploi par exemple.

 

Cathy O'Neil, auteure de "Weapons of Math Destruction"
Cathy O’Neil, auteure de « Weapons of Math Destruction »

 

La nature mathématique des algorithmes contribue à en faire des objets intimidants ce qui ne facilite pas leur examen critique par des non-experts. Le risque principal, c’est que :

…les algorithmes encapsulent une vision du monde.

Les algorithmes d’apprentissage s’appuient toujours sur le passé, un passé qui risque de devenir une norme si on ne le remet pas en question.

Cathy O’Neil illustre son propos avec l’exemple d’un algorithme de RH de recrutement au sein d’une société à la culture sexiste, comme a pu l’être Fox News. En voulant  prendre en compte des critères positifs (promotion, augmentation salariale, etc…), il pourrait être amené à choisir des personnes qui ne sont pas nécessairement les plus compétentes, les autres ayant quitté l’entreprise plus tôt.

Cathy O’Neil n’aime pas non plus le modèle économique de Facebook et insiste sur le fait qu’on ne peut prétendre optimiser simultanément les revenus d’un réseau social et la vérité des informations qu’il véhicule.

La compétition mondiale en IA

Face à face entre Sam Altman de OpenAI et Antoine Petit président du CNRS.

Sam Altman estime que l’IA est un facteur de transformation majeur de l’humanité. A ce titre, et en cohérence avec la vocation d’OpenAI, il estime qu’une recherche effectuée sur un mode compétitif n’est pas efficace et qu’il faudrait lui substituer un modèle de coopération. Un point de vue que certains ne manqueront pas de qualifier de naïf mais que je préfère pour ma part considérer comme courageux et, en fin de compte, plus réaliste à long terme.

Antoine Petit nous rend attentif au fait que si nous (français, européens) étions leaders dans l’IA nous n’aurions pas besoin d’un Sommet de l’IA avec un joli slogan « AI for Humanity ». Il nous invite à ne pas faire preuve d’angélisme :

Il ne faudrait pas qu’en Europe nous devenions les champions de l’éthique de l’IA pendant que la Chine et les USA deviennent, eux, des champions du business et de la technique.

Un peu de realpolitik qui ne nuit pas forcément aux objectifs humanistes affichés durant ce sommet.

L'Intelligence Artificielle,
au-delà des clichés

Livre blanc
Mieux comprendre pour mieux décider
Découvrez l'Intelligence Artificielle pour l'intégrer dès maintenant à vos enjeux stratégiques !
Téléchargez gratuitement

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour mesurer notre audience, vous proposer des contenus et des offres personnalisées, ainsi que des fonctionnalités de partage sur les réseaux sociaux. En savoir plus.