Intelligence artificielle - weave
IA Lab

Comment justifier les décisions d’une IA pour créer la confiance ?

14 février 2018

Résumé

L’usage généralisé de modèles prédictifs dans des domaines parfois critiques pose la question de la confiance qu’on peut leur accorder. Pour créer la confiance, la disponibilité d’éléments de justification susceptibles d’être soumis au jugement humain est cruciale. Dans cet article nous décrirons les principaux enjeux de cet interprétabilité des modèles prédictifs, qu’ils soient commerciaux, légaux ou sécuritaires. Nous présenterons sur un plan conceptuel les principales solutions existantes qui permettent de produire ces pièces à conviction.

  1. Faire de bonnes prédictions ne suffit pas !
  2. Quelques solutions techniques
  3. L’interprétabilité ne doit pas être un dogme

1. Faire de bonnes prédictions ne suffit pas !

Lorsque l’on dit qu’une IA fait une prédiction il faut entendre ce terme au sens large. Ainsi un système de recommandation qui fait une suggestion prédit une affinité entre un client et un produit. Un système de classification visuelle prédit la catégorie dans laquelle il faut ranger une image. Un système de diagnostic médical prédit une pathologie sur la base de symptômes cliniques observés et un système de traduction automatique… prédit une traduction d’une phrase dans une langue cible.

Ce qu’il convient de garder à l’esprit pour notre sujet, c’est que toutes ces prédictions sont de nature statistique. Elles sont faites par des algorithmes de machine learning (ML) qui analysent de grandes quantités de données pour prédire ce qui est le plus vraisemblable dans un contexte donné. Ces algorithmes de ML n’effectuent aucun raisonnement, ils n’appliquent aucune règle, c’est d’ailleurs ce qui fait leur intérêt. Ils « apprennent » à partir d’une liste d’exemples dont ils parviennent à extraire de nombreux signaux faibles pour les agréger dans une fonction de prédiction. Ils procèdent par analogie en quelque sorte. La fonction de prédiction qu’ils créent est généralement d’une complexité inextricable et reste de ce fait inintelligible à l’esprit humain. Se pose dès lors la question de la confiance qu’on peut leur accorder à ces systèmes. Quels sont les éléments d’informations exploités par un algorithme lorsqu’il fait une certaine prédiction ?

Les ressorts psychologiques de la confiance que nous accordons à un système ou à une personne sont complexes[1]. S’agissant d’une personne, une condition fondamentale pour l’accorder est qu’elle soit douée de raison. Si tel est le cas, nous savons qu’indépendamment de la distance culturelle qui nous en sépare, celle-ci pense « comme nous ». Cela ne suffit pas naturellement pour accorder sa confiance, il faut qu’elle soit de surcroit bien informée et bien intentionnée, mais l’hypothèse de raison joue un rôle déterminant.

La confiance que nous accordons à une machine est plus indirecte. Nous l’accordons en réalité aux personnes responsables de sa conception et de sa maintenance car nous supposons qu’elles en comprennent les rouages dans le détail. En cas de défaillance nous estimons qu’elles sauront rendre des comptes auprès d’une instance de contrôle ou d’un tribunal.

Un système de ML en revanche ne pense pas et ne déduit rien. S’il est doté de parole il pourra à la rigueur engager la conversation pour commander une pizza mais restera désespérément muet si on l’interroge sur son propre mécanisme de décision.

Aujourd’hui un modèle de ML est incapable d’introspection. On ne peut l’interroger sur son propre fonctionnement. Pour parvenir à une décision il agrège une myriade de signaux faibles qu’il n’est pas aisé de traduire en une courte liste d’éléments explicatifs intelligibles à l’esprit humain.

Quels sont dès lors les éléments sur lesquels baser la confiance ? C’est le sujet de la section « Quelques solutions » mais avant cela, voyons les principaux enjeux de l’interprétabilité des prédictions d’un algorithme.

Enjeux commerciaux

A l’évidence, un utilisateur sera beaucoup plus attentif à une suggestion faite par un système de recommandation si elle celle-ci est accompagnée d’une justification qui atteste de sa pertinence à ce moment-là, pour lui et pour tel produit.

Lorsqu’un système prédictif est utilisé par un conseiller en clientèle, le besoin de justification devient presqu’indispensable. Imagine-t-on un instant un conseiller répondre à son client : « Je vous conseille de souscrire au plan d’épargne XYZ car c’est notre IA qui le suggère et je vous assure qu’elle est toujours de très bon conseil ! » ?

Enjeux légaux

La nouvelle réglementation de protection des données (RGPD) définit un cadre légal harmonisé à l’échelle européenne pour le traitement des données et entrera en vigueur en mai 2018. Elle énonce des contraintes fortes en matière de profilages des individus et formule des principes de transparence et d’accountability que l’on pourrait traduire par l’« aptitude à rendre des comptes », s’agissant d’un traitement de données. On retrouve donc, là encore, la nécessité de pouvoir formuler, le cas échéant, une explication intelligible, une liste de raisons qui ont conduit un algorithme à une décision particulière.

Enjeux de sécurité

Certains systèmes de conduite autonomes [NVI, DSH] apprennent aujourd’hui à conduire en observant les humains dans cette tâche. Les algorithmes utilisés sont des réseaux de neurones très profonds particulièrement opaques quant à leur fonctionnement, on parle à ce titre de boîte noire. Comment alors corriger le système si l’on ne sait pas interpréter ce qui a été déterminant dans l’action à l’origine d’un accident ? A qui attribuer des responsabilités ?

Des questions du même ordre se posent pour un système qui génère des transactions boursières ou pour un système d’aide au diagnostic médical qui suggère un traitement clinique.

Détection de biais dans les données

Comment savoir si un algorithme prend la bonne décision pour la bonne raison ? Imaginons un système de classification de messages se basant sur les mots qu’ils contiennent. La figure 1 illustre un exemple où deux algorithmes rangent un message dans la même catégorie mais pour des raisons complètement différentes.

L’algorithme n°2, comme on le voit, exploite des informations sans rapport avec le sens du message et on ne peut dès lors lui accorder aucune confiance. Probablement les données sont-elles entachées d’un biais qui, pour une raison obscure, corrèle le nom de la machine (Host) avec la catégorie du message. L’algorithme qui n’a cure du sens du message parvient à exploiter cette corrélation accidentelle (data-leakage) pour faire des prédictions correctes sur l’ensemble d’entraînement mais celles-ci n’ont évidemment aucune chance d’être pertinentes en règle générale. L’erreur a ici été détectée car on a su déterminer pour chacun des deux algorithmes la liste des termes déterminants pour la classification.

schéma deux algorithmes de classification de messages
Figure 1 : deux algorithmes de classification de messages classifient un même document dans la rubrique « Atheism » mais pour des raisons différentes. L’algorithme 2 exploite des informations sans relation avec le sens du message, on ne peut donc pas lui faire confiance. L’algorithme 1 paraît plus raisonnable – source [WSI].

2. Quelques solutions techniques

Dans le workflow habituel du machine learning supervisé [MLP], les performances d’un algorithme de ML sont généralement évaluées sur un jeu de données de test distinct des données utilisées pour l’entraînement et pour l’optimisation. Pourquoi alors cette procédure ne fournit-elle pas toutes les garanties souhaitables pour emporter notre confiance ? Trois raisons principales à cela :

  1. Il arrive bien souvent que les données auxquelles un algorithme est confronté une fois mis en production soient distribuées autrement que les données de test utilisées pour estimer ses performances.

Constituer un jeu de données de test qui soit véritablement représentatif des données réelles est une opération délicate.

  1. La métrique utilisée pour évaluer la performance d’un algorithme ne rend pas toujours compte correctement du ressenti des utilisateurs auxquels sont destinées les prédictions. A titre d’exemple, il est presqu’impossible de mesurer objectivement la qualité d’une recommandation d’un produit à cause de cette subjectivité.

Les métriques utilisées pour les mesures de performances sont souvent choisies pour des raisons de commodité des calculs numériques ou algébriques, plutôt que pour leur pertinence métier.

  1. Enfin, pour des raisons psychologiques déjà évoquées, beaucoup de personnes douterons toujours de la pertinence d’une décision basée sur un calcul statistique plutôt que sur un raisonnement que l’on peut soumettre à l’analyse rationnelle.

Il est délicat de proposer une définition à la fois succincte et rigoureuse d’une notion d’explication ou de justification d’une prédiction. Cependant, toutes celles que nous évoquerons ci-dessous ont en commun d’être constituées d’une brève liste d’éléments numériques, visuels ou textuels (voir la figure 1 par exemple) dont on peut affirmer qu’ils interviennent de manière déterminante dans la prédiction. On peut concevoir ces éléments comme autant des pièces à conviction[2] destinées à créer convaincre la personne à qui on les soumet que l’algorithme prend des décisions raisonnables.

La brièveté est ici essentielle car l’esprit humain ne peut appréhender plus de quelques éléments simultanément. On comprend alors que le problème de l’interprétation soit intimement lié à la problématique du ML qu’on appelle la réduction dimensionnelle et dont l’objectif est d’obtenir des représentations en basses dimensions (d=2 ou d=3) d’objets comme des images ou des textes, définis par un très grand nombre de dimensions (d=106 ou d=109).

Dans les paragraphes qui suivent nous donnerons une liste non exhaustive d’approches que l’on peut utiliser pour générer pièces à conviction susceptibles de créer de la confiance. Certaines de ces techniques peuvent être combinées.

Les solutions de visualisation

Les techniques de visualisation peuvent être utilisées pour représenter graphiquement les structures qu’un algorithme exploite ou découvre au sein d’un jeu de données. Il s’agit souvent d’opérer une réduction dimensionnelle visuelle pour mettre en évidence certaines corrélations ou certains regroupements que l’on pourra alors essayer d’interpréter ou d’expliquer. La richesse du sujet mériterait d’y consacrer un ouvrage entier mais nous nous limiterons ici à donner un exemple élémentaire qui illustre cette notion de réduction dimensionnelle.

schéma technique classique d'analyse
Figure 2 : La technique classique d’analyse en composantes principales est utilisée ici pour représenter en 2 dimensions des données initialement définies dans 4 dimensions.

Dans la figure 2, chaque point correspond à une observation (une fleur) initialement définie par 4 nombres [3]. Les deux dimensions de visualisation sont obtenues par la technique dite d’analyse en composantes principales (ACP) qui consiste à projeter les points représentatifs des observations sur un plan (défini ici par les axes PC1 et PC2) de manière à préserver autant que possible la variabilité observée dans l’échantillon. Des groupes d’observations peuvent alors plus facilement être identifiés. Chaque groupe correspond en l’occurrence à une espèce de fleur différente.

Pièces à conviction : N’importe quel graphe qui révèle la structure des données.

Pondération des variables prédictives pour des modèles linéaires parcimonieux

Certains modèles sont assez simples pour être directement interprétables. C’est le cas des modèles linéaires parcimonieux (sparse linear models). Dans un tel modèle la prédiction est une fonction d’un score s défini comme une combinaison linéaire d’un petit nombre p (<10) de variables explicatives x = (x1, x2,…, xp) pondérées par des poids wi : s = w1 x1 + w2 x2 + … + wp xp. Pour autant que les xi aient tous une amplitude de l’ordre de 1 on pourra interpréter le poids wi comme étant limportance de la variable xi dans le modèle. Le produit wi xi est la contribution de la variable xi au score s et donc à la prédiction faite pour l’observation x.

Un tel modèle peut avoir un intérêt en soi s’il parvient à faire de bonnes prédictions. Dans d’autres situations un modèle linéaire parcimonieux peut approximer localement un modèle complexe, c’est l’idée de base de l’approche LIME qui sera décrite plus loin.

Pièces à conviction : Les quelques variables qui apportent une contribution significative au score.

Extraction de règles à partir d’arbres de décision peu profonds

un exemple d'arbre de décision
Figure 3 : un exemple d’arbre de décision – source [IRF]

Les arbres de décision de faible profondeur forment une autre catégorie de modèles directement interprétables. Nous ne décrirons pas l’algorithme de ML qui permet de les construire car il s’agit d’un algorithme classique du ML (cf. p.ex. 14.4 [BSH]). L’observation x = (x1, x2,…, xp) pour laquelle on souhaite faire une prédiction est associée à la racine de l’arbre. Chaque nœud de l’arbre correspond à une question du type « xi < cnœud ? » et un lien émanant de ce nœud correspond à une réponse « oui » ou « non » à cette question. Pour calculer la prédiction pour l’observation x on parcourt le chemin dicté par la succession des réponses en partant depuis la racine jusqu’à atteindre une feuille. Chaque feuille de l’arbre correspond alors à une valeur possible de la prédiction [4].

L’interprétation d’un tel arbre de décision est constituée de l’ensemble des règles de décision associées à chaque nœud de l’arbre. Comme ces règles sont relativement peu nombreuses on pourra les examiner pour voir si elles traduisent une intuition raisonnable.

Pièces à conviction : La liste des règles de décision associées aux nœuds de l’arbre.

Pondération des variables prédictives pour les arbres de décision profonds

Lorsque les arbres de décision sont profonds, la liste des règles de décision est trop longue pour être intelligible. Il est néanmoins possible de définir une notion d’importance de variable pour le modèle dans sa globalité. Il existe tout une panoplie de méthodes implémentées dans les API de ML. En voici deux :

  • On évalue la diminution de précision dans les prédictions lorsqu’on la suppression d’une variable. La variable est considérée d’autant plus importante que cette diminution est importante.
  • Un arbre de décision est construit sur l’idée que chaque nœud contribue à homogénéiser ou à purifier les échantillons d’observations rangées à gauche ou à droite en aval d’un nœud [BSH]. Une variable peut être considérée d’autant plus importante qu’elle contribue à purifier ces échantillons, en moyenne sur tous les nœuds.

Cette notion d’importance d’une variable prédictive xi est l’équivalent du poids wi dans un modèle linéaire.

Il est également possible de définir une notion de contribution d’une variable xi à la prédiction pour une observation x. En d’autres termes, c’est l’équivalent du produit wi xi pour le cas linéaire. Pour comprendre comment, référons-nous à la figure 2 [IRF]. Pour chaque nœud, le chiffre après le libellé « Value » indique la moyenne des réponses (ou valeurs cibles) yi pour les observations de l’ensemble d’entraînement associées au nœud en question. A chaque transition entre deux nœuds est associée la variable xi qui la détermine ainsi que la différence entre les moyennes des réponses yi associées au nœud de départ et au nœud d’arrivée. La prédiction pour une observation correspond alors à la moyenne des réponses associée à la feuille située en fin de parcours (en rouge sur la figure 2). Cette prédiction est par conséquent la somme des différences successives le long du chemin (en rouge dans la figure 2) entre la racine et une feuille. La somme des différences associées à une variable xi le long du chemin peut s’interpréter comme la contribution de cette variable à la prédiction pour l’observation x.

Il existe des généralisations de ces deux concepts pour les forêts aléatoires [IRF].

Pièces à conviction : Une courte liste de variables qui apportent une contribution relative significative à la prédiction pour une observation.

Analyse d’activation maximale pour les réseaux de neurones

Les réseaux de neurones (RN) sont des algorithmes particulièrement opaques car ils contiennent un nombre très élevé de paramètres ajustables par entraînement, des dizaines de millions pour certains comme le réseau VGGNet. L’analyse d’activation maximale des réseaux de neurones est un moyen d’élucider le fonctionnement interne d’un tel modèle. L’idée consiste à identifier des groupes de neurones dont l’activité est importante dans certaines circonstances précises (figure 4). Ainsi un système d’analyse d’image conçu pour identifier de faux clients dans une foule présentera un pattern d’activation spécifique lorsqu’il détecte un intrus. C’est une manière de révéler une partie du fonctionnement d’un RN.

schéma Identification des neurones dont l'activation est importante selon les circonstances
Figure 4 : Identification des neurones dont l’activation est importante selon les circonstances – source [IIM].

Dans le même ordre d’idées on peut également identifier des patterns ou des images qui vont maximiser l’activité de tel ou tel neurone. Pour un système qui doit détecter des chats dans une image ou peut construire l’image qui va maximiser cette probabilité, ce qui fournira un archétype du concept de chat comme l’illustre la figure 5.

photo de chat floue
Figure 5 : L’image qui maximise l’activation d’un certain neurone dans un RN développé par Google. A l’évidence ce neurone détecte la présence de chats dans l’image – source [ULS]
Pièces à conviction : L’image archétype qui maximise l’activation d’un neurone.

Découvrir un programme explicatif

Un système prédictif implémenté par un programme informatique est toujours interprétable. Un programme peut en effet être soumis à l’analyse, un humain peut en comprendre le fonctionnement s’il consent à l’effort nécessaire. Tout l’intérêt du machine learning tient comme on le sait au fait qu’il permet dispense de recourir à la programmation. Alors qu’un programme devra être réécrit si l’on souhaite modifier le type de prédiction, il suffira de ré-entrainer un algorithme d’apprentissage sur de nouveaux exemples pour obtenir un nouveau système prédictif. Cette flexibilité du ML vient toutefois avec un coût : celui de devoir renoncer le plus souvent à l’interprétabilité du modèle prédictif ainsi appris.

Une équipe de Microsoft Research [RBF] a eu récemment une idée aussi simple (du moins conceptuellement) que géniale pour contourner cette limitation du ML. Plutôt que de demander à l’algorithme de ML, un RN en l’occurrence, d’apprendre à faire des prédictions sur la base d’exemples demandons-lui plutôt d’apprendre à écrire… un programme qui fasse ces prédictions ! On réconcilie du coup les deux approches. Celle du ML, puisqu’on n’écrit pas le programme et celle de la programmation puisque le code généré par le RN est par définition interprétable !

Pour tester leur idée l’équipe de Microsoft Research a étudié un problème prédictif élémentaire de mise en forme de chaîne de caractères à partir d’exemples. Il s’agit en l’occurrence de partir d’une courte liste d’exemples comme : « jOHN ® John », « aLFreD ® Alfred », « BOB® Bob » pour apprendre la mise en forme correspondante. Bien entendu il n’est pas très compliqué d’écrire un programme qui effectue cette transformation mais l’enjeu ici est d’entrainer un RN à écrire automatiquement ce genre de programme !

L’entraînement du RN se fait sur la base de milliers d’exemples qui contiennent chacun : (a) une chaîne In en entrée, (b) la chaine On souhaitée en sortie et (c) un programme (court) Pn qui implémente la transformation : On = Pn(In). Une fois le modèle entrainé, on pourra ensuite lui fournir quelques couples d’exemples d’une transformation que l’on souhaite appliquer à d’autres chaînes. Le RN génèrera alors un programme P qui implémente cette transformation comme l’illustre la figure 6.

 tableau d'exemple de transformation
Figure 6 : Après avoir fourni 3 exemples de la transformation le modèle génère un programme capable d’effectuer cette transformation sur de nouveaux exemples.

Cette démarche possède un double avantage :

  1. On pourra étudier le programme P généré par le RN pour vérifier qu’il fonctionne correctement, du moins pour une majorité de cas.
  2. On pourra tester la cohérence du programme P généré en vérifiant s’il converti correctement les entrées In dans les sorties On = P(In) sur les données d’entraînement.

Pour séduisante qu’elle paraisse, cette démarche n’en est encore qu’à ses balbutiements. Les transformations pour lesquels on sait générer efficacement des programmes sont très rudimentaires [5] et le langage informatique dont le RN doit apprendre la sémantique est lui aussi un DSL[6] excessivement simple. On est encore loin de pouvoir substituer des RN aux développeurs !

Les RN utilisés sont des réseaux de neurones récurrents et exploitent le mécanisme d’attention qui est le sujet du chapitre V [MAP].

Pièces à conviction : Le programme en DSL généré par le RN.

Localiser l’information grâce au mécanisme d’attention

Le mécanisme d’attention permet de découvrir des correspondances entre certains éléments fourni en entrée d’un RN et des éléments de la prédiction qu’il calcule. Dans [MAP] nous avons décrit le mécanisme tel qu’il est mis en œuvre dans les systèmes de traduction automatique ou dans les systèmes de description automatique d’image. La figure 7 illustre un exemple dans lequel un algorithme de description d’image commet une erreur grossière d’interprétation que le mécanisme d’attention permet d’élucider.

photo du mécanisme d'attention
Figure 7 : Le mécanisme d’attention permet ici de révéler l’origine de l’erreur d’interprétation du système de description d’image. C’est la forme de l’ouïe du violon qui à induit le système en erreur comme le montre la zone d’attention claire sur la partie droite de l’image.

Pièces à conviction : La liste des éléments sur lesquels l’algorithme focalise son attention.

Se ramener localement à un modèle interprétable

On dit parfois que les mathématiciens ne savent faire qu’une chose : se ramener au cas précédent. C’est précisément ce que propose l’approche LIME (Locally Interpretable Model-agnostic Explanation) [WSI]. Si un modèle complexe x → f(x) n’est pas interprétable, LIME propose de l’approximer localement par un modèle interprétable x → g(x’) au voisinage de l’observation x0 pour laquelle ou souhaite faire une prédiction. La figure 8 illustre la situation : le modèle original fait une prédiction binaire (régions rose ou bleue) définie par une frontière complexe. A proximité immédiate d’un point (croix rouge) on peut remplacer la frontière par un modèle linéaire interprétable.

Expliquons brièvement comment LIME construit ce modèle approximatif x → g(x’). Pour qu’il soit interprétable les variables explicatives x’ doivent être peu nombreuses. Imaginons que les variables originales x correspondent aux pixels d’une image à classer. Dans ce cas les variables x’(x) dont dépend g représentent, par exemple, la présence ou l’absence d’une plage de pixels contigus de même couleur dans l’image x. LIME demande de trouver une fonction g(x’) qui réalise à un bon compromis entre deux exigences contradictoires :

  1. Les valeurs de g(x’) doivent être proches de celles de f(x) au voisinage de x0. On construit donc g(x’) par apprentissage supervisé sur la base des valeurs prédites par f(x) dans ce voisinage.
  2. La fonction g(x’) ne doit pas être trop compliquée faute de quoi elle ne sera pas interprétable. Concrètement, pour un modèle linéaire par exemple, cela signifie que x’ ne doit pas comporter trop de variables.

Plus on permet à g d’être complexe plus elle sera proche du vrai modèle f mais moins elle sera interprétable.

schéma de la stratégie de l'approche LIME
Figure 8 : La stratégie de l’approche LIME consiste à approximer un modèle prédictif complexe (frontière rose-bleu) au voisinage d’un point (croix rouge) par un modèle interprétable, un modèle linéaire en l’occurrence (traité pointillé) – source [WSI].

L’approche LIME est intéressante mais elle possède des faiblesses qui tiennent à certains choix qui doivent être fait par tâtonnement et qui ne sont dictés par aucun choix naturel. Ainsi définir une bonne notion de proximité est délicat lorsque x est comporte à la fois des variables numériques et des variables catégorielles.

Pièces à conviction : Les variables x’ du modèle interprétable local g.

3. L’interprétabilité de doit pas être un dogme

L’interprétabilité des modèles prédictifs est un problème complexe, fascinant et encore largement ouvert. Il se situe à la confluence de plusieurs disciplines. L’apprentissage automatique en grandes dimensions qui étudie comment un algorithme de ML peut apprendre des associations complexes. Les sciences cognitives qui étudient, entre autres, le système de perception humain qui conditionne l’interprétabilité d’une donnée. La psychologie enfin qui étudie les mécanismes susceptibles de déclencher un sentiment de confiance.

Dans un futur hypothétique, l’idéal pour l’interprétabilité consisterait à engager une conversation avec une IA capable d’introspection. Inutile de dire que nous en sommes encore loin.

Dans un futur proche l’exigence d’interprétabilité sera forte, notamment sous la pression règlementaire de la RGPD 2018. Il faut pourtant se remémorer que les humains eux-mêmes ne sont pas toujours à même de motiver toutes les décisions qu’ils prennent. Celles-ci reposent sur des valeurs, sur une expérience ou sur des intérêts qu’il n’est pas toujours aisé d’expliciter. Nous accordons pourtant couramment notre confiance à quelqu’un qui a « fait ses preuves ». Des succès répétés finissent en effet par emporter la confiance. Pourquoi dès lors demanderions nous aux machines ce que nous n’exigeons pas de nos semblables ? Un système de conduite automatique ayant fait les preuves de sa fiabilité ne devrait-il pas être agréer par une autorité de certification après une période d’essai règlementaire même s’il est impossible de déterminer comment il prend ces décisions ? Les enjeux éthiques et juridiques soulevées par ces questions, on le voit, sont nombreux et subtils. L’IA est un sujet fascinant car il force à repenser des questions anciennes, celle de la responsabilité et de la capacité à rendre des comptes, sous un jour nouveau. L’attitude la plus rationnelle est peut-être celle qui admet qu’on ne peut pas forcément anticiper toutes les réponses juridiques à ces questions, que des erreurs seront commises et qu’il faudra en tirer des conclusions pour les incorporer progressivement dans une législation efficace car ancrée aussi bien dans l’expérience d’une nouvelle donne technologique que dans des principes intangibles.

Notes

[1] Ils mériteraient à eux seuls une étude complète.

[2] Il est à noter que ces pièces à convictions ne coïncident pas forcément avec les variables prédictives du problème.

[3] Ceux-ci caractérisent la longueur et la largeur des pétales et des sépales

[4] Définie comme la moyenne des valeurs cibles des observations d’entraînements rangés dans cette feuille pour un algorithme de régression par exemple.

[5] Ce sont essentiellement des transformations que l’on peut écrire comme des expressions régulières.

[6] DSL = Domain Specific Language

Références

L'Intelligence Artificielle,
au-delà des clichés

Livre blanc
Comprendre pour décider
Découvrez l'Intelligence Artificielle pour l'intégrer dès maintenant à vos enjeux stratégiques !
Téléchargez gratuitement

Les informations recueillies sur ce formulaire sont enregistrées dans un fichier informatisé de gestion des Clients et Prospects (CRM).

Le Responsable de traitement est la société weave, 37 rue du rocher 75008 Paris RCS Paris 802 396 085.

Elles sont destinées à l’activité marketing du groupe weave ainsi quà celle de ses filiales, à l’exclusion de tout transfert hors de l’UE. Elles sont conservées pour une durée conforme aux dispositions légales (par exemple 3 ans pour les données prospects).

Ce traitement nécessite votre consentement que vous pourrez retirer à tout moment sans que cela ne remette en cause sa licéité.

Conformément à la loi « Informatique et Libertés » et au règlement européen n°2016/679, vous bénéficiez d’un droit d’accès, de rectification ou d’effacement, ainsi que d’un droit à la portabilité de vos données ou de limitation du traitement. Vous pouvez également pour des raisons tenant à votre situation particulière, vous opposer au traitement de vos données et donner des directives relatives à la conservation, à l’effacement et à la communication de vos données après votre décès. Vous disposez également du droit d’introduire une réclamation auprès de la Commission Nationale de l’Informatique et des Libertés (www.cnil.fr).

Vous pouvez exercer vos droits en nous contactant à l’adresse vosdonnees@weave.eu.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour mesurer notre audience, vous proposer des contenus et des offres personnalisées, ainsi que des fonctionnalités de partage sur les réseaux sociaux. En savoir plus sur notre politique de cookies et notre charte des données personnelles