Intelligence artificielle, de quoi parle-t-on ?

25 mars 2022

L’intelligence artificielle (ou IA) est de plus en plus présente dans notre quotidien, notamment au travers de nouveaux produits ou services. Elle repose cependant sur des algorithmes gourmands en données, souvent personnelles, et son usage nécessite le respect de certaines précautions.

Qu’est-ce qu’une intelligence artificielle ?

L’intelligence artificielle n’est pas une technologie à proprement parler mais plutôt un domaine scientifique dans lequel des outils peuvent être classés lorsqu’ils respectent certains critères. Pour se familiariser avec ce domaine, il peut être utile de se référer au glossaire de l’IA publié par la CNIL.

Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

Cette définition pourrait être élargie en incluant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche). À titre d’exemple, le système d’IA AlphaGo, capable de battre le champion du jeu de go Lee Sedol, est très doué pour élaborer des stratégies à ce jeu, mais ses capacités s’arrêtent ici. Il sera incapable de jouer aux échecs ou d’effectuer d’autres tâches tant que celles-ci ne lui auront pas été inculquées.

Tout système mettant en œuvre des mécanismes proches de celui d’un raisonnement humain pourrait ainsi être qualifié d’intelligence artificielle.

Les algorithmes en pratique : l’exemple des agents conversationnels

Cet exemple vise à illustrer l’utilisation des algorithmes d’intelligence artificielle, et en particulier du traitement automatique du langage, pour le fonctionnement des agents conversationnels tels que des assistants vocaux ou des chatbots textuels.

Découvrir l'exemple

Pourquoi est-ce important de reconnaître la présence d’une IA ?

Comme toute nouvelle technologie, les systèmes utilisant de l’intelligence artificielle sont encore sujets à des défaillances, à des attaques, ou peuvent avoir des impacts encore insoupçonnés sur les individus et sur la société. Sans remettre en cause les avantages que peuvent proposer ces systèmes, il est néanmoins primordial de connaître les risques auxquels ils exposent les utilisateurs.

Premièrement, tout comme l’humain, ils sont sujets à l’erreur, que celle-ci soit due à une défaillance ou à une discrimination intégrée dans l’outil : on parle alors de biais.

Sur ce point, le règlement général sur la protection des données précise que :

La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire.

- article 22 du RGPD

Autrement dit, l’humain doit garder la main, ce qui a été développé par la CNIL dans un rapport sur les enjeux éthiques de l’intelligence artificielle où les questions d’autonomie et de prise de décision automatisée sont abordées.

Toute personne a ainsi le droit de s’opposer à certains traitements automatisés lorsque ceux-ci n’intègrent pas une intervention humaine dans le processus de décision.

Mon manager est un robot : l’IA en gestion des ressources humaines

Les techniques d’intelligence artificielle sont parfois utilisées pour la gestion de ressources humaines, par exemple comme outil d’aide à la décision. Les employeurs doivent veiller à garantir un équilibre entre amélioration des performances, protection des données et management de qualité.

Découvrir l'exemple

Pourquoi une IA fait-elle des erreurs ?

Étant donné la complexité des systèmes utilisant l’intelligence artificielle, les sources d’erreur peuvent être multiples.

Les erreurs liées à la conception du système

On distingue en premier lieu les erreurs dans la conception du système, elles peuvent être liées à plusieurs causes.

Un manque de représentativité

Si certains cas réels n’ont pas été pris en compte dans les données d’entraînement, on parle de manque de représentativité.

Exemple : certains algorithmes de reconnaissance faciale entraînés sur des ensembles de données où les personnes de certaines origines ethniques étaient en nombre insuffisant.

Une hypothèse trop approximative

En tant qu’abstraction mathématique, l’algorithme repose sur des hypothèses dont certaines peuvent s’avérer trop approximatives.

Exemple : les algorithmes d’évaluation de la performance des enseignants aux États-Unis ont causé de nombreuses plaintes car l’hypothèse selon laquelle les notes des élèves étaient une preuve directe de la performance d’un enseignant était trop simpliste.

De mauvais critères retenus

Lors de l’entraînement de l’algorithme, celui-ci est évalué sur la réalisation d’une tâche selon certains critères, ou métriques. Les critères et le seuil final choisis ont des conséquences importantes sur la qualité du système final.

Exemple : un seuil bas correspond en réalité à un taux d’erreur plus important délibérément accepté par le concepteur du système. Pour un algorithme de diagnostic médical par exemple, on souhaite surtout éviter les faux négatifs car en cas de faux positif, il nous est toujours possible d’effectuer davantage de tests. Il pourra ainsi être choisi d’utiliser un seuil bas pour les faux positifs (ce qui augmente leur nombre) si cela permet d’avoir un seuil plus élevé sur les faux négatifs (ce qui réduira leur nombre).

Les erreurs liées aux conditions d’utilisation

Des erreurs peuvent également survenir à cause des conditions d’utilisation du système d’IA.

Une mauvaise qualité des données

La qualité des données fournies au système lors de son utilisation modifie sa performance.

Exemple : cela peut être observé lorsqu’on utilise un assistant vocal dans un environnement bruyant : la qualité de la compréhension de l’assistant en est alors diminuée.

Des défauts liés au matériel ou à ses contraintes

Quand le système est dépendant de composants physiques comme des capteurs, la qualité de la sortie du système dépendra de l’état de ces composants.

Exemple : un système de détection d’incivilités par vidéosurveillance pourra être sujet à plus d’erreurs si déployé sur un parc de caméra de résolution insuffisante.

Les autres risques de défaillance

Enfin, comme tout système complexe, les systèmes d’intelligence artificielle ne sont pas exempts des défaillances classiques des systèmes informatiques qui peuvent intervenir sur les infrastructures physiques où sont réalisés les calculs, lors de la communication d’information, ou encore à cause d’une erreur humaine.

Là où les systèmes d’intelligence artificielle se distinguent de systèmes informatisés plus classiques, c’est dans les difficultés que posent l’identification du problème : on parle de l’explicabilité. En effet, et en particulier dans les systèmes appelés « profonds », tels que les réseaux de neurones, le nombre de paramètres utilisés fait qu’il est souvent impossible de comprendre d’où vient l’erreur. Pour limiter ce risque, il est recommandé de conserver certaines données utiles au système pour une durée proportionnée : c’est la traçabilité.

Dis-moi ce que tu cherches, je te dirai qui tu es : les algorithmes de profilage en ligne

Sans que les internautes en soient forcément conscients, l’intelligence artificielle, en particulier la technique de partitionnement (clustering), est utilisée chaque jour dans le développement d’outils de profilage en ligne. La proposition de contenus pertinents en liens avec leurs centres d’intérêts doit s’effectuer dans le respect de leurs droits.

Découvrir l'exemple

Où la CNIL intervient-elle ?

L’accompagnement de la CNIL

La CNIL est attentive au développement de ces nouveaux outils.

Tout d’abord, dans le cadre de sa mission d’accompagnement, pour pouvoir conseiller utilement les pouvoirs publics, les chercheurs et les entreprises.

Ensuite, au travers des missions de contrôles qu’elle réalise sur des dispositifs effectivement mis en œuvre.

Enfin, par une action de veille visant par exemple à identifier de nouveaux modes d’attaques ou des biais conduisant à des traitements de données illicites.

Afin d’apporter un éclairage sur les enjeux de l’intelligence artificielle (IA) et d’accompagner les professionnels dans la mise en conformité de leurs projets, la CNIL publie un ensemble de contenus dédiées à l’IA. Elle invite chacun à contribuer et enrichir ces travaux via l’adresse dédiée ia[@]cnil.fr.

De nouveaux cadres européens à venir

Plusieurs cadres réglementaires visant à préciser les conditions d’utilisation de l’intelligence artificielle sont actuellement en cours d’élaboration au niveau européen. De nombreux textes, qui auront des implications en termes de protection des données, devraient ainsi voir le jour dans les années à venir.

  • Premièrement, le règlement ePrivacy (évolution de la directive ePrivacy actuelle) précisera quelles règles du RGPD seront applicables dans la protection de la vie privée en ligne des citoyens. Ce texte pourrait avoir des conséquences majeures pour les acteurs de l’intelligence artificielle qui proposeront des services de communication électroniques.
  • Le Digital Markets Act (DMA), le Digital Services Act (DSA), et le Digital Governance Act (DGA), encadreront le marché des grandes plateformes numériques. Le DSA, notamment, a pour objectif d’accentuer la transparence et la responsabilisation (accountability), des plateformes envers les usagers. Ce texte pourrait également avoir des conséquences pour les plateformes utilisant des algorithmes de recommandation. Plus récemment introduit, le Data Act, vise à faciliter les échanges de données au sein de l’Europe.
  • Enfin, le règlement sur l’intelligence artificielle (RIA) proposé par la Commission européenne en avril 2021, proposera une approche par les risques pour encadrer les usages des systèmes d’intelligence artificielle et faciliter l’émergence de solutions innovantes et respectueuses des droits et libertés des personnes. La CNIL s’est prononcée avec ses homologues européens sur ce texte, et s’est positionnée pour assumer le rôle d’autorité de contrôle en charge de l’application du règlement en France.

Vous souhaitez contribuer ?

Écrivez à ia[@]cnil.fr