L'Intelligence Artificielle

Rédigé le 01/07/2023
Philippe BRNB


L’intelligence artificielle (ou IA) est de plus en plus présente dans notre quotidien, notamment au travers de nouveaux produits ou services. Elle repose cependant sur des algorithmes gourmands en données, souvent personnelles, et son usage nécessite le respect de certaines précautions.



Qu’est-ce qu’une intelligence artificielle ?

Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Cette définition pourrait être élargie en incluant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche). À titre d’exemple, le système d’IA AlphaGo, capable de battre le champion du jeu de go Lee Sedol, est très doué pour élaborer des stratégies à ce jeu, mais ses capacités s’arrêtent ici. Il sera incapable de jouer aux échecs ou d’effectuer d’autres tâches tant que celles-ci ne lui auront pas été inculquées. Tout système mettant en œuvre des mécanismes proches de celui d’un raisonnement humain pourrait ainsi être qualifié d’intelligence artificielle.

Pourquoi est-ce important de reconnaître la présence d’une IA ?

Comme toute nouvelle technologie, les systèmes utilisant de l’intelligence artificielle sont encore sujets à des défaillances, à des attaques, ou peuvent avoir des impacts encore insoupçonnés sur les individus et sur la société. Sans remettre en cause les avantages que peuvent proposer ces systèmes, il est néanmoins primordial de connaître les risques auxquels ils exposent les utilisateurs.

Premièrement, tout comme l’humain, ils sont sujets à l’erreur, que celle-ci soit due à une défaillance ou à une discrimination intégrée dans l’outil : on parle alors de biais. Sur ce point, le règlement général sur la protection des données précise que : La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. - article 22 du RGPD
Autrement dit, l’humain doit garder la main, ce qui a été développé par la CNIL dans un rapport sur les enjeux éthiques de l’intelligence artificielle où les questions d’autonomie et de prise de décision automatisée sont abordées. Toute personne a ainsi le droit de s’opposer à certains traitements automatisés lorsque ceux-ci n’intègrent pas une intervention humaine dans le processus de décision.



Pourquoi une IA fait-elle des erreurs ?

Étant donné la complexité des systèmes utilisant l’intelligence artificielle, les sources d’erreur peuvent être multiples.
Les erreurs liées à la conception du système
On distingue en premier lieu les erreurs dans la conception du système, elles peuvent être liées à plusieurs causes.
Un manque de représentativité
Si certains cas réels n’ont pas été pris en compte dans les données d’entraînement, on parle de manque de représentativité.
Exemple : certains algorithmes de reconnaissance faciale entraînés sur des ensembles de données où les personnes de certaines origines ethniques étaient en nombre insuffisant.
Une hypothèse trop approximative
En tant qu’abstraction mathématique, l’algorithme repose sur des hypothèses dont certaines peuvent s’avérer trop approximatives.
Exemple : les algorithmes d’évaluation de la performance des enseignants aux États-Unis ont causé de nombreuses plaintes car l’hypothèse selon laquelle les notes des élèves étaient une preuve directe de la performance d’un enseignant était trop simpliste.
De mauvais critères retenus
Lors de l’entraînement de l’algorithme, celui-ci est évalué sur la réalisation d’une tâche selon certains critères, ou métriques. Les critères et le seuil final choisis ont des conséquences importantes sur la qualité du système final.
Exemple : un seuil bas correspond en réalité à un taux d’erreur plus important délibérément accepté par le concepteur du système. Pour un algorithme de diagnostic médical par exemple, on souhaite surtout éviter les faux négatifs car en cas de faux positif, il nous est toujours possible d’effectuer davantage de tests. Il pourra ainsi être choisi d’utiliser un seuil bas pour les faux positifs (ce qui augmente leur nombre) si cela permet d’avoir un seuil plus élevé sur les faux négatifs (ce qui réduira leur nombre).
Les erreurs liées aux conditions d’utilisation
Des erreurs peuvent également survenir à cause des conditions d’utilisation du système d’IA.
Une mauvaise qualité des données
La qualité des données fournies au système lors de son utilisation modifie sa performance.
Exemple : cela peut être observé lorsqu’on utilise un assistant vocal dans un environnement bruyant : la qualité de la compréhension de l’assistant en est alors diminuée.
Des défauts liés au matériel ou à ses contraintes
Quand le système est dépendant de composants physiques comme des capteurs, la qualité de la sortie du système dépendra de l’état de ces composants.
Exemple : un système de détection d’incivilités par vidéosurveillance pourra être sujet à plus d’erreurs si déployé sur un parc de caméra de résolution insuffisante.
Les autres risques de défaillance
Enfin, comme tout système complexe, les systèmes d’intelligence artificielle ne sont pas exempts des défaillances classiques des systèmes informatiques qui peuvent intervenir sur les infrastructures physiques où sont réalisés les calculs, lors de la communication d’information, ou encore à cause d’une erreur humaine.
Là où les systèmes d’intelligence artificielle se distinguent de systèmes informatisés plus classiques, c’est dans les difficultés que posent l’identification du problème : on parle de l’explicabilité. En effet, et en particulier dans les systèmes appelés « profonds », tels que les réseaux de neurones, le nombre de paramètres utilisés fait qu’il est souvent impossible de comprendre d’où vient l’erreur. Pour limiter ce risque, il est recommandé de conserver certaines données utiles au système pour une durée proportionnée : c’est la traçabilité.



Où la CNIL intervient-elle ?

L’accompagnement de la CNIL
La CNIL est attentive au développement de ces nouveaux outils. Tout d’abord, dans le cadre de sa mission d’accompagnement, pour pouvoir conseiller utilement les pouvoirs publics, les chercheurs et les entreprises. Ensuite, au travers des missions de contrôles qu’elle réalise sur des dispositifs effectivement mis en œuvre. Enfin, par une action de veille visant par exemple à identifier de nouveaux modes d’attaques ou des biais conduisant à des traitements de données illicites.

De nouveaux cadres européens à venir
Plusieurs cadres réglementaires visant à préciser les conditions d’utilisation de l’intelligence artificielle sont actuellement en cours d’élaboration au niveau européen.
Premièrement, le règlement ePrivacy (évolution de la directive ePrivacy actuelle) précisera quelles règles du RGPD seront applicables dans la protection de la vie privée en ligne des citoyens. Ce texte pourrait avoir des conséquences majeures pour les acteurs de l’intelligence artificielle qui proposeront des services de communication électroniques.
Le Digital Markets Act (DMA), le Digital Services Act (DSA), et le Digital Governance Act (DGA), encadreront le marché des grandes plateformes numériques. Le DSA, notamment, a pour objectif d’accentuer la transparence et la responsabilisation, des plateformes envers les usagers. Ce texte pourrait également avoir des conséquences pour les plateformes utilisant des algorithmes de recommandation. Plus récemment introduit, le Data Act, vise à faciliter les échanges de données au sein de l’Europe.
Enfin, le règlement sur l’intelligence artificielle (RIA) proposé par la Commission européenne en avril 2021, proposera une approche par les risques pour encadrer les usages des systèmes d’intelligence artificielle et faciliter l’émergence de solutions innovantes et respectueuses des droits et libertés des personnes. La CNIL s’est prononcée avec ses homologues européens sur ce texte, et s’est positionnée pour assumer le rôle d’autorité de contrôle en charge de l’application du règlement en France.