Comment aborde-t-on les questions réglementaires en intelligence artificielle ?
Les questions réglementaires doivent se confronter à la réalité technique. À Télécom Paris, nous adoptons une approche interdisciplinaire à travers le programme Operational AI Ethics qui regroupe six disciplines : mathématiques appliquées, statistiques, informatique, économie, droit et sociologie. L’interdisciplinarité est passionnante, mais demande du travail ! Nous parlons chacun des langages différents, nous devons donc construire des ponts entre nos différentes disciplines scientifiques.
Où en est la réglementation en matière d’IA en Europe ?
L’IA n’est pas une zone de non-droit. La réglementation existante s’applique déjà à l’IA, que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé (dispositifs médicaux), la finance (modèles de trading, de solvabilité), ou l’automobile par exemple.
Alors pourquoi le « European AI Act » propose-t-il d’ajouter une réglementation spécifique ?
Les logiciels d’IA, et en particulier ceux du Machine Learning (ML), posent des problèmes nouveaux. Les logiciels « traditionnels » — l’IA symbolique appelée parfois « good old fashioned IA — GOFIA » — sont développés à partir de spécifications précises, avec des données de sortie certaines et prouvables. Ce sont des algorithmes déterministes : la donnée d’entrée « a » plus la donnée d’entrée « b » conduiront toujours à la donnée de sortie « c ». Si ce n’est pas le cas, il y a un bug.
En ML, les algorithmes se créent eux-mêmes en apprenant à partir de grands volumes de données.
En ML, les algorithmes se créent eux-mêmes en apprenant à partir de grands volumes de données et fonctionnent de façon probabiliste. Leurs résultats sont exacts la plupart du temps. De plus, ils peuvent fonder leurs prédictions sur des corrélations non pertinentes qu’ils ont apprises dans les données d’apprentissage. Le risque d’erreurs est une caractéristique inévitable des modèles de ML probabilistes, ce qui soulève de nouvelles questions sur le plan de la régulation, notamment pour des systèmes d’IA à haut risque. Est-il possible d’utiliser un algorithme probabiliste dans un système critique, comme la reconnaissance d’images dans une voiture autonome ? D’autant que les algorithmes de ML sont relativement inintelligibles.
L’accident en Arizona de la voiture autonome Uber en 2018 est une illustration parfaite du problème. Le système de reconnaissance d’images a appris qu’un humain traverse la route généralement près d’un passage clouté. Un piéton traversait la route avec son vélo loin du passage piéton, et le système a classifié l’image comme étant un véhicule, non un piéton, jusqu’à la dernière seconde avant la collision. La voiture n’a pas freiné à temps et le piéton a été tué. De plus, le conducteur censé superviser le système était inattentif (l’inattention est un phénomène fréquent appelé « automation complacency »). Le défi pour l’avenir sera d’entourer ces systèmes probabilistes — qui sont très performants pour des tâches comme la reconnaissance d’images — de garde-fous. Des systèmes hybrides, qui combinent le ML et l’IA symbolique, sont une voie prometteuse.
Comment peut-on réglementer pour répondre à ce problème ?
Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe. Le premier défi est de définir ce qu’on entend par un système d’IA à haut risque ! Actuellement, cela intègrerait les logiciels utilisés par la police, pour la notation de solvabilité pour l’octroi de crédits, pour l’étude des dossiers de candidats à l’université ou à un poste en entreprise, les logiciels embarqués dans des voitures, etc. La liste sera évolutive. La reconnaissance faciale en temps réel utilisée par la police à des fins d’identification sera soumise à des contraintes particulières, notamment à des tests indépendants, et à l’intervention d’au moins deux opérateurs humains avant de confirmer un « match ».
Pour les autres systèmes à haut risque, le projet de règlement envisage des tests de conformité par l’entreprise elle-même. Chaque système devra faire l’objet d’une étude de risques et être accompagné d’une documentation les expliquant, si existants. Les systèmes devront garantir un contrôle humain efficace. L’exploitant du système devra générer des journaux d’événements (logs) permettant l’auditabilité du système. Pour les systèmes d’IA intégrés dans des systèmes déjà couverts par la réglementation (les dispositifs médicaux, par exemple), le régime de tests et de conformité sera régi par la réglementation sectorielle. On évite ainsi de créer des doublons dans la réglementation.
Pourquoi les algorithmes de ML suscitent-ils autant de méfiance alors que l’on accepte des risques dans d’autres domaines ?
Cette méfiance n’est pas nouvelle. Le rapport Tricot de 1975 — le rapport qui a conduit en France à l’adoption de la loi informatique et libertés en 1978 — évoquait déjà la méfiance à l’égard de systèmes informatiques qui réduisent l’être humain à une série de probabilités statistiques. En nous réduisant à des chiffres, de tels systèmes nient notre individualité et notre humanité. Nous sommes habitués au profilage statistique lorsqu’il s’agit de recevoir une publicité sur Facebook ou une recommandation de musique sur Deezer. Mais pour des décisions plus graves — une décision d’embauche, l’admission à une université, le déclenchement d’un contrôle fiscal, ou l’obtention d’un prêt — être jugé uniquement sur un profil statistique pose problème, surtout lorsque l’algorithme qui crée le profil est inintelligible !
L’algorithme doit apporter un éclairage statistique à la question, mais ne remplace pas le discernement et la nuance d’un décisionnaire humain.
L’algorithme doit donc apporter un éclairage statistique à la question, mais jamais remplacer le discernement et la nuance d’un décisionnaire humain. Mais attention, il ne faut pas non plus minimiser les défauts humains — aux États-Unis, des données suggèrent que les juges adoptent des décisions d’emprisonnement plus lourdes avant la pause déjeuner lorsqu’ils ont faim. Les algorithmes peuvent aider à compenser ces biais humains.