L’industrie des Intelligences Artificielles (IA) génératives est en pleine expansion. Selon Bloomberg, elle devrait atteindre 1 300 Milliards de dollars d’ici 2032. Mais cette croissance exponentielle inquiète mondialement, et pose la question de la sécurité et de la législation de ce marché. Face à ce marché grandissant Microsoft, Google, OpenAI et la start-up Anthropic – quatre géants américains de l’IA – s’allient pour s’autoréguler face à la méfiance grandissante, l’Europe envisage des réglementations et le Premier ministre britannique, Rishi Sunak, a annoncé que le premier sommet mondial dédié à l’intelligence artificielle se tiendra au Royaume-Uni d’ici la fin de l’année.
Face à la place croissante des systèmes d’IA dans notre quotidien, la CNIL a initié une démarche inédite en instaurant un département spécifiquement dédié à ce domaine. Sous l’égide de Félicien Vallet, l’autorité de régulation cherche à appliquer sa philosophie régulatrice autour d’enjeux majeurs de sécurité, de transparence et d’automatisation.
Pourquoi la CNIL a‑t-elle ressenti la nécessité d’instaurer un nouveau service exclusivement consacré aux intelligences artificielles ?
La CNIL, autorité de régulation depuis 1978, est chargée de la protection des données. Depuis 2018, notre texte de référence en la matière est le RGPD. Dernièrement, nous sommes saisis sur des questions de traitements de données à caractère personnel de plus en plus basés sur l’IA, quel que soit le secteur d’activité. À la CNIL, nous sommes plutôt organisés de manière sectorielle avec des services dédiés à la santé ou aux affaires régaliennes par exemple. Ainsi, la CNIL observe que les usages de l’IA dans les domaines de la lutte contre la fraude fiscale (par exemple, la détection automatisée de piscines à partir d’images satellites), de la sécurité (comme les systèmes de vidéosurveillance augmentée qui analysent les comportements humains), mais également de la santé (par exemple pour l’aide au diagnostic), ou encore de l’éducation (par exemple via les learning analytics, visant à personnaliser les parcours d’apprentissage) se multiplient. En tant que régulateur des traitements de données à caractère personnel, la CNIL porte une attention particulière aux usages de l’IA susceptibles d’impacter les citoyens. La création d’un service pluridisciplinaire dédié à l’IA s’explique ainsi par la nature transversale des enjeux liés à ce domaine.
Quelle est votre définition de l’intelligence artificielle ? Est-elle restreinte à l’intelligence artificielle générative dont on parle tant en ce moment ?
Nous n’avons pas de définition stricto sensu. La définition que nous proposons sur notre site désigne un procédé logique et automatisé reposant généralement sur un algorithme et dans le but de réaliser des tâches bien définies. Pour le Parlement européen, elle constitue un outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». L’intelligence artificielle générative est une portion des systèmes d’intelligence artificielle existant, même si elle aussi pose question sur l’usage des données personnelles.
Quelle est l’approche de la CNIL en matière de réglementation des IA ?
La CNIL a une approche axée sur le risque. Cette logique est au cœur de l’IA Act qui classe les systèmes d’IA en quatre catégories : inacceptables, à haut risque, à risque limité et à risque minimal. Les systèmes d’IA dits inacceptables ne peuvent absolument pas être mis en œuvre sur le sol européen, car ils ne sont pas dans les clous de la réglementation. Les systèmes à haut risque, qui sont souvent déployés dans des secteurs comme la santé ou les affaires régaliennes, sont particulièrement sensibles, car ils peuvent avoir un impact significatif sur les individus et traitent souvent des données personnelles. Des précautions particulières sont prises avant leur mise en œuvre. Les systèmes à risque limité, comme le sont souvent les IA génératives par exemple, nécessitent une transparence accrue pour les utilisateurs. Les systèmes à risque minimal ne font pas l’objet d’obligations particulières.
Quels sont les enjeux majeurs autour de ces systèmes d’IA ?
Ce sont principalement la transparence, l’automatisation et la sécurité. La transparence est cruciale pour assurer que les personnes soient informées du traitement de leurs données par les systèmes d’IA, ainsi que pour leur permettre d’exercer leurs droits. Ces systèmes peuvent utiliser d’énormes quantités de données, parfois à l’insu des individus.
L’automatisation pose aussi question, même lorsqu’un opérateur humain est intégré dans la boucle pour prendre la décision finale. Les biais cognitifs, comme la tendance à faire une confiance excessive à la machine, peuvent influencer la prise de décision. Il est essentiel d’être vigilant sur les modalités de contrôle de l’opérateur et sur la façon dont celui-ci est réellement intégré dans la boucle de décision.
La sécurité des systèmes d’IA est une autre préoccupation majeure. Comme tout système informatique, ils peuvent être la cible de cyberattaques, notamment de détournement d’accès ou de vol de données. En outre, ils peuvent être exploités de manière malveillante, par exemple pour mener des campagnes de phishing ou diffuser de la désinformation à grande échelle.
Avez-vous déjà une méthode pour mettre en œuvre cette future réglementation ?
Notre plan d’action est structuré autour de quatre points. Le premier est de comprendre la technologie de l’IA, un domaine en constante évolution avec chaque jour, de nouvelles innovations et percées scientifiques.
Ensuite, il s’agit de guider l’utilisation de l’IA. Le RGPD est notre référence, mais ce texte est technologiquement neutre. Il ne prescrit pas spécifiquement comment les données personnelles doivent être traitées dans le contexte de l’IA. Il s’agit donc d’adapter les principes généraux du RGPD aux différentes technologies et utilisations de l’IA afin de guider efficacement les professionnels.
Le troisième point est de développer une interaction et une coopération avec nos homologues européens, le Défenseur des droits, l’Autorité de la concurrence ou encore les instituts de recherche pour aborder les questions liées à la discrimination, à la concurrence et à l’innovation dans le but de fédérer le plus d’acteurs possibles autour de ces questions.
Enfin, il s’agit de mettre en place des contrôles, à la fois avant et après la mise en œuvre des systèmes IA. Nous devons donc développer des méthodologies pour effectuer ces contrôles, que ce soit par le biais de listes de check-up, de guides d’auto-évaluation ou d’autres outils innovants.
Existe-t-il d’autres projets de ce type ?
Actuellement, aucune réglementation spécifique à l’IA n’existe, que ce soit en France, en Europe ou ailleurs. Le projet de règlement européen représentera une première en la matière. Cependant, certaines réglementations d’ordre général, comme le RGPD en Europe, s’appliquent indirectement à l’IA. Certaines réglementations sectorielles comme celles relatives à la sécurité des produits peuvent s’appliquer à ceux intégrant de l’IA, tels que les dispositifs médicaux par exemple.
Les différences de réglementations entre l’Europe et les Etats Unis seront-elles encore plus marquées par rapport à l’IA ?
Historiquement, l’Europe a été plus proactive dans la mise en œuvre de réglementations sur les technologies numériques, comme en témoigne l’adoption du RGPD. Cependant, même aux États-Unis, l’idée de réglementer l’IA a gagné du terrain. Par exemple, le CEO d’OpenAI a affirmé devant le Congrès américain qu’une réglementation de l’IA serait bénéfique. Il faut cependant noter que ce que les dirigeants d’entreprises technologiques américaines considèrent comme une réglementation adéquate peut ne pas correspondre exactement à ce que l’Europe envisage. C’est dans l’objectif d’anticiper l‘AI Act et de s’assurer de l’adhésion des grands industriels internationaux du domaine que les commissaires européens Margrethe Vestager (concurrence) et Thierry Breton (marché intérieur) ont respectivement proposé un AI Code of Conduct et un AI Pact.