Quels enjeux faut-il prendre en compte aujourd’hui pour une régulation de l’intelligence artificielle ?
De nombreux problèmes doivent être considérés. D’abord, il y a la peur d’un risque existentiel alimentée par les récits d’une IA qui pourrait s’autonomiser et détruire l’humanité. Cependant, je n’y crois pas vraiment – en tous cas avec les modèles qui arrivent aujourd’hui. Ensuite, il y a la crainte d’un oligopole, avec une forte dépendance à une poignée d’entreprises. Il y a également le risque de violation des droits de l’Homme. Et dans ce cas, entre en compte une nouvelle donne : longtemps, les actions les plus terribles étaient réservées aux pays et aux armées des pays les plus puissants. Là, c’est une technologie banale, grand public. La même IA qui permet de détecter des cancers pourrait empêcher une partie de la population d’entrer dans les aéroports. On avait rarement vu des technologies aussi multi-usages. L’IA rend aussi possible des actes malveillants, comme les deep fake, les attaques dans nos systèmes, ou la manipulation de l’opinion. Sans compter ce qu’elle va déséquilibrer en matière de propriété intellectuelle, de protection du domaine public, de défense de la vie privée, et les bouleversements dans le monde du travail. Tous ces défis, ajoutés au désir de bénéficier réellement des promesses de l’IA (qui sont innombrables), ont suscité une intense réflexion mondiale sur un cadre de gouvernance partagée.
Selon vous, quel risque doit-être considéré en priorité ?
Le plus grand risque, selon moi, est celui du monopole. C’est une question de démocratie. Un des grands dangers c’est que l’économie mondiale, la société et les médias entrent dans une ultra-dépendance vis-à-vis d’un petit oligopole que l’on n’arrive pas à réguler. Au nom de cette analyse, j’essaie de pousser la défense des communs numériques, de l’open source. Il s’agit d’être certain qu’il y ait des modèles libres d’utilisation pour que tous les citoyens puissent s’en emparer. Il existe déjà des modèles open source de qualité. Alors la question se pose : va-t-on mettre assez d’argent public pour les entraîner au bénéfice de tout le monde ? Selon moi, le grand combat est là. S’assurer qu’il y ait des ressources pour l’intérêt général et qu’il sera possible d’innover sans demander de permissions.
Y a‑t-il une attention internationale particulière sur certains risques liés à l’IA ?
Dans les aspects qui pourraient amener à une coordination internationale, il y a les effets indirects de l’IA. En effet, ces technologies pourraient perturber la manière dont on a construit la protection de la vie privée. Aujourd’hui, le principe général est de protéger les données personnelles pour protéger les personnes. Avec l’IA, en faisant un modèle de prédiction, on peut connaître beaucoup d’éléments, voire tout sur une personne. Les modèles prédictifs peuvent prendre en compte l’âge, le lieu de vie, de travail et donner avec une très bonne probabilité le risque de cancer ou la possibilité d’aimer tel film. Un autre enjeu débattu au niveau international est celui de la propriété intellectuelle. Il est aujourd’hui possible de demander à une IA de produire des peintures à la façon de Keith Haring et de les vendre, ce qui pose souci aux ayants droit de l’artiste.
Est-ce qu’il y a une véritable prise de conscience de la nécessité d’une régulation internationale ?
Il y a une dizaine d’années, il y a eu un accord tacite pour ne pas réguler les réseaux sociaux. Maintenant, ces entreprises pèsent 1000 milliards de dollars et il est très difficile de changer leur trajectoire. La plupart des États développés se disent qu’ils ne referont pas l’erreur et qu’il ne faut pas rater le coche ce coup-ci. Mais cela signifie qu’ils savent quoi faire. Il existe une conscience nouvelle que la régulation doit s’ancrer dans un cadre international. Il n’y a tellement plus de frontières dans le monde numérique, qu’il est possible de s’installer dans n’importe quel pays en étant présent dans un autre. En clair, il y a une intense activité internationale autour des enjeux majeurs cités précédemment : le risque existentiel, la question de la souveraineté économique et les acteurs malveillants.
L’échelle internationale est-elle la seule pertinente pour encadrer l’intelligence artificielle ?
Non. L’échelle « régionale » (à savoir un ensemble cohérent de pays), est également très importante. L’Europe a appris à ses dépens qu’en régulant l’ensemble des usages numériques à l’échelle nationale, elle n’était pas assez forte pour faire plier les géants. Quand on pose un cadre européen, ils négocient. Mais cela crée d’autres tensions, et nous ne voulons pas encourager un ordre international fondé sur des décisions d’application extra-territoriales. Donc l’idée que l’international est la bonne taille pour penser le numérique s’est installée, et on ne la remet plus trop en question.
En droit pur, nous avons le droit d’interdire le développement de certaines IA. Mais nous avons peur que les autres puissances continuent, et que l’on devienne faible et dépassé. Il s’agit d’être à la fois pro-innovation et pro-sécurité pour les citoyens, et c’est ce qui fait que tout le monde aimerait bien que les décisions soient collectives. Ces technologies changent très vite, et créent beaucoup de puissance, donc on ne veut pas faire de désarmement unilatéral.
Où en est-on de la réflexion et de la concrétisation de cet encadrement ?
Il y a une réflexion sur le cadre éthique. Des discussions ont lieu dans des dizaines d’enceintes au sein des entreprises, de la société civile, chez les chercheurs, à l’ONU, au G7, à l’OCDE ou encore dans le cadre de l’initiative française de partenariat mondial pour l’intelligence artificielle. Il y a aussi une diplomatie qui sort des ambassades, des débats à l’Internet Governance Forum, au sommet annuel sur les droits de l’Homme, le RightsCon. Petit à petit, des idées s’installent ou s’imposent. On est encore en train de faire émerger les concepts sur lesquels il y aura un accord. Un premier consensus émerge autour de certains principes : ne pas faire d’usage contraires aux droits de l’homme, la technologie doit être dans l’intérêt des utilisateurs, il faut prouver que des précautions ont été prises pour qu’il n’y ait pas de biais dans l’éducation des modèles, la nécessité de la transparence pour que les experts puissent auditer les modèles. Après, il sera temps de chercher des traités.
Il y a également des débats sur un cadre démocratique. Comment s’assure-t-on que ces entreprises ne sont pas en train de nous manipuler ? Est-ce qu’on a le droit de savoir avec quelles données les IA ont été éduquées ? Les notions de sécurité face au risque existentiel ont été beaucoup discutées au Royaume-Uni lors du sommet mondial de l’année dernière. Désormais, la conversation s’engage sur le futur du travail, de la propriété intellectuelle, par exemple. La France accueillera en 2025 un grand sommet international sur l’IA qui permettra de faire avancer ces questions.
La réflexion va-t-elle aussi vite que la technologie ?
Beaucoup de personnes pensent que non. Je pense pour ma part qu’un bon texte est principiel. La Déclaration des droits de l’homme est toujours valable, pourtant, les technologies ont changé. La loi Informatique et libertés de 1978 est devenue le RGPD, mais le principe du consentement de l’utilisateur pour que les données circulent n’a pas pris une ride. Si on arrive à trouver des principes robustes, on peut faire des textes qui passent les siècles. Je pense qu’on pourrait réguler l’IA avec le RGPD, la responsabilité des médias et des éditeurs de contenu, et deux ou trois autres textes qui existent déjà. Il n’est pas sûr qu’il y ait besoin d’un cadre entièrement nouveau.