L’Intelligence Artificielle (IA) est actuellement en pleine expansion et transforme de nombreux aspects de notre quotidien. Elle optimise le fonctionnement des moteurs de recherche et permet de mieux analyser les requêtes pour proposer les résultats les plus pertinents1. Elle améliore les systèmes de surveillance qui l’utilisent désormais pour détecter des comportements suspects2. Elle offre une aide précieuse dans le domaine de la santé pour analyser des images médicales, développer de nouveaux médicaments et personnaliser les traitements3.
Pour autant, il existe une distinction fondamentale entre l’IA que nous connaissons aujourd’hui, souvent qualifiée de « classique », et un concept plus ambitieux : l’Intelligence Artificielle Générale (IAG).
L’IA classique est conçue pour exceller dans des tâches spécifiques et peut dépasser les meilleurs experts ou algorithmes spécialisés. L’IAG, quant à elle, aspire à une intelligence comparable à celle d’un être humain. Elle viserait à comprendre le monde dans toute sa complexité, à apprendre de manière autonome et à s’adapter à des situations nouvelles. En d’autres termes, l’IAG serait capable de résoudre une grande variété de problèmes, de raisonner, de créer et d’avoir une conscience de soi4.
Découvrez notre numéro spécial sur l’IA. Téléchargez-le ici
Un alarmisme grandissant au sujet de l’IAG
Les avertissements concernant l’essor de l’IA généraliste se multiplient, dressant un avenir sombre pour notre civilisation. Plusieurs personnalités éminentes du monde de la technologie ont alerté sur les effets néfastes de cette technologie. Stephen Hawking a formulé des craintes sur la possibilité que l’IA supplante l’homme, entraînant une nouvelle ère où les machines pourraient dominer5.
D’éminents professeurs américains, tels Stuart Russell professeur à l’Université de Berkeley, ont par ailleurs souligné la bascule vers un univers où l’intelligence artificielle jouera un rôle inconnu à ce stade, avec de nouveaux risques à prendre en compte et anticiper6.
Par ailleurs, Jerome Glenn du Millennium Project a déclaré7 que « gouverner l’IAG pourrait être le problème de gestion le plus complexe que l’humanité ait jamais rencontré » et que « la moindre erreur pourrait nous effacer de la surface de la Terre ». Ces assertions suggèrent une perspective extrêmement pessimiste, voire catastrophiste, sur le développement de l’IAG.
L’IAG est-elle réellement imminente ?
Une critique fondamentale de l’imminence de l’IAG repose sur le « problème de la complexité des valeurs » qui est un concept clef abordé notamment par Nick Bostrom dans Superintelligence : chemins, dangers, stratégies8. Le processus d’évolution de la vie humaine ainsi que de la civilisation correspond à des milliards d’années avec le développement de nombreux systèmes complexes de sentiments, mais également de contrôles et de valeurs grâce aux interactions nombreuses et variées avec un environnement qui est à la fois physique, biologique, mais également social. En partant de cette perspective, il est postulé qu’une IAG autonome avec un niveau élevé de sophistication ne saurait être atteinte en quelques décennies.
L’Australien Rodney Brooks, un des symboles et des pionniers de la robotique ainsi que des théories dites de la « cognition incarnée », soutient, quant-à-lui, que ce qui va déterminer qu’une intelligence est véritablement autonome et sophistiquée, c’est son intégration au sein d’un corps et les interactions continues avec un environnement complexe sur une période suffisamment longue9. Ces éléments renforcent la thèse qui permet d’envisager que l’IAG telle que décrite dans les scénarios alarmistes, est encore loin de devenir une réalité.
En quoi les IA actuelles ne sont pas encore des IA générales
On a pu constater ces dernières années la montée en puissance des grands modèles de langage (LLM pour Large Language Model) comme ChatGPT, Gemini, Copilot, etc. Ceux-ci ont démontré une impressionnante capacité à assimiler de nombreuses valeurs humaines implicites en s’appuyant sur une analyse massive de documents écrits. Par son architecture et son fonctionnement, ChatGPT présente de nombreuses limites10. Il ne permet pas le raisonnement logique, ses réponses sont parfois peu fiables, sa base de connaissances n’est pas adaptée en temps réel et il est sensible aux attaques de type par injection de contenu (« prompt injection »).
Si ces modèles possèdent des systèmes de valeurs sophistiqués, ils n’apparaissent pourtant pas comme autonomes. Ils ne semblent pas, en effet, viser l’autonomie ou l’auto-préservation au sein d’un environnement à la fois complexe et variable. À ce titre, il est important de rappeler qu’une part très importante de la communication est liée à l’intonation et au langage corporel11, éléments qui ne sont pas du tout appréhendés dans les interactions avec les IA génératives.
Rappeler simplement cette distinction (profonde) apparaît cruciale afin de mieux comprendre dans quelles mesures l’inquiétude face à une superintelligence malveillante est infondée et excessive. Aujourd’hui les LLM ne peuvent être considérés que comme des perroquets apportant des réponses probabilistes (« stochastic parrots » selon Emily Bender12). Bien sûr, ils constituent une rupture et il paraît nécessaire de réguler leur utilisation dès maintenant.
Quels arguments pour une superintelligence omnibénévolente ?
L’intelligence future ne saurait, nous semble-t-il, être « artificielle » au sens strict, c’est-à-dire conçue de toutes pièces. Mais elle serait éminemment collective, émergeant des connaissances (voire de la sagesse) accumulées par l’humanité.
Il est réaliste de considérer que les IA actuelles, en tant que telles sont largement des outils et les incarnations des schémas de pensées collectives, tendent vers la bienveillance plutôt que le contrôle ou la domination. Cette intelligence collective n’est rien de moins, ici, qu’une profonde mémoire qui se nourrit des valeurs civilisées qui prônent notamment l’aide aux personnes dans le besoin, le respect de l’environnement et le respect des autres.
Nous devons donc protéger ce patrimoine immatériel et nous assurer qu’il vise à apporter un soutien et une aide aux humains plutôt qu’à leur transmettre des informations erronées ou les inciter à commettre des actions répréhensibles. Au risque de faire preuve de manichéisme, soulignons que les LLM peuvent être utilisés pour faire le bien13, mais également le mal14.
Quelles réfutations pour les scénarios d’une IAG de la domination et du contrôle ?
Dans une démarche logique, les scénarios alarmistes dans lesquels des acteurs malveillants seraient amenés, à court terme, à programmer des objectifs manifestement néfastes au cœur des IA apparaissent a priori comme exagérés. L’argument de la complexité des valeurs suggère que ces valeurs négatives se trouveraient mal intégrées au sein de la masse des valeurs positives apprises. Par ailleurs, il semble probable que les programmeurs bien intentionnés (white hats) créent des IA qui pourront contrer les stratégies destructrices des IA malveillantes (black hats). Ce qui pourrait amener, assez naturellement, à une « course aux armements » classique.
Un autre contre-argument à une prise de contrôle malveillante des IA est leur potentiel économique. En effet, actuellement, les IA grand public sont portées par des acteurs importants du secteur économique (OpenAI, Google, Microsoft…) avec pour certains d’entre eux au moins, une logique de rentabilité. Celle-ci requiert la confiance de l’utilisateur dans l’usage de l’IA mise à disposition, mais également la préservation des données et des algorithmes constituant l’IA en tant qu’actif immatériel au cœur de l’activité économique. Ainsi, les moyens de protection et de cyberdéfense engagés seront très importants.
Propositions pour une meilleure gouvernance de l’IAG
Des initiatives ont déjà été prises afin de réguler l’IA spécialisée. Pour autant, la régulation de l’Intelligence artificielle générale va nécessiter des mesures spécifiques. Au sein de ces initiatives, nous pouvons citer l’AI Act en cours de constitution au sein de l’Union Européenne15. Les auteurs apportent par ailleurs les propositions supplémentaires suivantes :
- La mise en place d’un système de licences nationales qui permettra de garantir que toute nouvelle IAG respecte les normes de sécurité nécessaires,
- Des systèmes de vérification de la sécurité des IA dans des environnements contrôlés avant leur autorisation et leurs déploiements,
- Le développement d’une coopération internationale plus avancée qui pourrait donner lieu à des résolutions de l’Assemblée Générale de l’ONU et à la mise en place de conventions sur l’IA.
Pour une régulation rationnelle de l’IAG il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices. Les institutions internationales et les experts techniques vont jouer un rôle important pour la coordination des efforts nécessaires au développement sûr et éthique de l’IAG. Une bonne gouvernance et une régulation efficace de l’IAG nécessiteront une approche dépassionnée.