ai robot sentenced in court in orange jumpsuit, chained and seated in a prison setting. The background includes guards, highlighting themes of artificial intelligence, control, and dystopian scenarios
π Numérique π Société
Comment réguler l’intelligence artificielle ?

Intelligence artificielle générale : comment va-t-on la réguler ?

Jean Langlois-Berthelot, docteur en mathématiques appliquées et Chef de Division au sein de l'Armée de Terre et Christophe Gaie, chef de division ingénierie et innovation numérique au sein des services du Premier ministre
Le 2 octobre 2024 |
6 min. de lecture
Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées et Chef de Division au sein de l'Armée de Terre
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • L'intelligence artificielle (IA) actuelle excelle dans des tâches spécifiques, mais reste différente de l'intelligence artificielle générale (IAG), qui vise une intelligence comparable à celle de l'humain.
  • Les modèles d'IA actuels, bien que sophistiqués, ne sont pas autonomes et présentent des limites importantes qui les différencient de l'IAG.
  • Les craintes liées à l'IAG sont grandissantes ; certains experts sont soucieux qu'elle puisse supplanter l'humanité, tandis que d'autres jugent cette perspective encore éloignée.
  • Pour une régulation rationnelle de l'IAG, il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices.
  • Des propositions pour une régulation efficace de l'IAG incluent des licences nationales, des tests de sécurité rigoureux et une coopération internationale renforcée.

L’In­tel­li­gence Arti­fi­cielle (IA) est actuelle­ment en pleine expan­sion et trans­forme de nom­breux aspects de notre quo­ti­di­en. Elle opti­mise le fonc­tion­nement des moteurs de recherche et per­met de mieux analyser les requêtes pour pro­pos­er les résul­tats les plus per­ti­nents1. Elle améliore les sys­tèmes de sur­veil­lance qui l’utilisent désor­mais pour détecter des com­porte­ments sus­pects2. Elle offre une aide pré­cieuse dans le domaine de la san­té pour analyser des images médi­cales, dévelop­per de nou­veaux médica­ments et per­son­nalis­er les traite­ments3.

Pour autant, il existe une dis­tinc­tion fon­da­men­tale entre l’IA que nous con­nais­sons aujour­d’hui, sou­vent qual­i­fiée de « clas­sique », et un con­cept plus ambitieux : l’In­tel­li­gence Arti­fi­cielle Générale (IAG).

L’IA clas­sique est conçue pour exceller dans des tâch­es spé­ci­fiques et peut dépass­er les meilleurs experts ou algo­rithmes spé­cial­isés. L’IAG, quant à elle, aspire à une intel­li­gence com­pa­ra­ble à celle d’un être humain. Elle vis­erait à com­pren­dre le monde dans toute sa com­plex­ité, à appren­dre de manière autonome et à s’adapter à des sit­u­a­tions nou­velles. En d’autres ter­mes, l’I­AG serait capa­ble de résoudre une grande var­iété de prob­lèmes, de raison­ner, de créer et d’avoir une con­science de soi4.

Un alarmisme grandissant au sujet de l’IAG

Les aver­tisse­ments con­cer­nant l’es­sor de l’IA général­iste se mul­ti­plient, dres­sant un avenir som­bre pour notre civil­i­sa­tion. Plusieurs per­son­nal­ités émi­nentes du monde de la tech­nolo­gie ont alerté sur les effets néfastes de cette tech­nolo­gie. Stephen Hawk­ing a for­mulé des craintes sur la pos­si­bil­ité que l’IA sup­plante l’homme, entraî­nant une nou­velle ère où les machines pour­raient domin­er5.

D’éminents pro­fesseurs améri­cains, tels Stu­art Rus­sell pro­fesseur à l’Université de Berke­ley, ont par ailleurs souligné la bas­cule vers un univers où l’intelligence arti­fi­cielle jouera un rôle incon­nu à ce stade, avec de nou­veaux risques à pren­dre en compte et anticiper6.

Par ailleurs, Jerome Glenn du Mil­len­ni­um Project a déclaré7 que « gou­vern­er l’I­AG pour­rait être le prob­lème de ges­tion le plus com­plexe que l’hu­man­ité ait jamais ren­con­tré » et que « la moin­dre erreur pour­rait nous effac­er de la sur­face de la Terre ». Ces asser­tions sug­gèrent une per­spec­tive extrême­ment pes­simiste, voire cat­a­strophiste, sur le développe­ment de l’IAG.

L’IAG est-elle réellement imminente ?

Une cri­tique fon­da­men­tale de l’im­mi­nence de l’I­AG repose sur le « prob­lème de la com­plex­ité des valeurs » qui est un con­cept clef abor­dé notam­ment par Nick Bostrom dans Super­in­tel­li­gence : chemins, dan­gers, straté­gies8. Le proces­sus d’évolution de la vie humaine ain­si que de la civil­i­sa­tion cor­re­spond à des mil­liards d’an­nées avec le développe­ment de nom­breux sys­tèmes com­plex­es de sen­ti­ments, mais égale­ment de con­trôles et de valeurs grâce aux inter­ac­tions nom­breuses et var­iées avec un envi­ron­nement qui est à la fois physique, biologique, mais égale­ment social. En par­tant de cette per­spec­tive, il est pos­tulé qu’une IAG autonome avec un niveau élevé de sophis­ti­ca­tion ne saurait être atteinte en quelques décennies. 

L’Australien Rod­ney Brooks, un des sym­bol­es et des pio­nniers de la robo­t­ique ain­si que des théories dites de la « cog­ni­tion incar­née », sou­tient, quant-à-lui, que ce qui va déter­min­er qu’une intel­li­gence est véri­ta­ble­ment autonome et sophis­tiquée, c’est son inté­gra­tion au sein d’un corps et les inter­ac­tions con­tin­ues avec un envi­ron­nement com­plexe sur une péri­ode suff­isam­ment longue9. Ces élé­ments ren­for­cent la thèse qui per­met d’envisager que l’IAG telle que décrite dans les scé­nar­ios alarmistes, est encore loin de devenir une réalité.

En quoi les IA actuelles ne sont pas encore des IA générales

On a pu con­stater ces dernières années la mon­tée en puis­sance des grands mod­èles de lan­gage (LLM pour Large Lan­guage Mod­el) comme Chat­G­PT, Gem­i­ni, Copi­lot, etc. Ceux-ci ont démon­tré une impres­sion­nante capac­ité à assim­i­l­er de nom­breuses valeurs humaines implicites en s’appuyant sur une analyse mas­sive de doc­u­ments écrits. Par son archi­tec­ture et son fonc­tion­nement, Chat­G­PT présente de nom­breuses lim­ites10. Il ne per­met pas le raison­nement logique, ses répons­es sont par­fois peu fiables, sa base de con­nais­sances n’est pas adap­tée en temps réel et il est sen­si­ble aux attaques de type par injec­tion de con­tenu (« prompt injec­tion »).

Si ces mod­èles pos­sè­dent des sys­tèmes de valeurs sophis­tiqués, ils n’apparaissent pour­tant pas comme autonomes. Ils ne sem­blent pas, en effet, vis­er l’au­tonomie ou l’au­to-préser­va­tion au sein d’un envi­ron­nement à la fois com­plexe et vari­able. À ce titre, il est impor­tant de rap­pel­er qu’une part très impor­tante de la com­mu­ni­ca­tion est liée à l’intonation et au lan­gage cor­porel11, élé­ments qui ne sont pas du tout appréhendés dans les inter­ac­tions avec les IA génératives.

Rap­pel­er sim­ple­ment cette dis­tinc­tion (pro­fonde) appa­raît cru­ciale afin de mieux com­pren­dre dans quelles mesures l’inquiétude face à une super­in­tel­li­gence malveil­lante est infondée et exces­sive. Aujourd’hui les LLM ne peu­vent être con­sid­érés que comme des per­ro­quets appor­tant des répons­es prob­a­bilistes (« sto­chas­tic par­rots » selon Emi­ly Ben­der12). Bien sûr, ils con­stituent une rup­ture et il paraît néces­saire de réguler leur util­i­sa­tion dès maintenant.

Quels arguments pour une superintelligence omnibénévolente ?

L’in­tel­li­gence future ne saurait, nous sem­ble-t-il, être « arti­fi­cielle » au sens strict, c’est-à-dire conçue de toutes pièces. Mais elle serait éminem­ment col­lec­tive, émergeant des con­nais­sances (voire de la sagesse) accu­mulées par l’humanité.

Il est réal­iste de con­sid­ér­er que les IA actuelles, en tant que telles sont large­ment des out­ils et les incar­na­tions des sché­mas de pen­sées col­lec­tives, ten­dent vers la bien­veil­lance plutôt que le con­trôle ou la dom­i­na­tion. Cette intel­li­gence col­lec­tive n’est rien de moins, ici, qu’une pro­fonde mémoire qui se nour­rit des valeurs civil­isées qui prô­nent notam­ment l’aide aux per­son­nes dans le besoin, le respect de l’en­vi­ron­nement et le respect des autres.

Nous devons donc pro­téger ce pat­ri­moine immatériel et nous assur­er qu’il vise à apporter un sou­tien et une aide aux humains plutôt qu’à leur trans­met­tre des infor­ma­tions erronées ou les inciter à com­met­tre des actions répréhen­si­bles. Au risque de faire preuve de manichéisme, soulignons que les LLM peu­vent être util­isés pour faire le bien13, mais égale­ment le mal14

Quelles réfutations pour les scénarios d’une IAG de la domination et du contrôle ? 

Dans une démarche logique, les scé­nar­ios alarmistes dans lesquels des acteurs malveil­lants seraient amenés, à court terme, à pro­gram­mer des objec­tifs man­i­feste­ment néfastes au cœur des IA appa­rais­sent a pri­ori comme exagérés. L’ar­gu­ment de la com­plex­ité des valeurs sug­gère que ces valeurs néga­tives se trou­veraient mal inté­grées au sein de la masse des valeurs pos­i­tives appris­es. Par ailleurs, il sem­ble prob­a­ble que les pro­gram­meurs bien inten­tion­nés (white hats) créent des IA qui pour­ront con­tr­er les straté­gies destruc­tri­ces des IA malveil­lantes (black hats). Ce qui pour­rait amen­er, assez naturelle­ment, à une « course aux arme­ments » classique.

Un autre con­tre-argu­ment à une prise de con­trôle malveil­lante des IA est leur poten­tiel économique. En effet, actuelle­ment, les IA grand pub­lic sont portées par des acteurs impor­tants du secteur économique (Ope­nAI, Google, Microsoft…) avec pour cer­tains d’entre eux au moins, une logique de rentabil­ité. Celle-ci requiert la con­fi­ance de l’utilisateur dans l’usage de l’IA mise à dis­po­si­tion, mais égale­ment la préser­va­tion des don­nées et des algo­rithmes con­sti­tu­ant l’IA en tant qu’actif immatériel au cœur de l’activité économique. Ain­si, les moyens de pro­tec­tion et de cyberdéfense engagés seront très importants.

Propositions pour une meilleure gouvernance de l’IAG

Des ini­tia­tives ont déjà été pris­es afin de réguler l’IA spé­cial­isée. Pour autant, la régu­la­tion de l’In­tel­li­gence arti­fi­cielle générale va néces­siter des mesures spé­ci­fiques. Au sein de ces ini­tia­tives, nous pou­vons citer l’AI Act en cours de con­sti­tu­tion au sein de l’Union Européenne15. Les auteurs appor­tent par ailleurs les propo­si­tions sup­plé­men­taires suivantes :

  • La mise en place d’un sys­tème de licences nationales qui per­me­t­tra de garan­tir que toute nou­velle IAG respecte les normes de sécu­rité nécessaires,
  • Des sys­tèmes de véri­fi­ca­tion de la sécu­rité des IA dans des envi­ron­nements con­trôlés avant leur autori­sa­tion et leurs déploiements, 
  • Le développe­ment d’une coopéra­tion inter­na­tionale plus avancée qui pour­rait don­ner lieu à des réso­lu­tions de l’Assemblée Générale de l’ONU et à la mise en place de con­ven­tions sur l’IA.

Pour une régu­la­tion rationnelle de l’I­AG il faut une analyse éclairée des enjeux et un équili­bre entre préven­tion des risques et pro­mo­tion des béné­fices. Les insti­tu­tions inter­na­tionales et les experts tech­niques vont jouer un rôle impor­tant pour la coor­di­na­tion des efforts néces­saires au développe­ment sûr et éthique de l’I­AG. Une bonne gou­ver­nance et une régu­la­tion effi­cace de l’IAG néces­siteront une approche dépassionnée.

1Vijaya, P., Raju, G. & Ray, S.K. Arti­fi­cial neur­al net­work-based merg­ing score for Meta search engine. J. Cent. South Univ. 23, 2604–2615 (2016). https://doi.org/10.1007/s11771-016‑3322‑7
2Li, Jh. Cyber secu­ri­ty meets arti­fi­cial intel­li­gence: a sur­vey. Fron­tiers Inf Tech­nol Elec­tron­ic Eng 19, 1462–1474 (2018). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​1​8​00573
3Jiang F, Jiang Y, Zhi H, et alAr­ti­fi­cial intel­li­gence in health­care: past, present and future­Stroke and Vas­cu­lar Neu­rol­o­gy 2017;2: https://doi.org/10.1136/svn-2017–000101
4Ng, Gee Wah, and Wang Chi Leung. “Strong Arti­fi­cial Intel­li­gence and Con­scious­ness.” Jour­nal of Arti­fi­cial Intel­li­gence and Con­scious­ness 07, no. 01 (March 1, 2020): 63–72. https://​doi​.org/​1​0​.​1​1​4​2​/​s​2​7​0​5​0​7​8​5​2​0​3​00042.
5Kharpal, Arjun. “Stephen Hawk­ing says A.I. could be ‘worst event in the his­to­ry of our civ­i­liza­tion.’” CNBC, Novem­ber 6, 2017. https://​www​.cnbc​.com/​2​0​1​7​/​1​1​/​0​6​/​s​t​e​p​h​e​n​-​h​a​w​k​i​n​g​-​a​i​-​c​o​u​l​d​-​b​e​-​w​o​r​s​t​-​e​v​e​n​t​-​i​n​-​c​i​v​i​l​i​z​a​t​i​o​n​.html.
6Chia Jes­si­ca, Cian­ci­o­lo Bethany, “Opin­ion: We’ve reached a turn­ing point with AI, expert says” Sep­tem­ber 5, 2023, https://​edi​tion​.cnn​.com/​2​0​2​3​/​0​5​/​3​1​/​o​p​i​n​i​o​n​s​/​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​n​c​e​-​s​t​u​a​r​t​-​r​u​s​s​e​l​l​/​i​n​d​e​x​.html
7Jerome C. Glenn, Feb­ru­ary 2023, “Arti­fi­cial Gen­er­al Intel­li­gence Issues and Oppor­tu­ni­ties”, The Mil­le­ni­um Project, Fore­sight for the 2nd Strate­gic Plan of Hori­zon Europe (2025–27) https://​www​.mil​len​ni​um​-project​.org/​w​p​-​c​o​n​t​e​n​t​/​u​p​l​o​a​d​s​/​2​0​2​3​/​0​5​/​E​C​-​A​G​I​-​p​a​p​e​r.pdf
8Nick Bostrom. 2014. Super­in­tel­li­gence: Paths, Dan­gers, Strate­gies, 1st edi­tion. Oxford Uni­ver­si­ty Press, Inc., USA.
9Brooks, R. A. (1991). Intel­li­gence With­out Rep­re­sen­ta­tion. Arti­fi­cial Intel­li­gence, 47(1–3), 139–159.
10Zhou, J., Ke, P., Qiu, X. et al. Chat­G­PT: poten­tial, prospects, and lim­i­ta­tions. Front Inform Tech­nol Elec­tron Eng 25, 6–11 (2024). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​2​3​00089
11Quinn, Jayme, and Jayme Quinn. “How Much of Com­mu­ni­ca­tion Is Non­ver­bal? | UT Per­mi­an Basin Online.” The Uni­ver­si­ty of Texas Per­mi­an Basin | UTPB, May 15, 2023. https://​online​.utpb​.edu/​a​b​o​u​t​-​u​s​/​a​r​t​i​c​l​e​s​/​c​o​m​m​u​n​i​c​a​t​i​o​n​/​h​o​w​-​m​u​c​h​-​o​f​-​c​o​m​m​u​n​i​c​a​t​i​o​n​-​i​s​-​n​o​n​v​e​rbal/.
12Emi­ly M. Ben­der, Timnit Gebru, Angeli­na McMil­lan-Major, and Shmar­garet Shmitchell. 2021. On the Dan­gers of Sto­chas­tic Par­rots: Can Lan­guage Mod­els Be Too Big? In Pro­ceed­ings of the 2021 ACM Con­fer­ence on Fair­ness, Account­abil­i­ty, and Trans­paren­cy (FAc­cT ’21). Asso­ci­a­tion for Com­put­ing Machin­ery, New York, NY, USA, 610–623. https://​doi​.org/​1​0​.​1​1​4​5​/​3​4​4​2​1​8​8​.​3​4​45922
13Javaid, Mohd, Abid Haleem, and Ravi Prat­ap Singh. « Chat­G­PT for health­care ser­vices: An emerg­ing stage for an inno­v­a­tive per­spec­tive. » Bench­Coun­cil Trans­ac­tions on Bench­marks, Stan­dards and Eval­u­a­tions 3, no. 1 (2023): 100105. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​t​b​e​n​c​h​.​2​0​2​3​.​1​00105
14Lohmann, S. (2024). Chat­G­PT, Arti­fi­cial Intel­li­gence, and the Ter­ror­ist Tool­box. An Amer­i­can Per­spec­tive, 23. https://​media​.defense​.gov/​2​0​2​4​/​A​p​r​/​1​8​/​2​0​0​3​4​4​4​2​2​8​/​-​1​/​-​1​/​0​/​2​0​2​4​0​5​0​6​_​S​i​m​-​H​a​r​t​u​n​i​a​n​-​M​i​l​a​s​_​E​m​e​r​g​i​n​g​T​e​c​h​_​F​i​n​a​l​.​P​D​F​#​p​a​ge=41
15“Lay­ing Down Har­monised Rules On Arti­fi­cial Intel­li­gence (Arti­fi­cial Intel­li­gence Act) And Amend­ing Cer­tain Union Leg­isla­tive Acts,” https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter