π Numérique π Science et technologies
Les nouveaux enjeux de l’IA

L’avenir de la synchronisation du cerveau et de la machine 

Hamilton Mann, vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD, Cornelia C. Walther, chercheuse invitée principale à l'initiative Wharton pour les neurosciences (WiN) et Michael Platt, directeur de la Wharton Neuroscience Initiative et professeur de marketing, de neuroscience et de psychologie à l'Université de Pennsylvanie
Le 30 octobre 2024 |
12 min. de lecture
Hamilton Mann
Hamilton Mann
vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD
Cornelia C. Walther
Cornelia C. Walther
chercheuse invitée principale à l'initiative Wharton pour les neurosciences (WiN)
Michael Platt
Michael Platt
directeur de la Wharton Neuroscience Initiative et professeur de marketing, de neuroscience et de psychologie à l'Université de Pennsylvanie
En bref
  • L’évolution de l’IA représente une avancée dans la relation entre les humains et les machines.
  • L’IA est aujourd’hui capable de générer des réponses semblables à celles d’humains et de s’adapter aux contextes de leurs interactions.
  • Des avancées comme les interfaces cerveau-ordinateur (BCIs), rendent potentiel un futur où l’IA se connecterait aux pensées et aux émotions des Hommes.
  • Les neurosciences peuvent également guider le développement de l’IA, par exemple à travers l’alternative de l’informatique neuromorphique.
  • Malgré leurs implications positives, les relations humain-machine posent des problèmes éthiques majeurs, notamment concernant la confidentialité des données ou la préservation de l’autonomie humaine.

L’évo­lu­tion remar­quable des sys­tèmes d’in­tel­li­gence arti­fi­cielle (IA) représente un change­ment de par­a­digme dans la rela­tion entre les humains et les machines. Cette trans­for­ma­tion est évi­dente dans les inter­ac­tions trans­par­entes facil­itées par ces sys­tèmes avancés, où l’adapt­abil­ité appa­raît comme une car­ac­téris­tique déter­mi­nante, en réso­nance avec la capac­ité humaine fon­da­men­tale d’ap­pren­dre par l’ex­péri­ence et de prédire le comportement.

Cet arti­cle a été pub­lié en exclu­siv­ité dans notre mag­a­zine Le 3,14 sur l’IA.
Téléchargez-le ici.

L’IA imite l’apprentissage humain

L’ap­pren­tis­sage par ren­force­ment (AR) est une facette de l’IA qui s’aligne étroite­ment sur les proces­sus cog­ni­tifs humains. L’ap­pren­tis­sage par ren­force­ment imite le par­a­digme de l’ap­pren­tis­sage humain en per­me­t­tant aux sys­tèmes d’IA d’ap­pren­dre en inter­agis­sant avec un envi­ron­nement et en rece­vant un retour d’in­for­ma­tion sous forme de récom­pens­es ou de pénal­ités. En revanche, les grands mod­èles lin­guis­tiques (Large Lan­guage Mod­els [LLM]) jouent un rôle cru­cial dans la recon­nais­sance des formes, en sai­sis­sant les nuances com­plex­es du lan­gage et du com­porte­ment humains. Ces mod­èles, tels que Chat­G­PT et BERT, excel­lent dans la com­préhen­sion des infor­ma­tions con­textuelles, dans l’ap­préhen­sion des sub­til­ités du lan­gage et dans la pré­dic­tion de l’in­ten­tion de l’u­til­isa­teur. En s’ap­puyant sur de vastes ensem­bles de don­nées, les LLM acquièrent une com­préhen­sion com­plète des mod­èles lin­guis­tiques, ce qui leur per­met de génér­er des répons­es sem­blables à celles des humains et de s’adapter à cer­tains com­porte­ments des util­isa­teurs, par­fois avec une pré­ci­sion remarquable.

La syn­ergie entre AR et LLM crée un puis­sant pré­dicteur du com­porte­ment humain. L’AR con­tribue à la capac­ité d’ap­pren­dre des inter­ac­tions et de s’adapter, tan­dis que les LLM améliorent les capac­ités de pré­dic­tion grâce à la recon­nais­sance des formes. Les sys­tèmes d’IA fondés sur la logique des rela­tions peu­vent donc affich­er une forme de syn­chro­ni­sa­tion com­porte­men­tale. Au fond, l’AR per­met aux sys­tèmes d’IA d’ap­pren­dre des séquences opti­males d’ac­tions dans des envi­ron­nements inter­ac­t­ifs afin d’at­tein­dre une poli­tique. Comme un enfant qui touche une sur­face chaude et apprend à l’éviter, ces sys­tèmes d’IA s’adaptent en fonc­tion des réac­tions pos­i­tives ou néga­tives qu’ils reçoivent.

L’IA reproduit les interactions humaines

Les agents d’IA qui utilisent l’ap­pren­tis­sage par ren­force­ment pro­fond, comme Alp­haZe­ro de DeepMind/Google, appren­nent et s’améliorent en jouant des mil­lions de par­ties con­tre eux-mêmes, affi­nant ain­si leurs straté­gies au fil du temps. Ce proces­sus d’au­to-amélio­ra­tion dans l’IA implique qu’un agent apprend de manière itéra­tive à par­tir de ses pro­pres actions et résul­tats. De même, dans les inter­ac­tions humaines, la syn­chro­ni­sa­tion cérébrale se pro­duit lorsque les indi­vidus s’en­ga­gent dans des tâch­es coopéra­tives, ce qui con­duit à des mod­èles alignés d’ac­tiv­ité cérébrale qui facili­tent ain­si la com­préhen­sion com­mune et la col­lab­o­ra­tion. Con­traire­ment à l’IA, les humains parvi­en­nent à cette syn­chro­ni­sa­tion en inter­agis­sant avec les autres plutôt qu’avec eux-mêmes.

De plus, les sys­tèmes d’IA peu­vent égale­ment appren­dre des inter­ac­tions avec les humains. Tout comme la syn­chro­ni­sa­tion du cerveau humain améliore la coopéra­tion et la com­préhen­sion, les sys­tèmes d’IA peu­vent amélior­er et align­er leurs répons­es grâce à un appren­tis­sage itératif appro­fon­di à par­tir des inter­ac­tions humaines. Bien que les sys­tèmes d’IA ne parta­gent pas lit­térale­ment leurs con­nais­sances comme le font les cerveaux humains, ils devi­en­nent des déposi­taires de don­nées héritées de ces inter­ac­tions, ce qui cor­re­spond à une forme de con­nais­sance. Ce proces­sus d’ap­pren­tis­sage à par­tir de vastes ensem­bles de don­nées, y com­pris les inter­ac­tions humaines, peut être con­sid­éré comme une forme de « mémoire col­lec­tive ». Cette analo­gie met en évi­dence la pos­si­bil­ité pour les sys­tèmes d’IA d’évoluer tout en étant influ­encés par les humains, tout en influ­ençant les humains par leur util­i­sa­tion, ce qui indique une forme de « syn­chro­ni­sa­tion infor­ma­tique » qui pour­rait être con­sid­érée comme une analo­gie de la syn­chro­ni­sa­tion du cerveau humain.

Aus­si, des sys­tèmes d’IA dotés d’un sys­tème de recon­nais­sance des sig­naux soci­aux sont en cours de con­cep­tion pour détecter les émo­tions humaines et y répon­dre. Ces sys­tèmes d’« infor­ma­tique affec­tive », tels qu’ils ont été inven­tés par Ros­alind Picard en 19951, peu­vent inter­préter les expres­sions faciales, les mod­u­la­tions de la voix et même le texte pour éval­uer les émo­tions et y répon­dre en con­séquence. Un assis­tant IA capa­ble de détecter la frus­tra­tion de l’u­til­isa­teur en temps réel et d’a­juster ses répons­es ou sa stratégie d’as­sis­tance est une forme rudi­men­taire de syn­chro­ni­sa­tion com­porte­men­tale basée sur un retour d’in­for­ma­tion immédiat.

Par exem­ple, l’informatique affec­tive englobe des tech­nolo­gies telles que les logi­ciels de recon­nais­sance des émo­tions qui analy­sent les expres­sions faciales et le ton de la voix pour déter­min­er l’é­tat émo­tion­nel d’une per­son­ne. L’analyse en temps réel des sen­ti­ments dans le texte et la voix per­met à l’IA d’a­juster ses inter­ac­tions pour les ren­dre plus empathiques et plus effi­caces. Cette capac­ité est de plus en plus util­isée dans les chat­bots et les assis­tants virtuels du ser­vice client pour amélior­er l’ex­péri­ence de l’u­til­isa­teur en ren­dant les inter­ac­tions plus naturelles et plus réactives.

Tout comme les humains ajus­tent leur com­porte­ment en fonc­tion des sig­naux soci­aux, les sys­tèmes d’IA adap­tat­ifs mod­i­fient leurs actions en fonc­tion des don­nées fournies par l’u­til­isa­teur, ce qui peut con­duire à une forme de « syn­chro­ni­sa­tion » au fil du temps. L’é­val­u­a­tion des com­pé­tences sociales d’un tel sys­tème d’IA pour­rait se faire en adap­tant des out­ils tels que l’échelle de réac­tiv­ité sociale (Social Respon­sive­ness Scale, [SRS]), un instru­ment psy­chi­a­trique bien validé qui mesure la capac­ité d’un indi­vidu à mod­i­fi­er son com­porte­ment pour s’adapter au com­porte­ment et à la dis­po­si­tion d’un parte­naire social ; une approx­i­ma­tion de la « théorie de l’e­sprit », qui fait référence à la capac­ité d’at­tribuer des états men­taux – tels que les croy­ances, les inten­tions, les désirs, les émo­tions et les con­nais­sances – à soi-même et à autrui.

Vers la résonance

Les inter­faces cerveau-ordi­na­teur (Brain-Com­put­er Inter­faces, [BCIs]) ont ouvert une ère de trans­for­ma­tion dans laque­lle les pen­sées peu­vent être traduites en com­man­des numériques et en com­mu­ni­ca­tion humaine. Des entre­pris­es comme Neu­ralink pro­gressent dans le développe­ment d’in­ter­faces qui per­me­t­tent aux per­son­nes paralysées de con­trôler des appareils directe­ment par la pen­sée. En asso­ciant des enreg­istrements directs de l’ac­tiv­ité cérébrale à des sys­tèmes d’IA, des chercheurs ont per­mis à une per­son­ne de par­ler à une vitesse nor­male après être restée muette pen­dant plus de dix ans à la suite d’un acci­dent vas­cu­laire cérébral. Les sys­tèmes d’IA peu­vent égale­ment être util­isés pour décoder non seule­ment ce qu’une per­son­ne lit, mais aus­si ce qu’elle pense, sur la base de mesures non inva­sives de l’ac­tiv­ité cérébrale à l’aide d’IRM fonctionnelle.

Sur la base de ces avancées, il n’est pas exagéré d’imag­in­er un scé­nario futur dans lequel un pro­fes­sion­nel utilis­erait un BCI non invasif (par exem­ple, des moni­teurs d’on­des cérébrales porta­bles tels que Cog­wear, Emo­tiv ou Muse) pour com­mu­ni­quer avec un logi­ciel de con­cep­tion d’IA. Le logi­ciel, recon­nais­sant les sché­mas neu­ronaux du con­cep­teur asso­ciés à la créa­tiv­ité ou à l’in­sat­is­fac­tion, pour­rait instan­ta­né­ment ajuster ses propo­si­tions de con­cep­tion, atteignant ain­si un niveau de syn­chro­ni­sa­tion aupar­a­vant con­sid­éré comme rel­e­vant du domaine de la sci­ence-fic­tion. Cette fron­tière tech­nologique promet une forme par­ti­c­ulière de syn­chro­ni­sa­tion, où l’in­ter­ac­tion entre le cerveau humain et l’IA tran­scende la sim­ple inter­pré­ta­tion des com­man­des, ouvrant un avenir dans lequel l’IA résonne avec les pen­sées et les émo­tions humaines.

Il est essen­tiel que la réso­nance envis­agée ici tran­scende le domaine du com­porte­ment pour englober égale­ment la com­mu­ni­ca­tion. Au fur et à mesure que les BCI évolu­ent, le poten­tiel d’ex­pres­sion extérieure devient essen­tiel. Au-delà de la sim­ple exé­cu­tion de com­man­des, l’in­té­gra­tion d’indices faci­aux, du ton de la voix et d’autres indices non ver­baux dans les répons­es de l’IA ampli­fie les canaux de réso­nance. Cette expan­sion de la com­mu­ni­ca­tion mul­ti­modale peut enrichir la syn­chro­ni­sa­tion en cap­turant des élé­ments de la nature holis­tique de l’ex­pres­sion humaine, créant ain­si une inter­ac­tion plus immer­sive et plus naturelle.

Cepen­dant, le con­cept de réso­nance présente égale­ment le défi de nav­iguer dans la val­lée de l’é­trange, un phénomène où les entités humanoïdes qui ressem­blent étroite­ment aux humains provo­quent un malaise. Il est essen­tiel de trou­ver le bon équili­bre pour que la réac­tiv­ité de l’IA s’aligne de manière authen­tique sur les expres­sions humaines, sans entr­er dans ce domaine décon­cer­tant. Le poten­tiel des BCI pour favoris­er la syn­chro­ni­sa­tion entre le cerveau humain et l’IA ouvre des per­spec­tives promet­teuses mais dif­fi­ciles pour la col­lab­o­ra­tion entre l’homme et l’ordinateur.

Se tourner vers les neurosciences

Les neu­ro­sciences éclairent non seule­ment les fonde­ments de l’in­tel­li­gence biologique, mais peu­vent égale­ment guider le développe­ment de l’in­tel­li­gence arti­fi­cielle2. La prise en compte de con­traintes évo­lu­tives telles que l’ef­fi­cac­ité de l’e­space et de la com­mu­ni­ca­tion, qui ont façon­né l’émer­gence de sys­tèmes effi­caces dans la nature, incite à explor­er l’in­té­gra­tion de con­traintes sim­i­laires dans les sys­tèmes d’IA, tout en envis­ageant des envi­ron­nements arti­fi­ciels qui évolu­ent organique­ment et qui sont opti­misés pour l’ef­fi­cac­ité et la dura­bil­ité envi­ron­nemen­tale, le tout, au cœur de la recherche sur ce que l’on appelle l’« infor­ma­tique neuromorphique ». 

Par exem­ple, l’ac­tiv­ité neu­ronale oscil­la­toire sem­ble stim­uler la com­mu­ni­ca­tion entre des zones cérébrales éloignées. Le cerveau utilise un rythme thê­ta-gam­ma pour emballer et trans­met­tre des infor­ma­tions, à l’in­star d’un ser­vice postal, amélio­rant ain­si l’ef­fi­cac­ité de la trans­mis­sion et de la récupéra­tion des don­nées3. Cette inter­ac­tion a été com­parée à un sys­tème avancé de trans­mis­sion de don­nées, où les ondes cérébrales alpha et bêta à basse fréquence sup­pri­ment l’ac­tiv­ité neu­ronale asso­ciée aux stim­uli prévis­i­bles, ce qui per­met aux neu­rones des régions sen­sorielles de met­tre en évi­dence les stim­uli inat­ten­dus par le biais d’on­des gam­ma à plus haute fréquence. Bas­tos et al.4 ont con­staté que les pré­dic­tions inhibi­tri­ces véhiculées par les ondes alpha/bêta cir­cu­lent générale­ment vers l’ar­rière à tra­vers les couch­es cor­ti­cales plus pro­fondes, tan­dis que les ondes gam­ma exci­ta­tri­ces véhic­u­lant des infor­ma­tions sur les nou­veaux stim­uli se propa­gent vers l’a­vant à tra­vers les couch­es superficielles.

De récentes expéri­ences d’IA, en par­ti­c­uli­er celles impli­quant le GPT‑4 de Ope­nAI, révè­lent des par­al­lèles intri­g­ants avec l’ap­pren­tis­sage évolutif. 

Dans le cerveau des mam­mifères, les ondu­la­tions d’on­des vives (SPW‑R) exer­cent une influ­ence exci­ta­trice général­isée dans l’ensem­ble du cor­tex et de mul­ti­ples noy­aux sous-cor­ti­caux5. Au sein de ces SPW‑R, les pics neu­ronaux sont métic­uleuse­ment orchestrés à la fois tem­porelle­ment et spa­tiale­ment par les interneu­rones, ce qui facilite la réac­ti­va­tion con­den­sée de seg­ments de séquences neu­ronales éveil­lées6. Cette activ­ité orchestrée facilite la trans­mis­sion des représen­ta­tions hip­pocampiques com­primées aux cir­cuits dis­tribués, ren­forçant ain­si le proces­sus de con­sol­i­da­tion de la mémoire7.

De récentes expéri­ences d’IA, en par­ti­c­uli­er celles impli­quant le GPT‑4 de Ope­nAI, révè­lent des par­al­lèles intri­g­ants avec l’ap­pren­tis­sage évo­lu­tif. Con­traire­ment à la for­ma­tion tra­di­tion­nelle axée sur les tâch­es, GPT‑4 apprend à par­tir de vastes ensem­bles de don­nées, en affi­nant ses répons­es sur la base des « expéri­ences » accu­mulées – par ailleurs, la recon­nais­sance des formes par les GPT est par­al­lèle à la recon­nais­sance des formes par les couch­es de neu­rones dans le cerveau. Cette approche reflète la capac­ité d’adap­ta­tion observée dans l’évo­lu­tion naturelle, où les organ­ismes affinent leurs com­porte­ments au fil du temps pour mieux s’adapter à leur environnement.

Des ondes cérébrales aux fréquences de l’IA

S’in­spi­rant de l’ar­chi­tec­ture du cerveau, les réseaux neu­ronaux de l’in­tel­li­gence arti­fi­cielle sont con­stru­its avec des nœuds organ­isés en couch­es qui répon­dent aux entrées et génèrent ensuite des sor­ties. Dans le domaine de la recherche sur la syn­chro­ni­sa­tion neu­ronale humaine, l’é­tude du rôle des oscil­la­tions s’est avérée être un domaine d’in­térêt essen­tiel. L’ac­tiv­ité neu­ronale oscil­la­toire à haute fréquence appa­raît comme un élé­ment cru­cial, démon­trant sa capac­ité à faciliter la com­mu­ni­ca­tion entre des zones cérébrales éloignées. Dans ce con­texte, le code neu­ronal thê­ta-gam­ma est un phénomène par­ti­c­ulière­ment intriguant. Il mon­tre com­ment notre cerveau utilise une méth­ode par­ti­c­ulière pour « emballer » et « trans­met­tre » les infor­ma­tions, tout comme un ser­vice postal qui emballe métic­uleuse­ment les paque­ts en vue d’une livrai­son effi­cace. Ce sys­tème d’« embal­lage » neu­ronal orchestre des rythmes spé­ci­fiques, sem­blables à une danse coor­don­née, ce qui garan­tit la trans­mis­sion ratio­nal­isée des infor­ma­tions, et il est encap­sulé dans ce que l’on appelle le rythme thêta-gamma.

Cette per­spec­tive s’aligne sur le con­cept d’« infor­ma­tique neu­ro­mor­phique », où l’ar­chi­tec­ture de l’IA est basée sur des cir­cuits neu­ronaux. Le prin­ci­pal avan­tage de l’informatique neu­ro­mor­phique réside dans son effi­cac­ité de cal­cul, ce qui per­met de relever les défis impor­tants en matière de con­som­ma­tion d’én­ergie aux­quels sont con­fron­tés les mod­èles d’IA tra­di­tion­nels. La for­ma­tion de grands mod­èles d’IA, tels que ceux util­isés dans le traite­ment du lan­gage naturel ou la recon­nais­sance d’im­ages, peut con­som­mer une quan­tité exor­bi­tante d’én­ergie. Par exem­ple, la for­ma­tion d’un seul mod­èle d’IA peut émet­tre autant de dioxyde de car­bone que cinq voitures pen­dant toute leur durée de vie8. De plus, des chercheurs de l’U­ni­ver­sité du Mass­a­chu­setts, Amherst, ont con­staté que l’empreinte car­bone de l’entraînement des mod­èles d’ap­pren­tis­sage pro­fond a dou­blé env­i­ron tous les 3,5 mois, dépas­sant de loin les amélio­ra­tions de l’ef­fi­cac­ité infor­ma­tique9.

L’in­for­ma­tique neu­ro­mor­phique offre une alter­na­tive promet­teuse. En imi­tant l’ar­chi­tec­ture du cerveau humain, les sys­tèmes neu­ro­mor­phiques visent à attein­dre une plus grande effi­cac­ité de cal­cul et une plus faible con­som­ma­tion d’én­ergie par rap­port aux archi­tec­tures d’IA con­ven­tion­nelles10. Par exem­ple, la puce neu­ro­mor­phique TrueNorth d’IBM a démon­tré des ordres de grandeur sig­ni­fi­cat­ifs en ter­mes d’ef­fi­cac­ité énergé­tique par rap­port aux CPU et GPU tra­di­tion­nels11. Et, les archi­tec­tures infor­ma­tiques neu­ro­mor­phiques sont intrin­sèque­ment adap­tées aux tâch­es de traite­ment en temps réel à faible con­som­ma­tion d’én­ergie, ce qui les rend idéales pour des appli­ca­tions telles que l’in­for­ma­tique périphérique et les sys­tèmes autonomes, con­tribuant ain­si davan­tage aux économies d’én­ergie et à la dura­bil­ité environnementale.

Implications pour la société

Dans le domaine de la for­ma­tion et du développe­ment des com­pé­tences, l’IA syn­chro­nisée a le poten­tiel de per­son­nalis­er les expéri­ences d’ap­pren­tis­sage en fonc­tion de la courbe d’ap­pren­tis­sage unique d’un employé, facil­i­tant ain­si une acqui­si­tion plus rapi­de et plus effi­cace des com­pé­tences. Du point de vue de l’en­gage­ment des clients, les inter­faces d’IA syn­chro­nisée pour­raient com­pren­dre plus pré­cisé­ment et, dans cer­tains cas, anticiper les attentes des util­isa­teurs sur la base de mod­èles com­porte­men­taux avancés.

En ce qui con­cerne l’ef­fi­cac­ité opéra­tionnelle, en par­ti­c­uli­er dans des secteurs tels que la fab­ri­ca­tion ou la logis­tique, les sys­tèmes d’IA qui tra­vail­lent en coor­di­na­tion les uns avec les autres peu­vent opti­miser les proces­sus, réduire les déchets et ren­forcer la chaîne d’ap­pro­vi­sion­nement. Il en résul­terait une rentabil­ité accrue, avec une capac­ité tou­jours plus grande à inté­gr­er des con­sid­éra­tions de dura­bil­ité. En matière de ges­tion des risques, des sys­tèmes d’IA syn­chro­nisés qui analy­sent de vastes ensem­bles de don­nées en col­lab­o­ra­tion pour­raient mieux prédire les risques poten­tiels ou les ralen­tisse­ments du marché, ce qui per­me­t­trait aux entre­pris­es et autres organ­i­sa­tions de se pré­par­er ou s’adapter avant l’ap­pari­tion d’une crise afin de lim­iter toutes les réper­cus­sions sociales et socié­tales qui en découlent. De même, des sys­tèmes d’IA syn­chro­nisés pour­raient fournir des infor­ma­tions per­me­t­tant d’amélior­er l’ef­fi­cac­ité des straté­gies de plan­i­fi­ca­tion urbaine et de pro­tec­tion de l’en­vi­ron­nement. Cela pour­rait con­duire à une meilleure ges­tion du traf­ic, à des économies d’én­ergie et à un con­trôle de la pol­lu­tion, amélio­rant ain­si la qual­ité de vie dans les zones urbaines.

Dans divers domaines, au-delà des affaires, le déploiement de l’IA avec une ori­en­ta­tion pro-sociale offre un immense poten­tiel pour le bien-être de l’hu­man­ité et de la planète. Dans le domaine de la san­té en par­ti­c­uli­er, la syn­chro­ni­sa­tion entre le cerveau humain et les sys­tèmes d’IA pour­rait ouvrir une ère révo­lu­tion­naire pour les soins aux patients et pour la recherche médi­cale. Des études récentes soulig­nent l’im­pact posi­tif de la syn­chro­ni­sa­tion des mou­ve­ments des clin­i­ciens avec ceux des patients, ce qui ren­force la con­fi­ance et réduit la douleur. L’ex­ten­sion de ce con­cept aux chat­bots d’IA ou aux robots soignants syn­chro­nisés avec les per­son­nes dont ils s’oc­cu­pent promet d’amélior­er l’ex­péri­ence des patients et les résul­tats, comme en témoignent des recherch­es récentes indi­quant que les LLM sont plus per­for­mants que les médecins dans le diag­nos­tic des mal­adies, et que les patients préfèrent leur interaction.

Dans le domaine de l’é­d­u­ca­tion, l’in­té­gra­tion de sys­tèmes d’IA axés sur la syn­chro­ni­sa­tion est tout aus­si promet­teuse. Des recherch­es ont démon­tré que la syn­chro­ni­sa­tion des ondes cérébrales dans les class­es de lycée per­me­t­tait de prédire des per­for­mances plus élevées et le bon­heur des élèves12. Cette étude souligne l’im­por­tance de la syn­chro­ni­sa­tion neu­ronale dans l’en­vi­ron­nement d’ap­pren­tis­sage. En tirant par­ti d’un sys­tème de tutorat d’IA capa­ble de détecter les états cog­ni­tifs des élèves et d’y répon­dre en temps réel, les tech­nolo­gies de l’é­d­u­ca­tion peu­vent poten­tielle­ment repro­duire les résul­tats posi­tifs observés dans les salles de classe syn­chro­nisées.  L’in­té­gra­tion de sys­tèmes d’IA en réso­nance avec les états cérébraux des élèves pour­rait créer une atmo­sphère d’ap­pren­tis­sage plus prop­ice et plus effi­cace, opti­misant ain­si l’en­gage­ment et favorisant des résul­tats d’ap­pren­tis­sage positifs.

Perspectives et potentiel

L’en­t­hou­si­asme entourant les per­spec­tives de syn­chro­ni­sa­tion cerveau-machine et machine-machine s’ac­com­pa­gne d’un ensem­ble de préoc­cu­pa­tions pri­mor­diales qui néces­si­tent un exa­m­en appro­fon­di qui est tout sauf tech­nique. La con­fi­den­tial­ité des don­nées devient une préoc­cu­pa­tion majeure, étant don­né la nature intime des infor­ma­tions neu­ronales traitées par ces sys­tèmes. Les dimen­sions éthiques d’une telle syn­chro­ni­sa­tion, en par­ti­c­uli­er dans le domaine de la prise de déci­sion de l’IA, présen­tent des défis com­plex­es qui néces­si­tent un exa­m­en minu­tieux1314.

Dans le pro­longe­ment de ces préoc­cu­pa­tions, deux ques­tions pri­mor­diales méri­tent une atten­tion par­ti­c­ulière. Pre­mière­ment, la préser­va­tion de l’au­tonomie humaine est un principe fon­da­men­tal. Alors que nous entrons dans l’ère de la syn­chro­ni­sa­tion cerveau-machine, il devient impératif de veiller à ce que les indi­vidus con­ser­vent leur capac­ité à faire des choix éclairés. Éviter les scé­nar­ios dans lesquels les indi­vidus se sen­tent con­traints ou manip­ulés par la tech­nolo­gie est cru­cial pour le respect des normes éthiques.

Deux­ième­ment, la ques­tion de l’équité dans l’ac­cès à ces tech­nolo­gies se pose avec acuité. Actuelle­ment, ces tech­nolo­gies avancées sont sou­vent coû­teuses et peu­vent ne pas être acces­si­bles à tous les pans de la société. Cela soulève des inquié­tudes quant à l’ex­ac­er­ba­tion des iné­gal­ités exis­tantes15. Un scé­nario dans lequel seuls cer­tains groupes priv­ilégiés peu­vent exploiter les avan­tages de la syn­chro­ni­sa­tion cerveau-machine risque d’ag­graver les frac­tures socié­tales. Et, le manque de sen­si­bil­i­sa­tion à ces tech­nolo­gies aggrave encore les prob­lèmes d’ac­cès équitable16.

L’in­té­gra­tion de l’IA à la cog­ni­tion humaine mar­que le seuil d’une ère sans précé­dent, où les machines ne se con­tentent pas de repro­duire l’in­tel­li­gence humaine, mais reflè­tent égale­ment des sché­mas com­porte­men­taux et des émo­tions com­plex­es. La syn­chro­ni­sa­tion poten­tielle de l’IA avec les inten­tions et les émo­tions humaines promet de redéfinir la nature de la col­lab­o­ra­tion homme-machine et, peut-être même, l’essence de la con­di­tion humaine. Le résul­tat de l’har­mon­i­sa­tion des humains et des machines aura un impact sig­ni­fi­catif sur l’hu­man­ité et la planète. Cela dépen­dra des aspi­ra­tions humaines qui guideront alors cette quête et ouvri­ra ain­si des oppor­tu­nités pour une expéri­ence avancée de l’IA cen­trée sur l’hu­main, dans un « mode de fusion », tel qu’il a été inven­té dans le con­cept d’« intégrité arti­fi­cielle ». Cela soulève une ques­tion intem­porelle, qui se réper­cute tout au long de l’his­toire de l’hu­man­ité : à quoi accor­dons-nous de la valeur, et pourquoi ?

Il est essen­tiel de soulign­er que les impli­ca­tions de la syn­chro­ni­sa­tion des humains et des machines vont bien au-delà du domaine des experts en IA ; elles con­cer­nent chaque indi­vidu. D’où la néces­sité de sen­si­bilis­er et d’im­pli­quer le pub­lic à chaque étape de ce voy­age trans­for­ma­teur. À mesure que le développe­ment de l’IA pro­gresse, il est essen­tiel de veiller à ce que les dimen­sions éthiques, socié­tales et exis­ten­tielles soient façon­nées par des valeurs et des réflex­ions col­lec­tives, afin d’éviter que les grandes entre­pris­es tech­nologiques ne pren­nent des déci­sions uni­latérales qui pour­raient ne pas cor­re­spon­dre aux intérêts plus larges de l’hu­man­ité. Ce qui se passera ensuite déter­min­era notre avenir indi­vidu­el et col­lec­tif. Il est de notre respon­s­abil­ité com­mune de bien faire les choses.

1Picard, R. W. (1995). "Affec­tive Com­put­ing." MIT Media Lab­o­ra­to­ry Per­cep­tu­al Com­put­ing Sec­tion.
2Achter­berg, J., Akar­ca, D., Strouse, D.J. et al. Spa­tial­ly embed­ded recur­rent neur­al net­works reveal wide­spread links between struc­tur­al and func­tion­al neu­ro­science find­ings. Nature Machine Intel­li­gence 5, 1369–1381 (2023). https://doi.org/10.1038/s42256-023–00748‑9
3Lis­man, J. E., & Idiart, M. A. (1995). Stor­age of 7 +/- 2 short-term mem­o­ries in oscil­la­to­ry sub­cy­cles. Sci­ence, 267(5203), 1512–1515. [DOI: 10.1126/science.7878473]
4Bas­tos, A. M., Lundqvist, M., Waite, A. S., & Miller, E. K. (2020). Lay­er and rhythm speci­fici­ty for pre­dic­tive rout­ing. Pro­ceed­ings of the Nation­al Acad­e­my of Sci­ences, 117(49), 31459–31469. [https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​0​1​4​8​68117]
5Buzsá­ki G. (2015). Hip­pocam­pal sharp wave-rip­ple: A cog­ni­tive bio­mark­er for episod­ic mem­o­ry and plan­ning. Hip­pocam­pus. 2015 Oct;25(10):1073–188. doi: 10.1002/hipo.22488. PMID: 26135716; PMCID: PMC4648295.
6O’Neill, J., Boc­cara, C. N., Stel­la, F., Schoe­nen­berg­er, P., & Csicsvari, J. (2008). Super­fi­cial lay­ers of the medi­al entorhi­nal cor­tex replay inde­pen­dent­ly of the hip­pocam­pus. Sci­ence, 320(5879), 129–133.
7Ego-Sten­gel, V., Wil­son, M. A. (2010). Dis­rup­tion of rip­ple-asso­ci­at­ed hip­pocam­pal activ­i­ty dur­ing rest impairs spa­tial learn­ing in the rat. Hip­pocam­pus, 20(1), 1–10.
8Strubell, E., Ganesh, A., & McCal­lum, A. (2019). Ener­gy and pol­i­cy con­sid­er­a­tions for deep learn­ing in NLP. Pro­ceed­ings of the 57th Annu­al Meet­ing of the Asso­ci­a­tion for Com­pu­ta­tion­al Lin­guis­tics, 3645–3650. https://​doi​.org/​1​0​.​1​8​6​5​3​/​v​1​/​P​1​9​-1356
9Schwartz, R., Dodge, J., Smith, N. A., Over­ton, J. ; Varsh­ney, L. R. (2019). Green AI. Pro­ceed­ings of the AAAI Con­fer­ence on Arti­fi­cial Intel­li­gence, 33, 9342–9350. https://​doi​.org/​1​0​.​1​6​0​9​/​a​a​a​i​.​v​3​3​i​0​1​.​3​3​0​19342
10Furber, S. B., Gallup­pi, F., Tem­ple, S., Plana, L. A. (2014). The SpiN­Naker Project. Pro­ceed­ings of the IEEE, 102(5), 652–665. https://​doi​.org/​1​0​.​1​1​0​9​/​J​P​R​O​C​.​2​0​1​4​.​2​3​04638
11Merol­la, P. A., Arthur, J. V., Alvarez-Icaza, R., Cas­sidy, A. S., Sawa­da, J., Akopy­an, F., … Mod­ha, D. S. (2014). A mil­lion spik­ing-neu­ron inte­grat­ed cir­cuit with a scal­able com­mu­ni­ca­tion net­work and inter­face. Sci­ence, 345(6197), 668–673. https://​doi​.org/​1​0​.​1​1​2​6​/​s​c​i​e​n​c​e​.​1​2​54642
12Dikker, S., Wan, L., Davidesco, I., Kaggen, L., Oost­rik, M., McClin­tock, J., … & Poep­pel, D. (2017). Brain-to- brain syn­chrony tracks real-world dynam­ic group inter­ac­tions in the class­room. Cur­rent Biol­o­gy, 27(9), 1375–1380.
13Dignum, V. (2018). Respon­si­ble Arti­fi­cial Intel­li­gence: How to Devel­op and Use AI in a Respon­si­ble Way. AI & Soci­ety, 33(3), 475–476. https://doi.org/10.1007/s00146-018‑0812‑0
14Flori­di, L., Cowls, J., Bel­tram­et­ti, M., Chati­la, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R.,Pagallo, U., Rossi, F., Schafer, B., Val­cke, P., & Vayena, E. (2018). AI4People—An Eth­i­cal Frame­work for a Good AI Soci­ety: Oppor­tu­ni­ties, Risks, Prin­ci­ples, and Rec­om­men­da­tions. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018‑9482‑5
15Diakopou­los, N. (2016). Account­abil­i­ty in Algo­rith­mic Deci­sion Mak­ing. Com­mu­ni­ca­tions of the ACM, 59(2), 56–62. https://​doi​.org/​1​0​.​1​1​4​5​/​2​8​44148
16Kostko­va, P., Brew­er, H., de Lusig­nan, S., Fot­trell, E., Goldacre, B., Hart, G., Koczan, P., Knight, P., Mar­soli­er, C., McK­endry, R. A., Ross, E., Sasse, A., Sul­li­van, R., Chay­tor, S., Steven­son, O., Vel­ho, R., Tooke, J., & Ross, E. (2016). Who Owns the Data? Open Data for Health­care. Fron­tiers in Pub­lic Health, 4. https://​doi​.org/​1​0​.​3​3​8​9​/​f​p​u​b​h​.​2​0​1​6​.​00107

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter