IA enjeux
π Numérique π Science et technologies
Les nouveaux enjeux de l’IA

Quels enjeux quand les algorithmes remplacent l’humain ? 

Véronique Steyer, maîtresse de conférences en management de l’innovation à l’École polytechnique (IP Paris) et Milie Taing, fondatrice de Lili.ai
Le 22 mars 2023 |
5 min. de lecture
Véronique Steyer
Véronique Steyer
maîtresse de conférences en management de l’innovation à l’École polytechnique (IP Paris)
Milie Taing
Milie Taing
fondatrice de Lili.ai
En bref
  • Les intelligences artificielles (IA) participent de plus en plus aux décisions de notre quotidien, mais soulèvent des enjeux pratiques et éthiques.
  • Il faut distinguer la notion d’interprétabilité de l’IA (son fonctionnement) de la notion de rendu de compte (le degré de responsabilité du créateur/utilisateur).
  • Un projet de réglementation européenne devrait aboutir en 2023 à classer les IA selon différents niveaux de risque.
  • L’IA peut libérer l’humain de tâches chronophages et répétitives et lui permettre de se concentrer sur des tâches plus importantes.
  • La France a tout intérêt à investir dans ce type d’IA pour la réalisation des très gros chantiers car elle a accès à des quantités colossales de données à traiter.

Les sys­tèmes infor­ma­tiques par­ticipent de plus en plus aux déci­sions de notre quo­ti­di­en, notam­ment les intel­li­gences arti­fi­cielles (IA), ces sys­tèmes qui per­me­t­tent de pren­dre en charge des fonc­tions jusque-là pro­pres aux humains. Mais com­ment peut-on leur faire con­fi­ance si l’on ignore leurs modal­ités de fonc­tion­nement ? Et qu’en est-il quand ce sys­tème est amené à pren­dre des déci­sions qui peu­vent met­tre nos vies en jeu ? 

Réglementer les IA 

Véronique Stey­er, maître de con­férences au départe­ment man­age­ment de l’innovation et entre­pre­nar­i­at (MIE) de l’École poly­tech­nique, tra­vaille depuis plusieurs années sur la ques­tion de l’explicabilité de l’IA. Selon elle, il est impor­tant de dis­tinguer la notion d’« inter­préta­bil­ité »  – qui con­siste à com­pren­dre com­ment fonc­tionne un algo­rithme, pour pou­voir éventuelle­ment amélior­er sa robustesse et diag­nos­ti­quer ses failles – de la notion de « ren­du de compte ». Cela revient à se deman­der : en cas de dégâts matériels ou cor­porels causés  par une intel­li­gence arti­fi­cielle, quel est le degré de respon­s­abil­ité  de la per­son­ne ou de l’entreprise qui a conçu ou qui utilise cette IA ? 

Or les out­ils d’explicabilité des IA, quand ils exis­tent, sont générale­ment dévelop­pés dans une logique d’interprétabilité, et non de ren­du de compte. En clair, ils per­me­t­tent d’observer ce qui se passe dans le sys­tème, sans for­cé­ment chercher à com­pren­dre ce qui s’y passe, et quelles déci­sions sont pris­es en fonc­tion de quels critères. Ils peu­vent ain­si être de bons indi­ca­teurs d’un degré de per­for­mance de l’IA, sans pour autant assur­er l’utilisateur de la per­ti­nence des déci­sions prises. 

Pour la chercheuse, il serait donc néces­saire d’encadrer d’un point de vue régle­men­taire ces IA. En France, le code de la san­té publique stip­ule déjà que « les con­cep­teurs d’un traite­ment algo­rith­mique […] s’assurent de l’explicabilité de son fonc­tion­nement pour les util­isa­teurs » (loi n° 2021–1017 du 2 août 2021). Avec ce texte, le lég­is­la­teur visait plus par­ti­c­ulière­ment les IA per­me­t­tant de diag­nos­ti­quer cer­taines mal­adies, dont des can­cers. Mais encore faut-il for­mer les util­isa­teurs – en l’occurrence les pro­fes­sion­nels de san­té – non seule­ment à l’IA, mais aus­si au fonc­tion­nement et à l’interprétation des out­ils d’explication de l’IA… Com­ment savoir autrement si le diag­nos­tic posé l’est en fonc­tion des bons critères ? 

Au niveau européen, un pro­jet de règle­ment est en cours, qui devrait aboutir en 2023 à class­er les IA selon dif­férents niveaux de risque, et exiger en fonc­tion de cela une cer­ti­fi­ca­tion qui garan­ti­rait un degré d’explicabilité plus ou moins fort. Mais qui doit met­tre au point ces out­ils, com­ment éviter que les GAFA ne les con­trô­lent ? « On est loin d’avoir répon­du à toutes ces ques­tions épineuses, et nom­bre d’entreprises qui met­tent au point des IA mécon­nais­sent encore la notion d’explicabilité » con­state Véronique Steyer. 

Se libérer des tâches chronophages

Pen­dant ce temps, des IA de plus en plus per­for­mantes sont dévelop­pées dans des secteurs d’activité de plus en plus divers ! Entre­pre­neuse dans le secteur de l’intelligence arti­fi­cielle, Milie Taing a fondé la start-up Lili​.ai en 2016 sur le cam­pus de Poly­tech­nique. Elle a d’abord passé huit ans comme chargée de pro­jet, spé­cial­isée en con­trôle des coûts, chez SNC Lavalin, le leader cana­di­en des grands pro­jets. C’est là qu’elle a été amenée à retrac­er l’historique de plusieurs dossiers de chantiers impor­tants qui avaient pris énor­mé­ment de retard. 

Pour doc­u­menter les récla­ma­tions, il fal­lait fouiller jusqu’à 18 ans de don­nées très hétérogènes (échanges de mails, pièces jointes, comptes ren­dus de réu­nion, etc.) et repér­er à quel moment s’étaient pro­duites les erreurs expli­quant le retard pris par ces chantiers. Mais impos­si­ble pour des humains d’analyser des don­nées éparpil­lées sur des mil­liers de boîtes mails et des dizaines d’années ! Or, dans les grands pro­jets de BTP, ce chaos doc­u­men­taire peut entrain­er de très lour­des pénal­ités, et par­fois même con­duire au dépôt de bilan. Milie Taing a donc eu l’idée de met­tre au point, avec des data sci­en­tists et des développeurs, un logi­ciel d’intelligence arti­fi­cielle dont le rôle est de faire de l’archéologie documentaire.

« Pour explor­er le passé d’un pro­jet, nos algo­rithmes ouvrent tous les doc­u­ments con­cer­nant ce pro­jet un par un. Puis ils en extraient toutes les phras­es et les mots-clés, et les éti­quet­tent automa­tique­ment avec des hash­tags, un peu à la façon de Twit­ter, explique Milie Taing. Ces hash­tags per­me­t­tent finale­ment de men­er des recherch­es doc­u­men­taires de façon effi­cace. Pour éviter les déra­pages s’il s’agit d’un pro­jet en cours, nous avons mod­élisé une cen­taine de prob­lèmes récur­rents, risquant de débouch­er sur une récla­ma­tion, et de pos­si­bles pénal­ités. »

Le logi­ciel de la société Lili​.ai est déjà util­isé par de grands comptes, comme la Société du grand Paris, EDF ou Ora­no (ges­tion des cen­trales nucléaires). Et selon Milie Taing, il ne men­ace pas l’emploi des chefs de pro­jets. « L’IA dans ce cas est une aide au pilotage, qui per­met d’identifier des dys­fonc­tion­nements avant qu’il ne soit trop tard, estime-t-elle. Elle vise à libér­er l’humain des tâch­es chronophages et répéti­tives, lui per­me­t­tant de se con­cen­tr­er sur des travaux à plus forte valeur ajoutée ». 

L’IA vise à libér­er l’humain des tâch­es chronophages pour lui per­me­t­tre de se con­cen­tr­er sur des travaux à plus forte valeur ajoutée.

Mais cette IA ne risque-t-elle pas de point­er la respon­s­abil­ité, voire la cul­pa­bil­ité de cer­taines per­son­nes dans l’échec d’un pro­jet ? « En fait, les salariés sont attachés à leurs pro­jets et prêts à don­ner leurs e‑mails pour recou­vrir les coûts et la marge qui aurait été per­due en cas de retard dans la réal­i­sa­tion du chantier. Si, juridique­ment, les mails des per­son­nels appar­ti­en­nent à l’entreprise, nous avons inclus des fonc­tions très sophis­tiquées de fil­trage sur notre logi­ciel qui don­nent la main aux employés sur ce qu’ils acceptent ou pas d’exporter dans la solu­tion Lili ». 

Une belle place pour la France

Selon Milie Taing, la France a tout intérêt à inve­stir dans ce type d’IA, car elle a une des meilleures exper­tis­es inter­na­tionales dans la réal­i­sa­tion des très gros chantiers, et a donc accès à des quan­tités colos­sales de don­nées. En revanche, elle sera moins per­for­mante que les Asi­a­tiques, par exem­ple, sur d’autres appli­ca­tions, comme la recon­nais­sance faciale, qui de plus va à l’encontre d’une cer­taine éthique française. 

« Toute tech­nolo­gie porte en elle un script, avec ce qu’elle nous per­met ou non de faire, le rôle qu’elle donne à l’humain, les valeurs qu’elle porte aus­si, souligne de son côté Véronique Stey­er. Par exem­ple, dans les années 50, en Cal­i­fornie, on a con­stru­it une route menant à une plage, et pour que cette plage ne soit pas envahie par une pop­u­la­tion d’origine trop mod­este, les ponts enjam­bant cette route ont été posés très bas, ce qui inter­di­s­ait le pas­sage des bus. Il me sem­ble donc très impor­tant de com­pren­dre non seule­ment com­ment fonc­tionne un sys­tème, mais aus­si quels sont les choix de société inscrits dans un sys­tème d’IA de manière totale­ment tacite, qu’on ne voit pas ». 

Actuelle­ment, les IA qui se répan­dent le plus sont les chat­bots, dont on ne peut pas dire qu’ils men­a­cent l’espèce humaine. Mais en s’habituant à la per­for­mance de ces chat­bots, on pour­rait demain nég­liger de ques­tion­ner les mécan­ismes et les objec­tifs d’IA plus sophistiquées. 

Marina Julienne

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter