Accueil / Chroniques / Quelle éthique pour l’IA dans le médical
Enhancing medical cybersecurity with generative ai for data safety in healthcare and life insurance
π Santé et biotech π Science et technologies

Quelle éthique pour l’IA dans le médical

Damien Lacroux
Damien Lacroux
philosophe des sciences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel
En bref
  • L’intelligence artificielle s’intègre progressivement à la médecine prédictive et personnalisée ou dans l’aide à la décision thérapeutique par le corps médical.
  • Le projet MIRACLE a pour objectif d’identifier les risques de récidives des patients touchés par un cancer du poumon, grâce à un algorithme d’aide à la décision médicale.
  • Pour cela, l’algorithme est alimenté avec les multiples données de patients ; plus les données sont nombreuses, plus les marges d’erreur de l’algorithme diminuent.
  • Mais plus l’IA est performante, plus son fonctionnement s’opacifie pour les praticiens, qui n’ont pas les moyens de comprendre quelles données ont mené à la probabilité de récidive proposée par l’IA.
  • L’IA pose donc des questionnements éthiques de transparence à la médecine, où la crainte principale des patients reste que la machine impose un diagnostic sans intervention humaine.

L’intelligence arti­fi­cielle pour détecter le can­cer du sein1 ou de la prostate2, des algo­rithmes cal­cu­lant notre âge phys­i­ologique pour prédire le vieil­lisse­ment3 ou encore des agents con­ver­sa­tion­nels au chevet de notre san­té men­tale4… Les out­ils d’intelligence arti­fi­cielle s’installent pro­gres­sive­ment dans la pra­tique médi­cale. En ligne de mire, la médecine pré­dic­tive et per­son­nal­isée, mais aus­si l’aide à la déci­sion thérapeu­tique par le corps médi­cal. Mais com­ment cette rela­tion entre médecins et IA est-elle perçue par les patients ? Com­ment les prati­ciens inter­agis­sent-ils vrai­ment avec la technologie ?

C’est la ques­tion que s’est posée Damien Lacroux, philosophe des sci­ences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel. « Lors de mes entre­tiens, j’ai remar­qué que les patients fan­tas­ment une rela­tion du médecin et de l’IA par­ti­c­ulière », explique le chercheur, spé­cial­isé dans l’intégration des algo­rithmes en can­cérolo­gie. « On a ten­dance à imag­in­er que les onco­logues délibèrent sur notre cas entre spé­cial­istes humains avant de pren­dre une déci­sion, et que la tech­nolo­gie inter­vient dans un sec­ond temps pour valid­er la délibéra­tion », détaille-t-il. Mais s’agit-il de la réalité ?

L’IA pour prévenir des risques de récidive du cancer du poumon

Pour le savoir, Damien Lacroux a échangé avec les sci­en­tifiques du pro­jet MIRACLE5. Cette étude européenne au nom ambitieux a été lancée en 2021 et regroupe des lab­o­ra­toires ital­iens, espag­nols, alle­mands et français. L’objectif : iden­ti­fi­er les risques de récidives des patients touchés par un can­cer du poumon, grâce à un algo­rithme d’aide à la déci­sion médi­cale. Les chercheurs entraî­nent pour cela une IA (machine learn­ing) de manière super­visée. L’algorithme est « nour­ri » avec les don­nées d’une cohorte de patients dont l’existence ou non de récidives est con­nue. Les datas ingur­gitées sont de trois types : les don­nées clin­i­co-pathologiques (comme le sexe du patient, l’histoire de sa mal­adie ou les traite­ments qu’il a pu suiv­re) ; les don­nées d’imagerie médi­cale, et enfin des don­nées omiques, c’est-à-dire une masse d’informations rel­e­vant de la biolo­gie molécu­laire (étude des ADN et ARN tumoraux).

À par­tir d’une cohorte de 220 patients, les sci­en­tifiques ali­mentent l’al­go­rithme avec l’ensem­ble des don­nées col­lec­tées, ain­si qu’avec des infor­ma­tions sur la sur­v­enue ou non d’une récidive et le délai avant celle-ci. « Ensuite, on laisse l’algorithme moulin­er ! Cela représente une quan­tité de don­nées inimag­in­able, impos­si­ble à traiter par l’humain seul », explique Damien Lacroux.  « Aujourd’hui le pro­jet a pris du retard et on finit à peine de récolter les don­nées de la pre­mière cohorte. Il reste donc à com­mencer à entraîn­er l’algorithme avec ces don­nées, puis à recruter une sec­onde cohorte pour valid­er son entraîne­ment. » Il fau­dra donc atten­dre encore un peu avant de voir le pro­jet MIRACLE en action.

L’IA : une boîte noire pour la décision médicale

Mais ce fonc­tion­nement pose d’emblée une ques­tion éthique, relevée par les chercheurs inter­rogés par Damien Lacroux. « Les bio-infor­mati­ciens parvi­en­nent, au début de l’entraînement, à découper les jeux de don­nées et à associ­er les résul­tats de l’IA à tel ou tel fac­teur d’entrée. Mais pro­gres­sive­ment, les datas aug­mentent et cela devient une boîte noire ! » En effet, ce vol­ume crois­sant de don­nées com­plex­i­fie les mod­èles util­isés pour affin­er les pré­dic­tions. Et là naît le para­doxe : plus la quan­tité de don­nées croît, plus les marges d’erreurs de l’algorithme dimin­u­ent. L’IA est alors plus per­for­mante, mais son fonc­tion­nement s’opacifie pour les prati­ciens. Com­ment peu­vent-ils alors expli­quer aux patients les déci­sions issues de l’IA ou en garan­tir l’absence de biais, si eux-mêmes ne maîtrisent pas ses rouages internes ?

Dans le domaine de l’oncologie, des arbres de déci­sion sont sou­vent util­isés pour aider les médecins à jus­ti­fi­er leur raison­nement clin­ique. Cepen­dant, l’intégration de scores algo­rith­miques dans ces proces­sus peut entr­er en con­flit avec le besoin de trans­parence des médecins, qui peinent par­fois à com­pren­dre quelles don­nées d’entrée ont con­duit l’IA à estimer la prob­a­bil­ité de récidive.

« Même si l’on par­ve­nait à décrypter chaque cal­cul interne de l’al­go­rithme, le résul­tat serait math­é­ma­tique­ment si com­plexe que les médecins ne pour­raient pas l’interpréter ni l’exploiter dans leur pra­tique clin­ique », détaille un bio-infor­mati­cien alle­mand du pro­jet MIRACLE, inter­rogé6 par Damien Lacroux dans son étude à paraître.

Cela joue égale­ment sur la notion de con­sen­te­ment éclairé du patient. « Le médecin est tenu de fournir suff­isam­ment d’élé­ments pour que le malade puisse accepter ou non un traite­ment. Seule­ment, si le prati­cien lui-même n’est pas véri­ta­ble­ment éclairé, cela pose un prob­lème éthique », ajoute le philosophe. Pour­tant, Damien Lacroux le rap­pelle dans son étude : « La prise en compte des mil­liers de don­nées omiques des patients a été iden­ti­fiée par la biolo­gie molécu­laire comme un moyen indis­pens­able pour pro­gress­er en oncolo­gie. » L’IA per­me­t­trait donc une meilleure prise en charge de l’évolution poten­tielle de la mal­adie en affi­nant notam­ment les traite­ments pro­posées… aux dépens de la con­fi­ance entre médecins et patients.

L’importance de l’humain aux commandes

Que l’IA soit inté­grée à la délibéra­tion médi­cale (ce que Damien Lacroux nomme dans son arti­cle la « délibéra­tion ana­ly­tique ») ou qu’elle soit totale­ment extérieure à la déci­sion et n’intervienne que comme une con­sul­ta­tion finale (« délibéra­tion syn­thé­tique »), sa place doit être entière­ment trans­par­ente auprès des soignés. La crainte prin­ci­pale relevée par le chercheur lors d’entretiens de groupe avec des patients7 reste que « la machine » impose un diag­nos­tic sans inter­ven­tion humaine. « Or, aujourd’hui, ce n’est pas du tout le cas », ras­sure Damien Lacroux.

Ces scores algo­rith­miques, qui pro­posent une prob­a­bil­ité de récidive d’un can­cer selon les don­nées du patient, met­tent égale­ment sur la table d’autres ques­tions pro­pres à la médecine pré­dic­tive : à par­tir de quand sommes-nous réelle­ment guéris ?  Peut-on réelle­ment se libér­er de la mal­adie lorsque l’incertitude per­siste et que l’on vit dans l’anticipation con­stante d’une éventuelle récidive ? Ces ques­tions, comme tant d’autres, restent encore à élucider.

Sophie Podevin

1Arti­cle de l’Institut Curie de décem­bre 2022 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​p​u​b​l​i​c​a​t​i​o​n​/​d​i​a​g​n​o​s​t​i​c​-​d​u​-​c​a​n​c​e​r​-​d​u​-​s​e​i​n​-​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​d​i​b​e​x​-​b​i​e​n​t​o​t​-​r​e​alite)
2Arti­cle de l’Institut Curie de novem­bre 2024 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​r​e​c​h​e​r​c​h​e​/​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​l​i​n​s​t​i​t​u​t​-​c​u​r​i​e​-​i​m​p​l​e​m​e​n​t​e​-​l​e​s​-​o​u​t​i​l​s​-​d​i​b​e​x​-​m​e​dical )
3Com­mu­ni­quer de presse Inserm de juin 2023 (https://​presse​.inserm​.fr/​u​n​e​-​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​p​o​u​r​-​p​r​e​d​i​r​e​-​l​e​-​v​i​e​i​l​l​i​s​s​e​m​e​n​t​/​6​7138/)
4Arti­cle de décem­bre 2024 sur Info.gouv prenant comme exem­ple l’application Kanopee (https://​www​.info​.gouv​.fr/​a​c​t​u​a​l​i​t​e​/​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​a​u​-​s​e​r​v​i​c​e​-​d​e​-​l​a​-​s​a​n​t​e​-​m​e​ntale )
5Le code du pro­jet  ERP-2021–23680708 – ERP-2021-ERAPERMED2021-MIRACLE.
6Entre­tien de févri­er 2024 : bio-infor­mati­ciens du pro­jet MIRACLE, Cen­ter for Scal­able Data Ana­lyt­ics and Arti­fi­cial Intel­li­gence (ScaDS. AI), Alle­magne, Leipzig.
7Ces entre­tiens ont été menés avec des asso­ci­a­tions de patients, extérieures au pro­jet MIRACLE

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter