Quelle éthique pour l’IA dans le médical
- L’intelligence artificielle s’intègre progressivement à la médecine prédictive et personnalisée ou dans l’aide à la décision thérapeutique par le corps médical.
- Le projet MIRACLE a pour objectif d’identifier les risques de récidives des patients touchés par un cancer du poumon, grâce à un algorithme d’aide à la décision médicale.
- Pour cela, l’algorithme est alimenté avec les multiples données de patients ; plus les données sont nombreuses, plus les marges d’erreur de l’algorithme diminuent.
- Mais plus l’IA est performante, plus son fonctionnement s’opacifie pour les praticiens, qui n’ont pas les moyens de comprendre quelles données ont mené à la probabilité de récidive proposée par l’IA.
- L’IA pose donc des questionnements éthiques de transparence à la médecine, où la crainte principale des patients reste que la machine impose un diagnostic sans intervention humaine.
L’intelligence artificielle pour détecter le cancer du sein1 ou de la prostate2, des algorithmes calculant notre âge physiologique pour prédire le vieillissement3 ou encore des agents conversationnels au chevet de notre santé mentale4… Les outils d’intelligence artificielle s’installent progressivement dans la pratique médicale. En ligne de mire, la médecine prédictive et personnalisée, mais aussi l’aide à la décision thérapeutique par le corps médical. Mais comment cette relation entre médecins et IA est-elle perçue par les patients ? Comment les praticiens interagissent-ils vraiment avec la technologie ?
C’est la question que s’est posée Damien Lacroux, philosophe des sciences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel. « Lors de mes entretiens, j’ai remarqué que les patients fantasment une relation du médecin et de l’IA particulière », explique le chercheur, spécialisé dans l’intégration des algorithmes en cancérologie. « On a tendance à imaginer que les oncologues délibèrent sur notre cas entre spécialistes humains avant de prendre une décision, et que la technologie intervient dans un second temps pour valider la délibération », détaille-t-il. Mais s’agit-il de la réalité ?
L’IA pour prévenir des risques de récidive du cancer du poumon
Pour le savoir, Damien Lacroux a échangé avec les scientifiques du projet MIRACLE5. Cette étude européenne au nom ambitieux a été lancée en 2021 et regroupe des laboratoires italiens, espagnols, allemands et français. L’objectif : identifier les risques de récidives des patients touchés par un cancer du poumon, grâce à un algorithme d’aide à la décision médicale. Les chercheurs entraînent pour cela une IA (machine learning) de manière supervisée. L’algorithme est « nourri » avec les données d’une cohorte de patients dont l’existence ou non de récidives est connue. Les datas ingurgitées sont de trois types : les données clinico-pathologiques (comme le sexe du patient, l’histoire de sa maladie ou les traitements qu’il a pu suivre) ; les données d’imagerie médicale, et enfin des données omiques, c’est-à-dire une masse d’informations relevant de la biologie moléculaire (étude des ADN et ARN tumoraux).
À partir d’une cohorte de 220 patients, les scientifiques alimentent l’algorithme avec l’ensemble des données collectées, ainsi qu’avec des informations sur la survenue ou non d’une récidive et le délai avant celle-ci. « Ensuite, on laisse l’algorithme mouliner ! Cela représente une quantité de données inimaginable, impossible à traiter par l’humain seul », explique Damien Lacroux. « Aujourd’hui le projet a pris du retard et on finit à peine de récolter les données de la première cohorte. Il reste donc à commencer à entraîner l’algorithme avec ces données, puis à recruter une seconde cohorte pour valider son entraînement. » Il faudra donc attendre encore un peu avant de voir le projet MIRACLE en action.
L’IA : une boîte noire pour la décision médicale
Mais ce fonctionnement pose d’emblée une question éthique, relevée par les chercheurs interrogés par Damien Lacroux. « Les bio-informaticiens parviennent, au début de l’entraînement, à découper les jeux de données et à associer les résultats de l’IA à tel ou tel facteur d’entrée. Mais progressivement, les datas augmentent et cela devient une boîte noire ! » En effet, ce volume croissant de données complexifie les modèles utilisés pour affiner les prédictions. Et là naît le paradoxe : plus la quantité de données croît, plus les marges d’erreurs de l’algorithme diminuent. L’IA est alors plus performante, mais son fonctionnement s’opacifie pour les praticiens. Comment peuvent-ils alors expliquer aux patients les décisions issues de l’IA ou en garantir l’absence de biais, si eux-mêmes ne maîtrisent pas ses rouages internes ?
Dans le domaine de l’oncologie, des arbres de décision sont souvent utilisés pour aider les médecins à justifier leur raisonnement clinique. Cependant, l’intégration de scores algorithmiques dans ces processus peut entrer en conflit avec le besoin de transparence des médecins, qui peinent parfois à comprendre quelles données d’entrée ont conduit l’IA à estimer la probabilité de récidive.
« Même si l’on parvenait à décrypter chaque calcul interne de l’algorithme, le résultat serait mathématiquement si complexe que les médecins ne pourraient pas l’interpréter ni l’exploiter dans leur pratique clinique », détaille un bio-informaticien allemand du projet MIRACLE, interrogé6 par Damien Lacroux dans son étude à paraître.
Cela joue également sur la notion de consentement éclairé du patient. « Le médecin est tenu de fournir suffisamment d’éléments pour que le malade puisse accepter ou non un traitement. Seulement, si le praticien lui-même n’est pas véritablement éclairé, cela pose un problème éthique », ajoute le philosophe. Pourtant, Damien Lacroux le rappelle dans son étude : « La prise en compte des milliers de données omiques des patients a été identifiée par la biologie moléculaire comme un moyen indispensable pour progresser en oncologie. » L’IA permettrait donc une meilleure prise en charge de l’évolution potentielle de la maladie en affinant notamment les traitements proposées… aux dépens de la confiance entre médecins et patients.
L’importance de l’humain aux commandes
Que l’IA soit intégrée à la délibération médicale (ce que Damien Lacroux nomme dans son article la « délibération analytique ») ou qu’elle soit totalement extérieure à la décision et n’intervienne que comme une consultation finale (« délibération synthétique »), sa place doit être entièrement transparente auprès des soignés. La crainte principale relevée par le chercheur lors d’entretiens de groupe avec des patients7 reste que « la machine » impose un diagnostic sans intervention humaine. « Or, aujourd’hui, ce n’est pas du tout le cas », rassure Damien Lacroux.
Ces scores algorithmiques, qui proposent une probabilité de récidive d’un cancer selon les données du patient, mettent également sur la table d’autres questions propres à la médecine prédictive : à partir de quand sommes-nous réellement guéris ? Peut-on réellement se libérer de la maladie lorsque l’incertitude persiste et que l’on vit dans l’anticipation constante d’une éventuelle récidive ? Ces questions, comme tant d’autres, restent encore à élucider.