Cet article fait partie du premier numéro de notre magazine Le 3,14 dédié au cerveau. Découvrez-le ici
Plus d’un an après le début de la pandémie, le manque de ressources en matière de communication scientifique, l’abus de mauvaise épistémologie et une gouvernance mondiale discutable – comme le montre la distribution des vaccins – entraînent encore chaque jour des milliers de décès évitables. Même dans les démocraties occidentales, les politiciens ont toujours du mal à comprendre le rôle de la transmission par aérosols et, par conséquent, à prendre des mesures vitales visant à mieux ventiler les lieux clos. Pendant ce temps, le scepticisme à l’égard des vaccins – même s’il se résorbe – reste un dommage collatéral de longue date causé par le désordre du paysage médiatique, et l’« infodémie ».
Les limites de la rationalité
De toutes les caractéristiques humaines, la rationalité est sans doute celle que nous chérissons le plus, car nous la considérons comme une distinction essentielle entre nous et les autres animaux. Cependant, elle s’accompagne souvent d’un excès de confiance en nous, notre intuition, notre instinct et le bon sens… Autant d’éléments qui vont à l’encontre de la rationalité. En outre, personne ne naît en étant parfaitement rationnel. C’est donc la société, par l’accumulation de connaissances, qui dote les individus de la faculté de penser objectivement. Ainsi, l’avenir de notre capacité à résoudre collectivement des problèmes passera inévitablement par l’augmentation du nombre de citoyens aptes à utiliser des stratégies de réflexion externe comme la logique et la méthode scientifique.
De toutes les caractéristiques humaines, la rationalité est sans doute celle que nous chérissons le plus.
Une première étape possible pourrait consister à corriger l’impression selon laquelle notre ère technologique est trop avancée pour que des profanes participent aux débats. Après tout, l’ère informatique n’a pas été initiée par des ingénieurs essayant d’inventer un gadget, mais plutôt par un groupe de philosophes qui réfléchissaient littéralement à la pensée. C’est la crise fondamentale de la logique à la fin du XIXe siècle qui a conduit des philosophes et des mathématiciens à questionner le « traitement de l’information ». Ce faisant, ils ont trouvé des failles utiles dans la logique, et posé les bonnes questions auxquelles Kurt Gödel, Alan Turing, Alonzo Church et d’autres allaient répondre, posant ainsi les bases de l’ordinateur portable et du smartphone1.
Déduction ou induction
Une autre étape utile pourrait être de considérer la logique et la méthode scientifique à travers deux de leurs composantes les plus importantes : la déduction et l’induction. En d’autres termes, la déduction est la logique « descendante », c’est-à-dire la déduction de la conclusion à partir d’un principe général ou d’une loi. C’est cette logique qui est à l’œuvre lorsqu’on lance une fusée, que l’on guérit une maladie bien connue ou qu’un juge fait appliquer la loi.
Au contraire, l’induction est une logique « ascendante », c’est-à-dire que la déduction des lois se fait à partir d’observations que l’on tente d’expliquer. Il peut s’agir de décrire la gravité, de découvrir le remède à une nouvelle maladie ou de définir un nouveau principe juridique à laquelle la société devra se conformer. Toutes ces activités requièrent un état d’esprit inductif.
La première à être apparue historiquement est la logique déductive, établie par le biais d’algorithmes. Si, aujourd’hui, ce terme est principalement associé à la technologie, il convient de rappeler qu’il est à l’origine dérivé du nom du penseur Al Khwarazimi. Ce dernier cherchait surtout à aider les juristes en rédigeant, étape par étape, des règles qu’ils pouvaient appliquer pour obtenir des résultats similaires2. Loin d’être un instrument destiné à rendre le processus décisionnaire obscur, les algorithmes étaient donc à l’origine un outil de transparence. Nous nous sentirons évidemment plus en sécurité si nous savons que nous serons jugés selon une loi bien définie plutôt que selon l’humeur fluctuante d’un autocrate.
Les processus inductifs sont plus complexes que les démarches déductives. Même si des penseurs médiévaux tels que Ibn Al Haytham (Alhazen), Jabir Ibn Hayan (Geber) et, bien sûr, Galilée ont précocement contribué à formaliser la méthode scientifique que nous utilisons aujourd’hui, nous ne disposons toujours pas d’algorithmes inductifs largement utilisés, comme c’est le cas pour la déduction. Bayes et Laplace3 ont cependant réalisé d’importantes tentatives pour mettre au point des algorithmes inductifs. Ce dernier a même produit un important mais très méconnu Essai philosophique sur les probabilités, des décennies après avoir formalisé les lois des probabilités (sous la forme de cours donnés à l’École normale et à l’École polytechnique alors naissantes). En lisant l’essai de Laplace aujourd’hui, on découvre des idées pionnières sur ce qui peut mal tourner avec l’induction – ce que les psychologues cognitifs modernes appellent les « biais cognitifs ».
Le problème de la déduction
Si l’on regarde de plus près, de nombreux biais cognitifs sont en fait dus à l’utilisation d’une logique déductive dans des situations où la méthode inductive serait plus appropriée. Le plus courant est le « biais de confirmation » : notre cerveau préfère rechercher des faits qui confirment l’hypothèse qu’il a déjà formulée plutôt que de déployer un effort mental pour la réfuter. Il existe également l’autre extrême (moins courant), le « relativisme excessif », qui consiste à refuser toute interprétation causale, même lorsque les données fournissent une explication plus appropriée que ses alternatives.
Pour compenser les faiblesses de l’esprit humain et mieux utiliser l’induction, les scientifiques ont donc conçu des heuristiques : expériences contrôlées, essais randomisés, statistiques modernes.… Bayes et Laplace sont même allés encore plus loin, et nous ont donné un algorithme inductif : l’équation de Bayes. Cette équation peut être utilisée pour montrer que la logique du premier ordre – dans laquelle les déclarations sont soit vraies, soit fausses – est un cas particulier des lois de la probabilité, qui laissent une grande place à l’incertitude. Alors que le langage de la déduction consiste principalement à répondre par un « parce que » prédéfini aux questions commençant par « pourquoi », l’induction rigoureuse exige une analyse plus probabiliste qui ajoute un « combien » pour pondérer chaque cause possible.
Pour compenser les faiblesses de l’esprit humain et mieux utiliser l’induction, les scientifiques ont donc conçu des heuristiques.
Le philosophe Daniel Dennett4 décrit ainsi certaines de nos plus grandes révolutions scientifiques et philosophiques comme d’« étranges inversions du raisonnement ». Darwin a inversé la logique selon laquelle des êtres complexes (c’est-à-dire les humains) n’avaient pas nécessairement besoin d’un ancêtre plus complexe pour se développer. Turing a montré que le traitement complexe de l’information ne nécessitait pas que l’agent (c’est-à-dire l’ordinateur) qui l’effectue soit conscient de quelque chose, et qu’il lui suffisait de disposer de simples instructions logiques. J’aimerais faire valoir que ce que Dennett appelle « d’étranges inversions du raisonnement », sont des passages historiques d’un cadre déductif (et quelque peu créationniste) à un cadre inductif. Plus le problème est complexe, moins le « pourquoi » est utile et plus le « combien » est nécessaire.
L’induction comme outil sociétal
Alors que les scientifiques étaient occupés à concevoir la logique et la méthode scientifique au cours des derniers millénaires, la majeure partie de la société a réalisé les limites de l’esprit déductif qui accompagne soit l’autocratie, dans laquelle un monarque établit la règle, soit la théocratie, dans laquelle Dieu – souvent un bouclier commode pour le monarque –, établit la règle. Cela a mené au développement progressif de la démocratie, qui permet l’agrégation des opinions, donc une meilleure induction collective et, en principe, l’établissement de règles plus efficaces. Cependant, la démocratie repose sur l’espoir qu’une fraction significative de la société est bien informée et agit dans son propre intérêt.
Aujourd’hui, ce postulat est plus menacé que jamais. Pour la première fois dans l’histoire de l’humanité, nous produisons des outils de diffusion de l’information qui ont à la fois la puissance de diffusion de la machine de propagande la plus dystopique et les caractéristiques de personnalisation fine du porte-à-porte – pour le meilleur et pour le pire. Les outils numériques dont nous bénéficions aujourd’hui sont pour la plupart le résultat de l’automatisation de la déduction (par la programmation), qui s’est surtout produite au cours du siècle dernier. Alors que nous entrons dans une nouvelle phase d’automatisation, qui est cette fois-ci axée sur les données, il est important de souligner que, au-delà des gadgets et de la technologie, nous essayons d’automatiser l’induction et, ce faisant, de mieux la comprendre et mieux la pratiquer.
Garder cela à l’esprit quand nous concevons nos cours de data science ou que nous communiquons au grand public les avancées de l’intelligence artificielle nous permettrait peut-être de contribuer à produire une nouvelle génération de citoyens, qui ne seraient pas seulement capables de construire ou d’utiliser ces outils, mais qui pourraient aussi prendre part au débat sur l’avenir du raisonnement. Un débat renforçant l’induction, la déduction, le rapport de notre société à l’information et la prise de décision collective. Un débat ne se laissant pas corrompre par les outils numériques, et ne laissant pas ce que nous chérissons le plus, notre capacité à penser, être automatisée.