vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD
Cornelia C. Walther
chercheuse invitée principale à l'initiative Wharton pour les neurosciences (WiN)
Michael Platt
directeur de la Wharton Neuroscience Initiative et professeur de marketing, de neuroscience et de psychologie à l'Université de Pennsylvanie
En bref
L’évolution de l’IA représente une avancée dans la relation entre les humains et les machines.
L’IA est aujourd’hui capable de générer des réponses semblables à celles d’humains et de s’adapter aux contextes de leurs interactions.
Des avancées comme les interfaces cerveau-ordinateur (BCIs), rendent potentiel un futur où l’IA se connecterait aux pensées et aux émotions des Hommes.
Les neurosciences peuvent également guider le développement de l’IA, par exemple à travers l’alternative de l’informatique neuromorphique.
Malgré leurs implications positives, les relations humain-machine posent des problèmes éthiques majeurs, notamment concernant la confidentialité des données ou la préservation de l’autonomie humaine.
professeur en mathématiques appliquées à Télécom Paris (IP Paris)
En bref
L’IA est un ensemble d’outils, de méthodes et de technologies qui permettent à un système d’effectuer des tâches de façon quasi autonome.
La question de la confiance que l’on peut avoir dans les outils de Machine Learning (ML) est récurrente, car l’apprentissage profond requiert de très grands volumes de données, lesquels proviennent bien souvent du web.
Il y a différents types de biais pouvant être relatifs aux données ; les biais dits « de sélection », liés au manque de représentativité, ceux « d’omission », dus à l’endogénéité, etc.
Lorsque les données dont on dispose sont trop rares pour pouvoir mettre en œuvre le ML de façon simple, on parle alors de « signaux faibles ». L’hybridation des techniques ML et symboliques en IA pourrait apporter des solutions.
professeure à Sorbonne Université (chaire en Intelligence Artificielle)
En bref
L’IA symbolique se base sur des règles et reproduit le raisonnement humain. Cette approche est dite « explicable par essence », à quelques exceptions près.
Les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique. Il est difficile d’extraire et d’exprimer les règles de ce que font ses réseaux de neurones.
Le besoin d’explicabilité provient de différents enjeux, il y a des enjeux de confiance, d’éthique, de responsabilité, et éventuellement des enjeux économiques.
L’IA hybride peut remédier à ce problème en associant plusieurs approches de l’IA. Elle combine connaissances et données, IA symbolique et réseaux de neurones, logique et apprentissage.
Mais, quelles que soient les approches, la place de l’humain reste primordiale et il faudra toujours justifier les décisions prises par un algorithme.
doctorante en philosophie à Sorbonne Université et affiliée au laboratoire Science, Normes, Démocratie du CNRS
En bref
Il existe trois façons d’apprendre à une intelligence artificielle (IA) : l’apprentissage supervisé, l’apprentissage non-supervisé et l’apprentissage par renforcement.
Or, les algorithmes de machine learning permettent de repérer des patterns : le moindre biais caché dans un jeu de données peut donc être exploité et amplifié.
La généralisation du passé peut poser problème car les algorithmes utilisent des données historiques pour répondre à des problèmes présents.
L’IA est aussi une arène de pouvoir : des problèmes éthiques peuvent émerger, comme celui de l’utilisation des données.
On peut faire de l’IA un véritable outil d’émancipation participatif que les communautés pourraient s’approprier.
maîtresse de conférences en management de l’innovation à l’École polytechnique (IP Paris)
Milie Taing
fondatrice de Lili.ai
En bref
Les intelligences artificielles (IA) participent de plus en plus aux décisions de notre quotidien, mais soulèvent des enjeux pratiques et éthiques.
Il faut distinguer la notion d’interprétabilité de l’IA (son fonctionnement) de la notion de rendu de compte (le degré de responsabilité du créateur/utilisateur).
Un projet de réglementation européenne devrait aboutir en 2023 à classer les IA selon différents niveaux de risque.
L’IA peut libérer l’humain de tâches chronophages et répétitives et lui permettre de se concentrer sur des tâches plus importantes.
La France a tout intérêt à investir dans ce type d’IA pour la réalisation des très gros chantiers car elle a accès à des quantités colossales de données à traiter.
professeur émérite de philosophie des sciences à Sorbonne Université
Maxime Amblard
professeur en informatique à l’Université de Lorraine
Annabelle Blangero
docteure en neurosciences et manager en data science chez Ekimetrics
En bref
Immanquablement, l’intelligence artificielle et l’intelligence humaine sont comparées.
Cette confrontation est intrinsèque à l’histoire de l’IA : des approches s’inspirent de la cognition humaine, quand d’autres ne s’en préoccupent pas.
La définition floue et controversée de l’intelligence rend cette comparaison vague.
La conscience reste un des principaux éléments qui semble manquer à l’IA, pour imiter l’intelligence humaine.
La question de la comparaison soulève, en fait, des enjeux éthiques sur l’utilisation, le but et la réglementation de l’IA.
Auteurs
Sophy Caulier
journaliste indépendante
Sophy Caulier est diplômée en Lettres (Université Paris-Diderot) et en Informatique (Université Sorbonne Paris Nord). D'abord journaliste en rédaction à Industrie & Technologies puis à 01 Informatique, elle est devenue journaliste pigiste pour des quotidiens (Les Echos, La Tribune), des magazines spécialisés - ou pas - et des sites web. Elle écrit sur le numérique et l'économie en général, mais aussi sur le management, les PME, l'industrie ou le spatial. Aujourd'hui, elle écrit principalement pour Le Monde et The Good Life.