directeur d’études en droit et numérique à Télécom Paris (IP Paris)
En bref
L’IA n’est pas une zone de non-droit, la réglementation existante s’y applique déjà, que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé, la finance, ou l’automobile.
En Machine Learning (ML), les algorithmes se créent eux-mêmes et fonctionnent de façon probabiliste.
Leurs résultats sont exacts la plupart du temps, mais le risque d’erreurs est une caractéristique inévitable de ces modèles.
Le défi pour l’avenir sera d’entourer de garde-fous ces systèmes probabilistes très performants pour des tâches comme la reconnaissance d’images.
Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe.
ambassadeur pour le numérique et membre fondateur du pôle de compétitivité Cap Digital
En bref
L’IA est une technologie aux innombrables promesses, mais son utilisation présente de nombreuses dérives : deep fake, violation des droits de l'Homme ou manipulation de l’opinion.
Cet outil multiusage en constante évolution suscite une intense réflexion mondiale sur un cadre de gouvernance partagée.
De plus en plus, les nouvelles IA menacent la vie privée des utilisateurs et la propriété intellectuelle.
En régulant l’IA à l’échelle « nationale », l’Europe craint d’être affaiblie et dépassée par les autres puissances.
La France accueillera en 2025 un grand sommet international sur l’IA qui permettra de faire avancer ces questions.
Bien que la technologie évolue rapidement, il est possible de réguler l'IA à long terme en se basant sur des principes fondamentaux et robustes.
docteur en mathématiques appliquées et chef de division au sein de l'armée de Terre
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
L'intelligence artificielle (IA) actuelle excelle dans des tâches spécifiques, mais reste différente de l'intelligence artificielle générale (IAG), qui vise une intelligence comparable à celle de l'humain.
Les modèles d'IA actuels, bien que sophistiqués, ne sont pas autonomes et présentent des limites importantes qui les différencient de l'IAG.
Les craintes liées à l'IAG sont grandissantes ; certains experts sont soucieux qu'elle puisse supplanter l'humanité, tandis que d'autres jugent cette perspective encore éloignée.
Pour une régulation rationnelle de l'IAG, il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices.
Des propositions pour une régulation efficace de l'IAG incluent des licences nationales, des tests de sécurité rigoureux et une coopération internationale renforcée.
Auteurs
Sophy Caulier
journaliste indépendante
Sophy Caulier est diplômée en Lettres (Université Paris-Diderot) et en Informatique (Université Sorbonne Paris Nord). D'abord journaliste en rédaction à Industrie & Technologies puis à 01 Informatique, elle est devenue journaliste pigiste pour des quotidiens (Les Echos, La Tribune), des magazines spécialisés - ou pas - et des sites web. Elle écrit sur le numérique et l'économie en général, mais aussi sur le management, les PME, l'industrie ou le spatial. Aujourd'hui, elle écrit principalement pour Le Monde et The Good Life.