Informatique quantique et IA : moins compatibles que prévu ?
- Il existe une croyance selon laquelle l’informatique quantique pourrait révolutionner l’intelligence artificielle et en particulier le « deep learning ».
- Cependant, l’informatique quantique ne fera pas forcément progresser l’IA car elle rencontre des difficultés à traiter les informations des réseaux neuronaux et les données volumineuses.
- Les ordinateurs quantiques sont notamment très lents et seuls des calculs très courts sont effectués sans pannes.
- L’apprentissage automatique par l’IA est toutefois un outil essentiel pour apprendre à concevoir et à faire fonctionner les ordinateurs quantiques de nos jours.
Cet article a été publié en exclusivité dans notre magazine Le 3,14 sur l’IA.
Découvrez-le ici.
Avec un certain nombre d’entreprises technologiques promettant d’être en mesure de résoudre quelques petits problèmes du monde réel au cours des prochaines années, il semblerait que le monde soit à la veille d’une réelle avancée de l’informatique quantique. L’accès à ce type d’informatique quantique a donc suscité beaucoup d’espoir, car il pourrait également transformer l’intelligence artificielle. Mais un consensus de plus en plus large suggère que cela ne soit pas encore à portée de main.
Que peut-on dire des origines de la croyance selon laquelle l’informatique quantique pourrait révolutionner l’intelligence artificielle ?
Filippo Vicentini. L’IA est un terme très vaste. Je me concentrerai donc sur le « deep learning » « (l’apprentissage profond), qui est à l’origine des nouvelles technologies telles que les modèles génératifs de texte, d’audio et de vidéo que nous voyons exploser aujourd’hui. L’idée que l’informatique quantique pourrait stimuler le développement de l’IA s’est imposée vers 2018–19. Les premières entreprises proposaient des ordinateurs quantiques bruyants dotés de 1, 2, 3 ou 4 qubits. En raison de leurs limites, ces machines ne pouvaient être utilisées que pour effectuer des calculs plus importants dans le monde réel, alors que c’est là que l’informatique quantique devrait vraiment briller. Au lieu de cela, elles ont été chargées d’exécuter de nombreux sous-programmes « quantiques » courts (communément appelés circuits quantiques), alimentant en retour un algorithme d’optimisation classique. Cette approche est étonnamment similaire à la manière dont les réseaux neuronaux sont formés dans le cadre du deep learning.
À l’époque, on espérait qu’un « circuit quantique » de taille raisonnable serait plus expressif – c’est-à-dire qu’il pourrait présenter des solutions plus complexes à un problème avec moins de ressources qu’un réseau neuronal, grâce à des phénomènes quantiques tels que l’interférence et la superposition. En résumé, cela signifie que les circuits quantiques pourraient permettre aux algorithmes d’apprendre à trouver des corrélations dans les données de manière plus efficace. C’est ainsi qu’est né le domaine de l’apprentissage automatique quantique, et plusieurs chercheurs ont commencé à essayer d’apporter des idées d’un côté comme de l’autre. L’excitation était grande à l’époque.
Plusieurs entreprises ont annoncé l’arrivée d’ordinateurs quantiques plus puissants dans les prochaines années. Cela signifie-t-il que nous devrions nous attendre à un bond en avant dans le domaine de l’IA ?
Pour faire court, je ne pense pas que l’informatique quantique fera progresser l’IA. Il devient de plus en plus évident que les ordinateurs quantiques seront très utiles pour les applications qui nécessitent des entrées et des sorties limitées, mais une puissance de traitement énorme. Par exemple, pour résoudre des problèmes physiques complexes liés à la supraconductivité ou pour simuler des molécules chimiques. Toutefois, pour tout ce qui concerne les données volumineuses et les réseaux neuronaux, on s’accorde de plus en plus à penser que le jeu n’en vaut peut-être pas la chandelle.
Cette position a récemment été exposée dans un document rédigé1 par Torsten Hoefler, du Centre National Suisse de Calcul, Thomas Häner, d’Amazon, et Matthias Troyer, de Microsoft. Je viens de terminer l’examen des soumissions pour la conférence QTML24 (Quantum Techniques in Machine Learning) et le ton de la communauté de l’apprentissage automatique quantique était à la baisse.
Comment cela se fait-il ?
De plus en plus d’experts reconnaissent que les ordinateurs quantiques resteront probablement très lents lorsqu’il s’agira d’entrer et de sortir des données. Pour vous donner une idée, nous pensons qu’un ordinateur quantique qui pourrait exister dans cinq ans – si nous sommes optimistes – aura la même vitesse de lecture et d’écriture qu’un ordinateur moyen de 1999–2000.
Les ordinateurs classiques et quantiques sont tous deux bruyants. Par exemple, un bit ou un qubit peut, à un moment donné, passer aléatoirement à 1. Alors que nous pouvons traiter efficacement ce problème dans les ordinateurs classiques, nous ne disposons pas de cette technologie dans les ordinateurs quantiques. Nous estimons qu’il faudra encore au moins 15 ans pour mettre au point des ordinateurs quantiques totalement tolérants aux pannes. Cela signifie que nous ne pouvons effectuer que des calculs très « courts ».
Par ailleurs, les résultats d’un ordinateur quantique sont probabilistes, ce qui pose des problèmes supplémentaires. Les ordinateurs classiques donnent un résultat déterministe : faites deux fois la même simulation et vous obtiendrez la même réponse. Mais chaque fois que vous exécutez un algorithme quantique, le résultat sera différent. Le résultat doit être extrait de la distribution des sorties (combien de fois vous voyez des 0 et des 1). Pour reconstruire la distribution avec précision, il faut répéter le calcul un très grand nombre de fois, ce qui augmente alors les frais. C’est une autre raison pour laquelle certains algorithmes semblaient très puissants il y a quelques années, mais il a finalement été démontré qu’ils ne présentaient pas d’avantage systématique par rapport aux algorithmes classiques que nous pouvons déjà exécuter sur des ordinateurs normaux.
Cela signifie-t-il que l’IA et l’informatique quantique seront des cousins éloignés, avec peu de chevauchements ?
Pas du tout. En fait, mes collègues et moi-même avons récemment lancé une pétition2 pour demander un financement au niveau de l’Union européenne pour l’apprentissage automatique et les sciences quantiques. L’apprentissage automatique devient rapidement un outil essentiel pour apprendre à concevoir et à faire fonctionner les ordinateurs quantiques de nos jours. Par exemple, chaque appareil est légèrement différent. Les techniques d’apprentissage par renforcement peuvent analyser votre machine et ses caractéristiques particulières afin d’adapter les algorithmes à cet appareil. Une entreprise appelée Q‑CTRL3 a effectué un travail de pionnier dans ce domaine. L’IA quantique de Google4 et Braket d’Amazon5 sont deux d’autres leaders qui exploitent également ces idées.
L’IA pourrait également être très complémentaire de l’informatique quantique. Prenons l’exemple d’Azure Quantum Elements de Microsoft, qui a utilisé une combinaison de Microsoft Azure HPC (High Performance Computing) et des filtres de prédiction des propriétés de l’IA pour réduire une sélection de 32 millions de candidats à un matériau de batterie rechargeable plus efficace, à seulement 18 candidats. Ceux-ci ont été soumis à des algorithmes puissants, bien établis et à forte intensité de traitement mais qui sont assez limités parce qu’ils consomment beaucoup d’énergie et ne peuvent donc pas fonctionner avec des molécules très compliquées. C’est exactement là que l’informatique quantique pourrait intervenir, dans un avenir proche.
Je pense que l’IA et l’informatique quantique seront des composants différents dans une pile d’outils – complémentaires mais non compatibles. Nous voulons continuer à pousser ces directions et bien d’autres encore en créant une équipe commune appelée « PhiQus » entre l’École Polytechnique (IP Paris) et Inria avec Marc-Olivier Renou et Titouan Carette.