IA remplaçant un avocat, IA rédigeant des dissertations si bonnes qu’elles leurrent les professeurs, IA mettant les artistes au chômage car n’importe qui peut générer la couverture d’un magazine ou composer la musique d’un film… Ces exemples font la une ces derniers mois, notamment, l’annonce de l’obsolescence imminente des professions intellectuelles et des cadres. Or, l’IA n’est pas une innovation dans le sens où elle existe depuis bien longtemps. Dès le milieu des années 1950, des vagues d’inquiétude et de fabulation se succèdent, avec, à chaque fois, la même prophétie : les humains définitivement remplacés par des machines. Et pourtant, à chaque fois, ces prédictions ne se sont pas matérialisées. Mais cette fois, alors qu’on constate la multiplication de l’usage de ces nouvelles IA, peut-on légitimement penser que c’est différent ?
#1 On assiste à une révolution technologique
Nombre de commentaires ou de dépêches laissent penser qu’une avancée technologique majeure vient de se produire. Or, ça n’est tout simplement pas le cas. Les algorithmes utilisés par ChatGPT ou DALL‑E ressemblent à ceux connus et utilisés depuis déjà quelques années. Si l’innovation ne réside pas dans les algorithmes, alors peut-être qu’un progrès technologique majeur permet de traiter une large quantité de données, de manière plus « intelligente » ? Non plus ! Les avancées constatées sont le fruit d’une progression relativement continue et prévisible. Même l’IA générative dont on parle tant, c’est-à-dire l’utilisation d’algorithmes entraînés non pas pour prédire la bonne réponse absolue, mais pour générer une variété de réponses possibles (d’où l’impression de « créativité »), n’est pas nouvelle non plus – même si l’amélioration des résultats la rend de plus en plus utilisable.
Le paradoxe est que Google ne peut pas être aussi « bon » qu’OpenAI, parce que Google ne peut pas être aussi « mauvais » qu’OpenAI.
Ce qui s’est passé ces derniers mois n’est pas une rupture technologique, mais une rupture d’usage. Jusqu’à présent, les géants de l’IA (typiquement les GAFAM) gardaient ces technologies pour eux ou n’en diffusaient que des versions bridées, décrétant et limitant ainsi l’usage fait par le grand public. Les nouveaux arrivants (OpenAI, Stable.AI ou Midjourney) ont, au contraire, décidé de laisser les gens faire (presque) tout ce qu’ils voulaient de leurs algorithmes. Dorénavant, chacun peut s’approprier ces « IA », et les utiliser à des fins aussi diverses qu’imprévisibles. C’est de cette ouverture que découle la « vraie » créativité de cette nouvelle vague de l’IA.
#2 Les GAFAM (et autres « Big Tech ») sont dépassées technologiquement
Comme expliqué ci-dessus, les grandes entreprises telles que Google, Apple et Facebook ont restreint l’accès à ces technologies, qu’ils maîtrisent tout aussi bien. Les GAFAM gardent un contrôle très étroit sur leur IA, principalement pour deux raisons. Premièrement, leur image : si ChatGPT ou DALL‑E génère un contenu raciste, discriminant ou insultant, l’écart sera excusé par leur situation de start-up, encore en plein apprentissage. Ce « droit à l’erreur » ne s’appliquerait pas à Google, qui verrait sa réputation se ternir gravement (sans compter les soucis de justice potentiels). Le paradoxe est que Google (ou autre GAFAM) ne peut pas être aussi « bon » qu’OpenAI, parce que Google ne peut pas être aussi « mauvais » qu’OpenAI.
ChatGPT : l’arbre qui cache la forêt
En parallèle du « buzz » généré par ChatGPT, DALL‑E, Open.AI, une évolution bien plus radicale, et bien moins visible, est en cours : la disponibilité et la diffusion large de modules d’IA pré-entraînées auprès du grand public. Contrairement à GPT, ces derniers ne dépendent pas d’une plateforme centralisée. Ils sont autonomes, peuvent être téléchargés, entraînés à diverses fins (légales ou non). Ils peuvent même être intégrés dans un logiciel, une « app », ou d’autres services, et redistribués à d’autres utilisateurs qui s’appuieront sur cet apprentissage supplémentaire pour entraîner eux-mêmes à leur tour ces modules à d’autres fins. Chaque fois qu’un module pré-entraîné est dupliqué, entraîné et redistribué, un nouveau variant est créé. Au bout du compte, des milliers, voire des millions de variants d’un module initial se répandront dans un nombre faramineux de logiciels et d’applications. Et ces modules d’IA sont entièrement « boîte noire ». Ils ne sont pas constitués de lignes de code informatique explicites, mais de matrices (souvent de très grandes tailles), intrinsèquement ininterprétables, même par les experts du domaine. Résultat, il est presqu’impossible, en pratique, de prédire avec précision le comportement de ces IA sans les tester de manière extensive.
La deuxième raison est d’ordre stratégique. L’entraînement et l’apprentissage des algorithmes d’IA sont incroyablement coûteux (on parle en millions de dollars). Ce coût faramineux est avantageux aux GAFAM, déjà bien établis. Ouvrir l’accès à leurs IA, signifie renoncer à cet avantage concurrentiel. Pourtant, cette situation est paradoxale, puisque ces mêmes entreprises se sont développées en libérant l’utilisation de technologies (moteurs de recherche, plateformes web, commerce électronique et SDK d’applications), pendant que d’autres acteurs établis de l’époque gardaient jalousement sous un contrôle étroit. Notons qu’au-delà de la démonstration scientifique, l’une des raisons pour laquelle Facebook a mis à disposition son modèle Llama est justement de faire pression sur les plus gros acteurs. Maintenant que ce marché est investigué par de nouveaux acteurs, les GAFAM font la course pour offrir au marché leur « ChatGPT » (d’où la nouvelle version de Microsoft Bing avec Copilot, et Google Gemini).
#3 OpenAI, c’est de l’IA ouverte
Un autre mythe qu’il est important de dissiper, est l’ouverture de l’IA des nouvelles entreprises. L’utilisation de leur technologie est, effectivement, assez largement ouverte. Par exemple, l’interface de programmation de ChatGPT « API GPT » permet à tout un chacun (moyennant paiement) d’inclure des requêtes aux algorithmes. D’autres mettent à dispositions les modèles eux-même permettant ainsi de les modifier à la marge. Mais, malgré cette disponibilité, les IA, restent fermées : pas question ici d’apprentissage ouvert ou collectif. Les mises à jour ou les nouveaux apprentissages sont exclusivement réalisés par OpenAI et les entreprises qui les ont créés. Ces actualisations et ces protocoles gardés très majoritairement secrets par les start-up.
Si l’entraînement de GPT (et de ses semblables) était ouvert et collectif, on assisterait sans nul doute à des batailles (au moyen de « bots », par exemple) pour influencer l’apprentissage de l’algorithme. De la même manière, sur Wikipédia, l’encyclopédie collaborative, on constate, depuis des années, des tentatives d’influencer ce qui est présenté comme la « vérité collective ». Se pose également la question du droit à utiliser les données.
La fermeture des IA semble pleine de bon sens. Mais en réalité, cela pose la question fondamentale de la véracité des contenus. La qualité de l’information est incertaine. Éventuellement partial ou biaisé, un mauvais entraînement des IA conduirait à des « comportements » dangereux. Le grand public n’étant pas en mesure d’évaluer ces paramètres, le succès des IA repose sur la confiance qu’ils placent dans les entreprises – comme c’est déjà le cas avec les moteurs de recherche et autres algorithmes des « big tech ».
Cette IA « ouverte » redéfinit complètement les questions d’éthique, de responsabilité et de réglementation. Ces modules pré-entraînés sont faciles à partager et, contrairement aux plateformes d’IA centralisées comme le GPT d’OpenAI, sont presqu’impossible à réglementer. Typiquement, en cas d’erreur, serait-on capable de déterminer quelle partie exacte de l’apprentissage en est la cause ? Est-ce l’apprentissage initial ou l’une des centaines sessions d’apprentissages ultérieurs qui est en cause ? Est-ce le fait que l’entraînement de la machine ait été réalisé par différentes personnes ?
#4 Beaucoup de gens perdront leur travail
Un autre mythe autour de ces « nouvelles IA » concerne leur impact sur l’emploi. L’IA générative, de même que les IA plus anciennes sont discriminantes. Aussi bonne qu’elle puisse paraître, cette IA ne remplace en fait qu’un bon débutant (sauf que cet apprenti n’apprend pas !), mais pas l’expert ou le spécialiste. Mais l’IA, aussi performante puisse-t-elle paraître, elle ne remplacera pas l’expert. ChatGPT ou DALL‑E peuvent produire de très bons « brouillons », mais ceux-ci doivent toujours être vérifiés, sélectionnés et affinés par l’humain.
Avec ChatGPT, ce qui impressionne c’est l’assurance avec laquelle il répond. En réalité, la qualité intrinsèque des résultats est discutable. L’explosion d’informations, de contenus et d’activités qu’entraînera cette utilisation large et ouverte de l’IA rendra l’expertise humaine plus que jamais nécessaire. Cela a d’ailleurs été la règle avec les « révolutions numériques » : plus on numérise, plus l’expertise humaine devient nécessaire. Cependant, l’incertitude plane quant à la perturbation que pourrait générer cette deuxième vague d’IA pour les entreprises.