Quand un prix Nobel d’économie sonne le tocsin, il est prudent de l’écouter. Ce qui préoccupe Daron Acemoglu, récent lauréat du prestigieux titre, tient en deux lettres : IA. Non pas qu’il voit d’un mauvais œil le développement de cette technologie. Mais le fol engouement qu’elle suscite auprès des investisseurs l’inquiète. Seule une petite portion – 5 % – d’emplois est largement automatisable et donc remplaçable par une IA, affirmait-il en octobre dans les colonnes de Bloomberg. Pas de quoi donc justifier à ses yeux les investissements colossaux qui sont faits dedans.
Rien qu’au second trimestre de l’année, Microsoft, Alphabet, Amazon et Meta ont réalisé 50 milliards de dépenses d’investissement, en grande partie à cause de l’IA générative, tant celle-ci est gourmande en coûteuses capacités de calcul. A tel point qu’à peine deux ans après avoir reçu 10 milliards de Microsoft, OpenAI, qui enregistrera 5 milliards de pertes cette année, a dû mener une nouvelle levée de fonds d’envergure (6,6 milliards de dollars).
Daron Acemoglu n’est pas le seul à redouter qu’une bulle de l’IA ne se forme. Dans un billet remarqué, David Cahn, un associé de Sequoia Capital, met en garde contre “l’illusion selon laquelle l’IAG [NDLR : intelligence artificielle générale] arrivera demain et qu’en attendant, nous devrions tous amasser la seule ressource qui compte : des processeurs graphiques”.
Les déclarations des professionnels de l’IA entretiennent, il est vrai, allègrement la confusion sur ce que l’IA générative peut – ou pourra bientôt – faire. “Nous avons été abreuvés de discours sur le transhumanisme et la singularité qui n’ont rien de rationnels. Le problème ne se formule pas comme ça, selon moi”, confie Jérôme Monceaux, co-créateur des célèbres robots Nao et Pepper, désormais fondateur et PDG d’Enchanted Tools entre deux conférences du Transatlantic Leaders Forum qui se tenait le 18 octobre à New York.
La FTC en guerre contre “l’AI washing”
L’engouement autour de l’IA est tel qu’il incite des opportunistes à s’en réclamer même lorsqu’ils n’en font pas. A tel point que la Federal Trade Commission, l’autorité américaine de la concurrence, a fini par s’attaquer à plusieurs entreprises se livrant à un “AI washing” éhonté. Les cadors de l’IA générative, eux-mêmes, jouent sur les mots, vantant les mérites d’intelligences artificielles qui raisonnent et seraient soi-disant sur le point de dépasser l’humain. “Le problème est que leur corpus d’entraînement est désormais si vaste qu’on ne sait pas si ces IA arrivent à généraliser des compétences latentes à partir de ces données ou qu’elles répètent, telles des perroquets, des choses qu’elles ont vu passer”, confie un chercheur en IA.
Le talon d’Achille de ces nouvelles IA génératives ? La fiabilité. Un problème lié à leur nature intrinsèque. Ces IA ont un fonctionnement probabiliste et non déterministe. C’est ce qui leur donne un formidable potentiel créatif. Mais les réserve plutôt aux usages où l’internaute n’a pas besoin d’une réponse fiable à 100 % ou bien à ceux où la vérification peut s’opérer rapidement. Il ne faudrait pas que l’internaute passe in fine autant de temps à contrôler son IA que ce que la tâche lui aurait pris sans cette technologie.
Dans ce climat incertain, “les usages de l’IA pour lesquels les clients seront prêts à payer ne sont pas encore clairs. Le grand public est peu susceptible d’acheter de l’IA. C’est au niveau des comptes entreprises que tout va se jouer”, confie Alexis Deladerrière, gestionnaire de portefeuille d’actions mondiales et responsable des marchés développés chez Goldman Sachs Assets Management.
Pour cet expert, les prochains trimestres seront décisifs. “Le marché de l’IA entre dans une seconde phase, assez différente de la première, celle du développement d’applications concrètes”, pointe-t-il. Les entreprises de l’IA vont devoir montrer des éléments tangibles, des usages monétisables, des revenus en hausse. “Car le marché peut vite se retourner, avertit l’expert rencontré lors du Transatlantic Leaders Forum. Le cas échéant, les financements se ralentiront. Les investisseurs attendront que des usages clairs soient établis avec les modèles actuels, avant d’investir davantage dans le développement de nouveaux modèles plus sophistiqués encore.”
Le marché IA entre dans sa phase 2
Les besoins en semi-conducteurs vont également changer selon lui. Car les IA n’ont pas besoin de puces aussi puissantes pour répondre aux requêtes des utilisateurs – ce qu’on appelle l’inférence – que lors de la phase d’entraînement. Des puces moins coûteuses mais spécialisées vont entrer en scène.
“Les entreprises les mieux positionnées pour profiter de cette seconde phase du marché sont celles qui ont déjà une vaste base clients et beaucoup de données. Elles pourront développer des applications pour leurs clients. Là encore, les petits acteurs qui veulent s’implanter feront face à des défis de taille pendant cette deuxième phase”, souligne Alexis Deladerrière.
Si certains des espoirs placés dans l’IA générative sont excessifs, il ne faut pas jeter le bébé avec l’eau du bain. “Les rêves des entrepreneurs des années 2000 ne se sont pas concrétisés aussi vite qu’ils l’espéraient. Mais la plupart des évolutions qu’ils prédisaient se sont largement concrétisées dans les décennies qui ont suivi”, souligne le responsable des marchés développés chez Goldman Sachs Assets Management.
Et les ruptures que l’IA générative introduit sont bien réelles. Un exemple donné par Jérôme Monceaux, d’Enchanted Tools, suffit à le mesurer. Par le passé, ce spécialiste de robotique et d’IA a longtemps tenté avec ses équipes de doter les machines de la capacité à détecter une personne couchée par terre afin qu’en cas d’accident, elles puissent donner l’alerte. Sans succès. “Avec l’IA générative, cela a tout de suite fonctionné sans même que nous ayons à coder précisément cet objectif. La manière dont l’IA change les interactions homme-machine est vertigineuse. Pour des développeurs comme moi, c’en est déconcertant tant nous sommes habitués à ce que les machines fassent précisément ce que l’on veut. Désormais, elles nous surprennent tous les jours” confie-t-il dans un rire.
Si o1, le dernier grand modèle de langage d’OpenAI, commet quant à lui toujours des erreurs, il parvient du reste à significativement réduire leur fréquence en décomposant en multiples étapes simples, les demandes des internautes et en leur permettant de suivre son “chemin de pensée”.
“Un vrai mouvement de fond”
Le fait que seuls 5 % des emplois soient largement automatisables n’est par ailleurs pas nécessairement une mauvaise chose. Les calculs de l’économiste Philippe Aghion le font aboutir à la même estimation que Daron Acemoglu. Mais ce dernier en tire des conclusions très différentes. Comme il le confiait à L’Express, cela écarte le spectre du chômage de masse sans contrecarrer les potentiels gains de productivité. “Les emplois vont être valorisés, car seule une partie des tâches qui les composent – les plus rébarbatives – seront automatisées, ce qui permettra aux employés d’être plus créatifs et performants sur les autres tâches”, expliquait-il dans nos colonnes. En nous aidant à produire plus efficacement des biens et des services mais aussi à concevoir de nouvelles idées, l’IA pourrait selon lui doper le PIB de la France de 250 à 420 milliards en dix ans.
“L’IA générative a redonné un nouveau souffle à la Silicon Valley, c’est un vrai mouvement de fond qui ne fait que débuter”, observe Benoît Buridant, PDG et cofondateur de Frenchfounders, réseau d’entrepreneurs francophones à l’international qui organisait le Transatlantic Leaders Forum 2024 en partenariat avec Sequoia et Goldman Sachs. Le comité de sélection des prix Nobel ne s’y est pas trompé. Si Daron Acemoglu a remporté le Nobel de l’économie, de grands noms de l’IA – Demis Hassabis, John Jumper, Geoffrey Hinton et John Hopfield – ont remporté ceux de chimie et de physique.
Source