Et si la révolution de l'IA n'arrivait pas ?
La planète Tech ne parle que d'IA. Chaque semaine apporte son lot d'annonces et de modèles « révolutionnaires ». On frôle la saturation médiatique. On a déjà vu ce film avec le web3, le métaverse et la blockchain...
Entre "gentle singularity" et pessimisme "scientifique"
Prenez l'abîme qu'il y a entre le discours d'un Sam Altman et celui d'un Yann LeCun. Il révèle la schizophrénie de l'industrie. D'un côté, l'entrepreneur, proclame que "nous sommes confiants de savoir comment construire l'AGI" et promet une "gentle singularity" pour 2025. De l'autre, le chercheur annonce que "personne de sensé n'utiliserait les LLM comme composant central pour l'AGI" et prédit leur obsolescence d'ici 3-5 ans.
Ces deux discours révèlent deux visions : Altman vend un rêve à coup de milliards, tandis que LeCun rappelle que "les IA actuelles ne peuvent ni vraiment raisonner, ni planifier".
Apple vs Anthropic
Idem entre Apple et Anthropic. La semaine dernière des chercheurs d'Apple ont publié un article intitulé The Illusion of Thinking, dans lequel ils remettent en cause la capacité des modèles d'intelligence artificielle (ceux dotés de mécanismes de "raisonnement explicite") à véritablement penser. À travers une série d'expériences, ils montrent que ces modèles échouent systématiquement dès que la complexité augmente, et ce même lorsqu'on leur fournit la solution. Cette publication jette le doute sur la promesse des grands modèles de langage d'atteindre un jour une forme d'intelligence proche de celle de l'humain. C'est la thèse de LeCun !
Moins d'une semaine plus tard, une réponse est formulée par des chercheurs d'Anthropic et de l'organisation Open Philanthropy, avec l'aide directe d'une IA (Claude Opus 4, un modèle développé par Anthropic lui-même). Cette contre-analyse : The Illusion of the Illusion of Thinking, affirme que les résultats d'Apple relèvent davantage d'erreurs méthodologiques que de limites fondamentales. En mettant en évidence que les modèles testés réagissent à des contraintes comme la limite de longueur des réponses ou que certains problèmes étaient mathématiquement insolubles, les auteurs montrent qu'un changement dans la formulation des tâches améliore considérablement les performances des modèles.
Penser contre soi
Ce grand écart narratif oblige à un salutaire exercice de lucidité. Vous le savez, je suis plutôt un techno-enthousiaste et si vous me lisez régulièrement vous m'avez plusieurs fois surpris à user de superlatifs concernant la révolution de l'IA en cours… En un mot, je suis plutôt team Altman. Et si finalement, je me plantais complètement ? Ce ne serait pas la première fois, j'ai quand même publié un livre sur la révolution du Metaverse il y a un an et demi !!!
Cette semaine je vous propose donc de faire cet exercice critique et « contre moi-même ». C'est-à-dire explorer les obstacles tangibles qui pourraient freiner l'ascension de l'IA que je ne cesse d'analyser et de commenter. Voici donc les raisons pour lesquelles l'IA risque de faire un flop et me laisser en carafe, comme un des trop nombreux prospectivistes qui se sont plantés dans la petite histoire de la prospective.
D'abord le mur énergétique
Eric Schmidt a récemment lâché une bombe lors de son audition devant le Congrès américain : "les nouveaux centres de données IA nécessiteront 10 gigawatts chacun - l'équivalent de 10 réacteurs nucléaires". Les projections sont vertigineuses : 945 TWh de consommation mondiale pour les centres de données en 2030, soit 2,5 fois la production nucléaire française totale ! (source IEA)
On le sait, l'IA est un gouffre énergétique. Ce n'est pas un hasard si les géants de la tech se ruent sur le nucléaire comme des junkies en manque (Microsoft redémarre Three Mile Island, Google signe avec Kairos Power). Sauf que moins de 10% de cette capacité sera disponible d'ici 2030 !
Ensuite le risque taïwanais
90% des puces IA avancées sont produites par TSMC à Taiwan. Or les experts militaires évaluent à 60% la probabilité d'un blocus chinois et 35% celle d'une invasion.
Les conséquences ? Un conflit paralyserait instantanément Nvidia, AMD, Apple et l'ensemble de l'industrie IA. Le PIB mondial chuterait de 5 à 10%. Ça provoquerait une récession majeure et immédiate. Pendant ce temps, les CHIPS Act américain et européen tentent désespérément de relocaliser une production qui prendra 10-15 ans minimum à reproduire, avec des coûts 35-65% supérieurs.
Taiwan est devenu notre talon d'Achille collectif. Chaque puce de Nvidia, chaque processeur d'Apple, chaque GPU dépend d'une chaîne d'approvisionnement qui pourrait s'effondrer du jour au lendemain.
Aussi, l'inertie humaine
Les données sont implacables : 70-85% des projets IA échouent et 42% des entreprises abandonnent désormais leurs initiatives IA, contre seulement 17% l'année dernière (source).
Ces échecs ne sont pas technologiques mais anthropologiques. Les entreprises tentent de plaquer une technologie sur des cultures organisationnelles fossilisées, avec des employés terrorisés et des processus du XXe siècle.
Enfin, "L'Amérique innove, l'Europe régule."
C'est un classique. En Europe nous excellons dans l'art de l'auto-sabotage réglementaire. Prenez Tesla : leur option Full Self Driving, pleinement opérationnel aux États-Unis avec 7,7 millions de miles parcourus quotidiennement, reste bloqué en Europe au niveau de 2019.
Cet exemple est emblématique des processus kafkaïens que l'Europe impose aux innovateurs. L'AI Act européen est un suicide économique en règle. Les citoyens européens deviennent des citoyens numériques de seconde zone, privés des innovations qu'ils financent indirectement via les GAFAM.
Si la révolution de l'IA se produit ailleurs, elle a de forte chance de stagner chez nous.
Et donc ?
Entre les contraintes énergétiques insurmontables, notre vulnérabilité géopolitique, l'inertie organisationnelle chronique et la régulation européenne suicidaire, les obstacles s'accumulent-ils plus rapidement que les progrès ?
La commoditisation de cette technologie est très largement subventionnée par les GAFAM, les investisseurs et les acteurs publics (la chute des coûts d'accès reflète aussi les pertes colossales des principaux acteurs de l'IA : OpenAI perd 5 milliards en 2024 sur 3,7 milliards de revenus. Anthropic : 2,7 milliards de coûts pour 800 millions de revenus). C'est une grande opération de dumping.
Mais on a connu ça en 2000 avec les plateformes internet. Après l'éclatement de la bulle, cela n'a pas empêché une immense révolution sociétale et économique. Donc oui, les freins sont là et il n'est pas impossible que la révolution ne soit pas un grand soir. Le monde ne changerait pas d'un coup mais l'IA (pour reprendre les mots d'Altman dans sa récente note) se glisserait dans chaque recoin sans qu'on n'y pense plus. Une révolution silencieuse...
Et donc, fini le triomphe tonitruant de l'AGI sur l'humanité en 2030, plutôt une adoption insidieuse : ici un gain d'efficacité dans telle industrie, là un nouvel assistant logiciel un peu plus intelligent, ailleurs une voiture un peu plus autonome… Au final, dans 10 ans, le monde aura changé (quand même) sans qu'on s'en soit vraiment rendu compte à un instant T. L’IA sera devenue une commodité, par petites touches.
Ma conviction, c'est que cette révolution n'arrive pas avec fracas, mais elle arriver quand même en empruntant un chemin plus sinueux, fait de résistances et d'ajustements.
En revanche, le fracas sera pour ceux qui auront attendu, auront fermé les yeux et refusé la transition. C'est reparti pour un tour ;-)