La Silicon Valley rêve-t-elle tout haut ?
Ah, la Silicon Valley. Là où les pizzas sont livrées par drones et où chaque start-up cache un projet secret de domination mondiale… par l’IA ! Mais derrière les discours enflammés sur la superintelligence (AGI pour les intimes), une voix discordante fait du bruit : Tim Dettmers, chercheur à l’Ai2 et professeur à la prestigieuse Carnegie Mellon. Selon lui, l’AGI ne se réalisera jamais, et la Silicon Valley vend, en quelque sorte, du rêve avec votre abonnement cloud.
Derrière la hype, les limites bien réelles de notre bon vieux hardware. D’après Dettmers, « l’IA superintelligente est un fantasme », un mirage généré par des ambitions autant philosophiques que marketing. Alors, utopie ou face-B flopée ?
Les promesses folles de l’AGI… et la réalité du matériel
L’AGI, ou intelligence artificielle générale, c’est un peu le Graal : capable de tout faire mieux que nous, et plus vite (et sans demander de pause café !). Mais il va peut-être falloir revoir la bande-annonce. Tim Dettmers rappelle une évidence trop négligée : l’IA, aussi magique soit-elle en apparence, tourne sur des machines bien physiques, et ces dernières obéissent à des lois incontournables : physique, énergie, bande passante, dissipation thermique, mémoire.
On adore les gros mots comme “scaling” et “mise à l’échelle”, mais augmenter la taille des modèles ou balancer plus de GPU ne fera pas tout. Déjà, on touche quasiment le plafond en matière de rendement de nos chères cartes graphiques. Selon Dettmers, 2018 a marqué un sommet : depuis, les avancées sont surtout dues à des astuces (types de données plus légers, cœurs tensoriels novateurs comme BF16 ou FP8 chez Nvidia), mais la courbe ralentit salement !
Investissements massifs, rendement minime
Les plus grandes entreprises tech investissent des milliards dans l’infrastructure IA, avec des datacenters qui pourraient faire rougir la NASA. Pourtant, selon le PDG d’IBM, aucun retour sur investissement n’est à prévoir avec la flambée des coûts énergétiques et matériels (un sacré hic pour ceux qui espéraient des dividendes automatiques).
Le calcul derrière ces progrès est « exponentiel » : chaque point de performance supplémentaire demande bien plus d’énergie, de silicium et d’euros, pardon, de dollars, que le précédent. Dettmers ne crie pas scandale sur l’argent investi aujourd’hui, mais il prévient : si la course dans le scaling technologique ralentit, tout ce beau matos pourrait vite devenir… des presse-papiers hors de prix.
Les mur(s) physiques absurdes : où la réalité tape du poing
La physique, cette rabat-joie ! Nos processeurs, GPU et puces IA atteignent leurs limites : distance des signaux, énergie dissipée, mémoire qui sature. Même l’empilement épique de GPU dans des data centers géants ne change pas cet horizon. On ne peut pas compresser les lois de la nature aussi facilement que des fichiers ZIP !
Pour donner une idée, entre deux générations de GPU Nvidia (Ampere et Hopper), la performance BF16 a triplé, mais la consommation a aussi augmenté de près de 70 %. La nouvelle génération (Blackwell) continue cette tendance : plus de puissance, mais au prix d’une taille de puce doublée et d’une facture électrique salée.
Les quelques années d’innovation restantes, selon Dettmers, ressemblent à un sprint final avant la « falaise ».
AGI : un concept flou, des définitions changeantes
Si on demandait à un groupe de chercheurs ce qu’est l’AGI, il y aurait presque autant de réponses que de participants (et même un chatbot halluciné n’y retrouverait pas ses bobines). OpenAI, par exemple, définit son objectif AGI comme le système capable de générer 100 milliards de dollars de profits. D’autres parlent d’intelligence humaine ou d’une capacité à s’auto-améliorer. Dettmers, lui, insiste : « Une vraie AGI devrait pouvoir agir dans le monde physique. » Ce qui, sans robots économiquement viables, relève autant de la science-fiction que d’un bon vieux film des années 80.
Et que dire de la collecte de données du « monde réel » ? Complexity is the new black, mais surtout, les opérations coûtent un bras : entraîner une AGI qui saurait visser une ampoule (voire en inventer la question) reste trop cher et trop lent.
Les limites du scaling : la taille, ça compte, mais…
Depuis quelques années, la majorité des pains frais de l’IA viennent de la taille des modèles et des masses de données. Mais à force de doubler tout, même le budget, les retours commencent à s’essouffler. À moins d’une révolution matérielle (salut la puce quantique qui se fait toujours attendre), la route est barrée. Les dernières avancées du scaling entre 2025 et 2027 risquent de ne pas être aussi bluffantes. La fête serait presque finie, mais il reste les cacahuètes : des IA utiles, pilotées pour des usages bien précis.
AGI, épouvantail politique ou chimère médiatique ?
Derrière tout ce storytelling d’AGI, il y a aussi, d’après certains critiques, des enjeux politiques. Dana Blankenhorn, journaliste tech, rappelle que l’AGI est abondamment récupérée pour peser dans les débats voire pour verrouiller le secteur au profit de quelques acteurs. Hollywood n’a pas le monopole du scénario à suspense !
Pour Dettmers (et quelques autres), croire en une AGI toute-puissante tient plus du roman cyberpunk que d’un plan stratégique crédible. D’ailleurs, la Chine a décidé de miser sur le pragmatisme avec une IA utile et rentable à court terme. Pendant que la Silicon Valley fantasme, l’Empire du Milieu fait des affaires, tout simplement.
Que reste-t-il à espérer pour l’IA ? Un avenir plus humble… et plus malin !
Le débat entre superintelligence et IA spécialisée n’a jamais été aussi animé. Entre les ambitions d’un Sam Altman ou d’un Elon Musk (qui rêvent d’une révolution dans… deux ans, maximum), et la sobriété d’un Yann LeCun (qui rappelle sans détour que l’AGI, ce n’est pas pour demain), il y a de quoi s’y perdre.
Aujourd’hui, les modèles d’IA ne savent pas apprendre comme nous. Ils ne comprennent pas le monde. Même s’ils font illusion (et pondent des poèmes potables), ils ne généralisent pas, n’explorent pas, n’adaptent pas. Tant qu’ils ne franchiront pas ce cap, l’AGI restera un sujet de débat, pas une réalité.
Et finalement, l’utilité prime : pourquoi chercher une IA omnisciente alors qu’il reste tant à faire avec des outils spécialisés ? Pour Dettmers, la vraie bataille se joue dans ces usages concrets où l’IA booste la productivité, facilite la vie, voire automatise les tâches les plus rébarbatives (à quand la machine à plier les chaussettes ?).
Focus sur des innovations… utiles !
Face au mirage de l’AGI, le futur de l’IA passera-t-il par :
- Des applications médicales de diagnostic assisté ?
- Des solutions de traduction instantanée ou de synthèse vocale ?
- L’automatisation de la gestion documentaire ?
- Ou encore l’optimisation des lignes de production industrielle ?
Parier sur des IA utiles et économiquement viables, c’est peut-être ça, la vraie rupture.
Faut-il abandonner tout espoir d’AGI ?
L’histoire de la technologie n’a jamais manqué de surprises (qui imaginait une voiture volante fiable en 2025 ? Personne… et on y est presque). Peut-être qu’une percée improbable, une puce quantique ou un algorithme venu de nulle part bouleversera la donne. Mais pour l’instant, la prudence s’impose : dépenser des milliards pour un rêve lointain alors que l’IA peut déjà révolutionner des pans entiers du quotidien, c’est un choix risqué.
Comme le dit Dettmers, « La valeur essentielle de l’IA réside dans son utilité et dans l’augmentation de la productivité qu’elle permet. » L’avenir proche de l’intelligence artificielle s’annonce donc plus utile que mythique… mais soyons honnêtes, on gardera toujours un œil sur la prochaine grande annonce de la Silicon Valley – juste au cas où.
