Une recherche Google sur mobile draine votre batterie 5 fois plus qu’une requête IA et ça change tout pour le numérique responsable

Pourquoi on compare souvent la mauvaise chose

Depuis 2023, on entend partout la même petite musique : « une requête IA consomme dix fois plus d’énergie qu’une recherche Google ». Pratique, simple, mémorisable. Et parfait pour pimenter un slide RSE à la dernière minute.

Sauf que… cette comparaison repose sur une unité de mesure bancale. Elle oppose en gros le coût serveur d’une recherche Google au coût serveur d’une réponse d’un modèle de langage. Serveur contre serveur, rideau.

Le problème, c’est que votre recherche sur mobile ne s’arrête pas au serveur de Google. Elle déclenche une session complète : chargement de pages lourdes, exécution de JavaScript, allers-retours réseau, rendu graphique, et en bonus une ribambelle d’enchères publicitaires qui se battent en coulisses pour afficher une bannière que vous ne vouliez pas.

Bref, si on veut parler d’empreinte énergétique réelle, il faut regarder la session utilisateur, pas seulement le data center.

Le chiffre qui pique : 5 fois plus d’énergie côté Google mobile

Un working paper publié en mars 2026 par Charles Duprat (ICOM’Provence) propose enfin une comparaison plus honnête : combien d’énergie est nécessaire pour satisfaire un besoin d’information complet, du premier tap sur l’écran jusqu’à la réponse finale.

Et sur mobile, le résultat est contre intuitif : une session de recherche web classique consommerait environ 5,4 fois plus d’énergie qu’une requête IA équivalente.

Pour visualiser, prenons une tâche banale : comparer deux solutions techniques en s’appuyant sur trois sources, depuis un smartphone en 5G non-standalone (le scénario le plus courant en France en 2026).

Session “recherche web” sur mobile : le détail des postes

Selon les ordres de grandeur présentés :

  • Traitement de la requête côté serveur : 0,30 Wh
  • Réseau : 3 pages × 2,56 Mo (médiane HTTP Archive 2025) × 0,14 kWh/Go = 1,08 Wh
  • Rendu des pages sur l’appareil (CPU/GPU du téléphone) : 0,60 Wh
  • Charge publicitaire (environ 30% du rendu, d’après Khan et al. 2024) : 0,18 Wh
  • Temps écran : 6 minutes × 2,5 W = 0,25 Wh

Total estimé : 2,41 Wh

Session “LLM standard” équivalente

  • Inférence : 0,30 à 0,40 Wh
  • Réseau : payload texte (quelques Ko), quasi négligeable
  • Temps écran : 2,5 minutes = 0,10 Wh

Total estimé : 0,40 à 0,50 Wh

On est donc sur un ratio central d’environ 5,4x en faveur du LLM.

Et l’auteur va plus loin avec une simulation Monte Carlo sur 10 000 tirages : dans ses paramètres, la recherche mobile ne passe jamais sous le LLM. Le “plancher” observé est encore à 1,6x.

Pourquoi l’IA gagne ici : 3 mécanismes très concrets

Ce renversement ne vient pas d’une magie verte de l’IA. Il vient surtout du fait que la navigation web mobile moderne est devenue un sport énergivore.

1) Le réseau mobile est un gros poste de dépense

Une page web mobile médiane pèse environ 2,56 Mo. Sur mobile, la transmission coûte cher en énergie. Avant même que la page affiche un pixel, votre téléphone et le réseau ont déjà payé.

À l’inverse, une réponse IA sur une tâche de synthèse peut tenir dans 2 à 10 Ko de texte. L’écart en volume transmis se compte en centaines de fois.

Moralité : sur mobile, le réseau n’est pas un détail. C’est souvent la composante dominante de l’empreinte énergétique d’une session.

2) La pub programmatique agit comme une taxe invisible

Le web gratuit a un prix, et ce prix se mesure aussi en watts.

Quand vous chargez une page “ad-supported”, il ne se passe pas seulement un affichage de bannière. Une enchère programmatique s’active, des intermédiaires calculent, matchent, rejettent, relancent. Une grande partie de cette activité n’apporte aucune valeur au lecteur, mais consomme des cycles CPU et du réseau.

Les mesures citées (Khan et al. 2024) indiquent que des bloqueurs de publicité intégrés peuvent réduire la consommation côté appareil de 15 à 44%. Donc oui : une partie non négligeable de votre batterie part dans une bataille publicitaire dont vous n’avez même pas demandé le spectacle.

Un LLM, dans ce scénario, court-circuite largement cette infrastructure.

3) Le LLM réduit le pogo-sticking et donc le temps écran

Le comportement classique sur Google mobile, c’est :

  • on clique
  • on scrolle
  • on réalise que ce n’est pas ça
  • on revient
  • on reclique

Ce “pogo-sticking” multiplie les chargements, le rendu, les scripts, et le temps écran.

Les études de type expérimentation contrôlée (comme CHI 2025 de Spatharioti et al.) montrent que sur certaines tâches de synthèse, les utilisateurs terminent plus vite avec un LLM : moins de requêtes, moins de pages, moins de minutes à l’écran.

Et moins de minutes à l’écran, c’est aussi moins de watts. Votre batterie adore les synthèses rapides.

Ce que ça ne veut pas dire : 3 angles morts à garder en tête

Avant de remplacer toute la barre de recherche par un chatbot, il y a des nuances importantes.

1) Sur Wi-Fi fixe, l’avantage s’effondre

Sur réseau fixe, l’énergie par Go transmis est bien plus basse (ordre de grandeur : 0,006 kWh/Go). Du coup la “punition réseau” de la navigation web chute fortement.

Dans ce cas, l’avantage du LLM descend plutôt vers 1,5 à 2,5x sur tâches complexes, et peut atteindre la parité sur des requêtes simples.

Donc l’inversion est surtout un phénomène mobile.

2) Les modèles reasoning peuvent redevenir très énergivores

Tous les LLM ne se valent pas. Les modèles “reasoning” qui déroulent de longues chaînes de raisonnement peuvent exploser la quantité de tokens générés.

Des travaux cités (Jin et al. 2025) évoquent une expansion moyenne d’environ 4,4x des tokens de sortie en production, avec des cas extrêmes largement au-delà.

Selon les estimations présentées, le seuil où le LLM peut redevenir plus énergivore que la recherche mobile se situerait autour d’un facteur 4 à 8x. Autrement dit : sur certaines tâches, choisir un mode thinking “par défaut” peut coûter très cher, énergétiquement parlant.

3) L’efficacité par session ne dit pas tout sur l’effet global

Même si une session LLM est plus efficiente, l’effet rebond reste réel. Si l’IA crée de nouveaux usages au lieu de remplacer des usages existants, la consommation totale augmente.

C’est le paradoxe de Jevons version numérique : on optimise, puis on consomme plus parce que c’est plus facile.

Implications concrètes pour les entreprises et les équipes tech

Ce sujet n’est pas un débat théorique pour soirées à thème. Il touche directement les décisions produit, IT et RSE.

1) Le choix du modèle devient une décision énergétique

Si votre organisation utilise un modèle reasoning très coûteux pour des tâches de synthèse standard, vous payez une empreinte plus élevée sans forcément gagner en valeur.

Mettre en place du routage intelligent par complexité est une piste pragmatique :

  • questions simples : modèle léger
  • synthèse multi-sources : modèle standard
  • raisonnement complexe : modèle reasoning

Ce n’est pas juste de l’optimisation geek, c’est de la cohérence.

2) Sur mobile, substituer certaines recherches web par un LLM peut réduire l’empreinte

Pour la veille, les comparatifs, les synthèses rapides, la recherche “je veux comprendre vite”, la bascule peut être immédiate.

Et ce qui est amusant, c’est que la motivation première n’est pas l’écologie : c’est le temps gagné. Le bénéfice énergétique arrive souvent comme un effet secondaire heureux.

3) La pub programmatique mérite d’être comptée dans les audits

Si une part de 15 à 44% de la conso côté appareil est liée à la publicité, ignorer ce poste revient à sous-estimer la dépense énergétique réelle de vos usages web.

Pour une organisation qui équipe des équipes terrain en mobilité, ça peut peser, surtout quand ces usages se répètent toute la journée.

Et pour vous, utilisateur mobile, qu’est-ce que ça change ?

Reprenons une scène très réaliste.

Scénario A : recherche Google sur smartphone

Vous faites quatre requêtes, vous ouvrez plusieurs pages, vous revenez en arrière, vous reformulez. Quinze minutes plus tard, vous avez une réponse, et une légère envie de jeter votre téléphone par la fenêtre.

Consommation typique avancée : 2,41 Wh.

Scénario B : requête IA standard

Vous posez une question bien formulée, vous demandez une synthèse structurée, et vous obtenez une réponse exploitable rapidement.

Consommation typique : 0,40 Wh.

Vous n’avez pas “sauvé la planète” avec une requête. Mais vous avez évité qu’une page web moderne se transforme en mini usine logicielle dans votre poche.

Ce que cette inversion raconte sur le web actuel

Le point le plus piquant dans cette histoire, ce n’est pas que l’IA serait miraculeusement sobre.

C’est que le web mobile ad-supported est devenu incroyablement inefficace : pages lourdes, scripts partout, trackers, enchères, appels réseau multiples. Une page n’est plus un document, c’est un logiciel emballé dans un article.

Et comme cette dépense se fait sur votre appareil et votre réseau, elle a longtemps été invisibilisée dans les comparaisons centrées “data center”.

Autrement dit : le narratif “l’IA pollue plus que Google” a parfois servi de raccourci commode, sans regarder ce que coûte réellement l’expérience utilisateur complète.

Pistes simples pour réduire l’énergie côté usage, sans devenir moine numérique

Quelques actions pragmatiques, surtout utiles sur mobile :

  • Pour les synthèses, comparatifs et explications : privilégier un LLM standard plutôt qu’une navigation web à rallonge.
  • Éviter le mode reasoning quand il n’est pas nécessaire, parce que “réfléchir très fort” coûte souvent cher en calcul.
  • Sur web, limiter les pages ultra chargées et, si votre contexte le permet, utiliser des outils qui réduisent la charge publicitaire et les scripts.
  • Quand c’est possible : basculer sur Wi-Fi fixe pour les sessions de recherche longues, l’énergie par Go transmis est nettement plus basse.

Au passage, si vous automatisez de la veille ou de la synthèse pour éviter de multiplier les recherches manuelles, des workflows peuvent aider. Et si un lien Make.com traîne dans votre stack, le bon point de départ est ici : https://www.make.com/en/register?pc=laurentwiart

À retenir

Mesurer “une requête” sans mesurer “une session” revient à juger le coût d’un trajet en ne regardant que la clé de contact.

Sur mobile, une recherche Google typique n’est pas juste une requête : c’est une suite d’actions gourmandes en réseau, en rendu, en scripts et en pub programmatique. Dans ce cadre, une requête IA standard peut effectivement être nettement moins énergivore pour atteindre le même objectif d’information.

Et la prochaine fois qu’on vous dit en réunion que “l’IA c’est forcément pire que Google”, vous pourrez répondre calmement : « ça dépend de l’unité… et de la taille des pubs ».

Sources : article du Journal du Net (31 mars 2026) s’appuyant notamment sur un working paper de Charles Duprat (ICOM’Provence) et des références à Google arXiv:2508.15734, Khan et al. 2024, Spatharioti et al. CHI 2025, Jin et al. 2025.

Source : Google sur mobile brûle votre batterie 5 fois plus qu’une requête IA et ça change tout pour le numérique responsable