Vue lecture

Chauffer à plus de 1 400 degrés pour stocker le soleil : la percée des batteries thermiques

panneaux solaires

L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le Soleil brille. Certains dispositifs photovoltaïques pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, puis de récupérer l’énergie sous forme d’électricité.

  •  

La France atteint des records alarmants de contamination au cadmium

Champ Traitement

L'Anses publie ce mercredi le bilan le plus complet jamais dressé sur la contamination des Français à ce métal cancérogène. Le verdict est inquiétant : la France est le pays le plus touché d'Europe, et la moitié de la population est concernée.

  •  

Énergie solaire : comment contrer la hausse des prix en stockant intelligemment votre propre électricité [Sponso]

Cet article a été réalisé en collaboration avec Zendure

Si vous pensez encore qu'il faut être un expert pour produire sa propre énergie solaire, c'est que vous ne connaissez pas l'écosystème du fabricant Zendure.

Cet article a été réalisé en collaboration avec Zendure

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

  •  

Le Portugal et l’Espagne sont en train de tourner sur eux-mêmes, selon des géologues

Hp (1) 2026 02 12t142112.901

Longtemps cru figé, le sous-sol de l'Europe du Sud pivote en réalité dans une direction inattendue. Des mesures récentes confirment que la rotation de la péninsule ibérique s'opère désormais dans le sens horaire, inversant sa trajectoire historique. Ce mouvement imperceptible mais constant redéfinit l'évaluation des risques tectoniques régionaux.

  •  

Et si l'IA consommait moins d'énergie que Google ?

"Une requête ChatGPT consomme 10 fois plus d'énergie qu'une recherche Google."

Cette phrase, vous l'avez lue 100 fois. Mais est-ce vraiment vrai ?

Charles Duprat, chercheur en inclusion numérique, vient de publier un papier qui retourne complètement ce chiffre. Et même si je suis incapable de vérifier la validité scientifique de tout ce qu'il avance, ça vaut le coup d'en parler.

Son argument de base est simple et pas con. En fait quand on compare l'énergie d'une requête IA vs une recherche Google, on ne regarde en fait que ce qui se passe côté serveur, plutôt que l'ensemble de la chaîne. Le GPU Nvidia qui mouline d'un côté, l'index Google qui répond de l'autre.

Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c'est clairement pas juste un serveur qui tourne ! C'est le téléchargement de plusieurs mégaoctets via la 4G, c'est du JavaScript et du CSS qui font chauffer le CPU de votre téléphone, c'est du temps d'écran, et surtout c'est des dizaines de scripts publicitaires et de trackers qui tournent en arrière-plan. Et rien de tout ça n'apparaît dans le bilan "officiel".

Du coup, le chercheur a modélisé la comparaison au niveau de la session utilisateur complète. Donc pas juste la requête serveur, mais tout le trajet : réseau mobile, rendu de page, pubs, temps passé à lire. Et là, les résultats sont contre-intuitifs car pour une tâche complexe sur mobile (genre comparer des pompes à chaleur et des chaudières gaz), une session LLM consommerait environ 5,4 fois moins d'énergie qu'une session de recherche web classique. Dans le pire des cas modélisé, l'avantage reste quand même de 1,6 fois.

Alors d'où ça vient ?

D'abord, la page web médiane sur mobile pèse 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G à 0,17 kWh/Go, et ça, ça coûte déjà plus en énergie réseau qu'une inférence LLM complète. Une réponse ChatGPT ou Claude, c'est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant même de parler du reste. Quand on sait déjà que la consommation réelle des datacenters est un sujet à tiroirs, ça relativise pas mal.

Et puis y'a le boulet de la pub programmatique ! Des études (Khan et al., 2024) montrent que les bloqueurs de pub intégrés comme Brave réduisent la consommation électrique du terminal de 15 à 44%. En gros, quand vous naviguez sur un site d'actu classique, jusqu'à 41% de l'énergie de la session sert à charger et exécuter du JavaScript publicitaire. Hé bien le LLM court-circuite tout ça en vous filant une réponse texte directe.

Comme je vous le disais en intro, je suis totalement incapable de valider la méthodologie de cette étude... Allez savoir si les paramètres sont bien calibrés. Et c'est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L'auteur se base sur des chiffres publiés par Google pour Gemini (0,24 Wh par prompt, issu d'un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-même (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-mêmes, ça mérite qu'on garde un oeil critique.

Par contre, l'étude a aussi l'honnêteté de poser ses propres limites car l'avantage s'effondre pour les requêtes simples en Wi-Fi depuis votre PC ou Mac (quasi parité LLM <> Google). Et surtout, ça s'inverse violemment dès qu'on passe aux modèles de raisonnement type o3 ou Deep Think, qui consomment 30 à 700 fois plus qu'une inférence standard parce qu'ils génèrent des chaînes de pensée à rallonge.

Le paradoxe de Jevons est aussi mentionné : si l'IA est plus efficace par requête, les gens en feront forcément plus, donc la consommation globale augmentera quand même. Et la question des modèles éco-responsables reste elle aussi entière.

Mais bon, cette étude remet quand même en question un truc qu'on répète tous sans trop réfléchir. Comparer un serveur IA à un serveur Google, c'est oublier que la recherche web moderne, c'est devenu "recherche + publicité + réseau mobile + rendering JavaScript + temps d'attention". Et comme Google lui-même commence à coller de l'IA (les AI Overviews) en plus par-dessus ses résultats classiques, ça devient un joyeux bordel à mesurer...

Bref, lisez l'étude vous-mêmes , c'est en accès libre. Et faites-vous votre propre avis !

  •  

Générer 5 secondes de vidéo par IA consomme autant qu’un micro-ondes qui tourne pendant une heure

L’institut technologique du Massachusetts (MIT) publie une étude enrichissante sur la consommation énergétique, et en particulier électrique, de l’utilisation de l’intelligence artificielle. Alors que de nouveaux data centers poussent aux quatre coins du globe et que les politiques publiques, notamment américaines, visent à un débridage total en matière d’adoption de l’IA, ce nouveau constat fait froid dans le dos. On imagine à peine le moral des experts du GIEC.

La consommation de la génération de vidéos dans le viseur

Alors que les moteurs de génération de vidéos par IA (autrement dit : de deepfakes) se perfectionnent et qu’OpenAI se prépare à intégrer son Sora 2 directement à ChatGPT, le MIT alerte sur la consommation folle de ce genre de technologie. On sait déjà que la moindre requête sur un chatbot d’IA consomme une quantité d’eau astronomique. On sait désormais combien d’électricité est dépensée pour chaque interaction avec ChatGPT : entre 114 et 6 706 joules, estime l’institut de recherche.

Si le chiffre n’est pas très parlant, l’exemple utilisé l’est beaucoup plus. Cela représente la différence entre faire tourner un micro-ondes pendant 0,10 seconde et pendant huit secondes. Plus le modèle de langage est perfectionné, plus il consomme d’électricité en raison du nombre de paramètres mobilisés par le chatbot. En d’autres termes : pour consommer moins, mieux vaut privilégier les modèles les moins capables… mais on augmente alors la marge d’erreur.

Plus inquiétant encore : la génération de vidéos fait littéralement exploser les compteurs. Pour créer une vidéo de cinq secondes par IA, le dernier modèle en date d’OpenAI consomme 3,4 millions de joules. L’équivalent d’un micro-ondes qui tourne pendant une heure… et 700 fois plus d’énergie que pour générer une image en haute qualité.

IA et écologie semblent irréconciliables

Pour panacher un peu leurs observations, les chercheurs du MIT ont alors fait un test : poser à un chatbot 15 questions et générer dix images, et trois vidéos de cinq secondes. Bilan des courses ? 2,9 kWh consommés en quelques minutes. Le MIT Technology Review reprend sa comparaison : c’est un micro-ondes qui tourne sans s’arrêter pendant 3h30.

Le rapport ajoute qu’avant l’émergence de l’IA à partir de 2022, la consommation des data centers, bien qu’élevée, était relativement stable et maîtrisée. Depuis que l’intelligence artificielle s’est invitée partout, les centres de données subissent les assauts d’internautes avides d’essayer le dernier modèle à la mode, conduisant à des surcharges importantes et à une consommation qui part en flèche. L’énergie consommée par les data centers aux États-Unis a doublé depuis 2017, et plus de la moitié de l’électricité de ces infrastructures sera intégralement fléchée vers les outils d’IA dès 2028.

Cette situation n’est pas près de s’arranger. Pour pallier le problème, on construit davantage de data centers, qui appauvrissent les sols et assèchent les rivières. La faune et la flore se font déloger et le désastre écologique qui se joue devant nous depuis des décennies s’aggrave encore. Autre conséquence : les promoteurs de l’IA accaparent les stocks de composants informatiques, notamment la mémoire vive (RAM), ce qui mène à une inflation jamais vue et dessine des hausses de prix sensibles pour tous les produits tech dans les prochains mois.

  •  

Parley for the Oceans, Pour mieux comprend l’état de santé des baleines, Intel propose son expérience en matière d’IA

Le projet projet Parley for the OceansIntel est une entreprise spécialisée dans la conception et la fabrication des processeurs. A l’origine de la première puce x86, la firme propose parfois son savoir-faire dans le cadre de projets liés à l’environnement. Après les abeilles, le géant s’est attaché à mieux comprendre l’état de santé du plus important mammifère terrestre, la baleine. Tout …

Cet article Parley for the Oceans, Pour mieux comprend l’état de santé des baleines, Intel propose son expérience en matière d’IA a été publié en premier par GinjFo.

  •  

Disparition des abeilles, un mini-ordinateur Edison dans les ruches pour comprendre

AbeilleDepuis 1998, il est constaté en France et dans le reste de l’Europe, un phénomène grave de mortalité anormale et récurant des colonies d’abeilles domestiques. Ce syndrome ne s’est malheureusement pas arrêté à ces contrées puisqu’il touche les Etats Unis depuis 2007 et l’Australie. Dans l’état de Tasmanie au sud-est de l’Australie, un programme pilote …

Cet article Disparition des abeilles, un mini-ordinateur Edison dans les ruches pour comprendre a été publié en premier par GinjFo.

  •