
De l’hydrogène sous nos pieds pour 170 000 ans ?
2026/1/01 | 2 mins.
Il n’existerait pas d’hydrogène à l’état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d’hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d’hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu’à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd’hui une tout autre dimension.Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l’hydrogène naturel apparaît comme une ressource providentielle. L’hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d’hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l’industrie, les transports, voire la production d’électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l’annonce récente d’un gisement estimé à 46 millions de tonnes d’hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d’hydrogène atteignait environ 90 millions de tonnes en 2022.C’est dans ce contexte que des chercheurs de l'University of Oxford, de l’University of Durham et de l’University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l’accumulation de l’hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l’échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l’hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s’en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l’exploration. Tout n’est pas encore connu : l’efficacité exacte des réactions chimiques ou l’influence de l’histoire géologique restent à préciser. Mais l’essentiel est là. « Trouver de l’hydrogène, c’est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L’IA beaucoup plus économe grâce à un nouvel isolant ?
2025/12/31 | 2 mins.
Pour faire tourner l’intelligence artificielle, il ne suffit pas d’aligner des serveurs. Il faut surtout les refroidir. Et c’est là que le bât blesse. Selon un rapport de l’International Energy Agency, les centres de données ont consommé 415 térawattheures d’électricité dans le monde en 2024, soit quasiment l’équivalent de la consommation annuelle de la France. D’ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l’explosion des usages liés à l’IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l’University of Houston, une équipe du département d’ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s’agit d’un isolant bidimensionnel ultrafin, dit « Low-K », c’est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l’électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d’électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d’un jeu de Lego à l’échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.Ces nouveaux isolants offrent un double avantage. D’un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l’IA. De l’autre, ils pourraient à terme bénéficier à toute l’électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l’industrialisation, elle pourrait devenir l’un des leviers clés pour freiner l’explosion énergétique de l’intelligence artificielle — et rappeler que l’innovation matérielle reste aussi stratégique que les algorithmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Google va racheter un spécialiste des datacenters ?
2025/12/30 | 2 mins.
À mesure que l’intelligence artificielle s’impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l’électricité dont ses centres de données ont besoin.C’est dans ce contexte qu’Alphabet, la maison mère de Google, négocie le rachat d’Intersect, une entreprise américaine spécialisée dans la colocalisation d’infrastructures énergétiques et numériques. L’opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.Intersect revendique aujourd’hui près de 15 milliards de dollars d’actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l’entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d’Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d’IA du groupe. L’enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d’une recherche classique. Sundar Pichai, PDG d’Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.Ironie du sort, Google utilise aussi ses propres algorithmes d’IA pour accélérer le raccordement des nouvelles centrales au réseau : l’intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l’alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'IA pollue autant que la ville de New York ?
2025/12/29 | 2 mins.
L’addition environnementale de l’intelligence artificielle commence enfin à sortir du brouillard. Et elle est salée. Une étude menée par Alex de Vries-Gao, doctorant à l’université d’Amsterdam et fondateur de Digiconomist, met en lumière un angle mort majeur : l’empreinte carbone et hydrique des systèmes d’IA reste largement sous-évaluée, faute de données publiques et détaillées de la part des géants du numérique.Selon ses estimations, les systèmes d’IA pourraient émettre entre 32,6 et 79,7 millions de tonnes de CO₂ dès 2025. Un ordre de grandeur comparable aux émissions annuelles d’une grande métropole comme New York, ou d’un pays européen de taille moyenne. La consommation d’eau est tout aussi vertigineuse : entre 312 et 764 milliards de litres par an, soit l’équivalent de la consommation mondiale d’eau en bouteille. En cause, une explosion de la puissance électrique mobilisée par l’IA : 23 gigawatts attendus fin 2025, contre 9,4 GW seulement un an plus tôt.Ces chiffres s’inscrivent dans une tendance déjà pointée par Agence internationale de l'énergie, qui estime que l’IA représentait 15 % de la consommation électrique des centres de données en 2024, une part susceptible d’atteindre près de la moitié à moyen terme. Mais mesurer précisément cet impact relève aujourd’hui du casse-tête. Aucun acteur majeur — Google, Microsoft, Amazon ou Apple — ne distingue clairement, dans ses rapports environnementaux, ce qui relève spécifiquement des charges de travail liées à l’IA. Meta fait figure d’exception partielle en publiant sa consommation d’eau indirecte, liée à l’électricité achetée : 3,92 litres par kilowattheure, soit quatre fois plus que les estimations de référence. À l’inverse, Google assume ne pas communiquer ces données, arguant d’un manque de contrôle sur la production électrique — une position que l’étude juge révélatrice d’un déficit de transparence.Face à ce flou, Alex de Vries-Gao appelle à des règles plus contraignantes : obligation de reporting détaillé, publication de métriques hydriques et carbone spécifiques à l’IA, et création d’un indice carbone des modèles. Certaines initiatives émergent, comme celle de Mistral, qui a publié une analyse environnementale détaillée de l’un de ses modèles et invite ses concurrents à faire de même. Sans cette transparence généralisée, prévient le chercheur, impossible d’évaluer l’efficacité réelle des stratégies de réduction d’impact. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L’ISS recyclé en une station spatiale Russe ?
2025/12/28 | 2 mins.
La Russie prépare déjà l’après-ISS, et le projet de sa future station spatiale en dit long sur l’état actuel de son programme orbital. Baptisée provisoirement Russian Orbital Service Station, cette infrastructure doit entrer en construction à partir de 2027. Mais les contours du projet ont récemment évolué, révélant une stratégie plus contrainte qu’annoncé.À l’origine, Roscosmos envisageait une station entièrement nouvelle, composée de sept modules lancés progressivement à partir de la fin de la décennie. L’ensemble devait être assemblé dans les années 2030 et inclure, fait notable, des modules privés destinés au tourisme spatial. Une ambition élevée, fidèle à l’héritage soviétique de l’exploration spatiale. La réalité semble aujourd’hui plus pragmatique. Selon des responsables de l’agence spatiale russe, le cœur de cette future station pourrait finalement être constitué… des modules russes de l’actuelle Station spatiale internationale. L’idée serait de détacher ce segment à l’horizon 2030, lorsque l’ISS arrivera en fin de vie, afin de le maintenir en orbite et de le réutiliser. Pendant que la partie internationale serait désorbitée et détruite dans l’atmosphère, la section russe poursuivrait son existence sous une nouvelle bannière. Cette option présente un avantage évident : le coût. Construire une station entièrement neuve exige des investissements colossaux, difficilement compatibles avec la situation économique russe actuelle, marquée par des sanctions technologiques et un budget largement absorbé par l’effort militaire. Réutiliser l’existant permet de maintenir une présence en orbite basse à moindre frais. Mais ce recyclage pose de sérieux problèmes. Les modules russes de l’ISS auront alors passé plus de trente ans dans l’espace. Usure des matériaux, pannes à répétition, fatigue des structures, sans oublier les risques biologiques liés à des décennies d’occupation humaine : les inquiétudes sont nombreuses. Les cosmonautes russes effectuent déjà régulièrement des réparations pour maintenir les systèmes en état de fonctionnement.Au-delà des défis techniques, ce choix traduit un recul stratégique. Tandis que la Chine consolide sa station Tiangong, que l’Inde vise l’autonomie orbitale et que les États-Unis s’appuient sur le secteur privé pour renouveler leur présence spatiale, la Russie semble contrainte de faire avec ce qu’elle a. Cette future station, si elle voit le jour sous cette forme, garantirait une présence symbolique en orbite… mais au prix d’ambitions scientifiques et technologiques nécessairement limitées. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.



Choses à Savoir TECH VERTE