L’objectif ici n’est pas d’être alarmiste, mais de poser des faits. Parce qu’à ce stade du cycle, je pense sincèrement que ce sont les contraintes les plus terre-à-terre - électricité, obsolescence matérielle, exécution industrielle et comptabilité - qui vont se mettre à dicter les rendements boursiers.
Le business du cloud IA : moteur de croissance, mais rentabilité douteuse
Chez Zonebourse, l’architecture informatique est hybride. Notre plateforme repose principalement sur des serveurs qui nous appartiennent, mais nous louons également des infrastructures — notamment pour les projets IA, pour lesquels on a besoin de ces fameuses GPU.
À titre d’exemple, un serveur avec une GPU V100 (16 Go de VRAM) se loue autour de 400–500 EUR par mois. Sachant que ces puces datent de 2017 et coûtaient, nues, environ 10 000 EUR, l’investissement est certainement rentabilisé pour les cloud providers. En revanche, aujourd’hui, plus grand-monde ne loue ces V100, car elles ne supportent pas les derniers logiciels qui permettent d’exploiter les meilleurs LLM de manière optimisée. On va plutôt utiliser une GPU L40, sortie en 2022 ou une A100.
Et c’est là tout le problème : le développement du hardware comme du software s’est accéléré. Les nouvelles puces sortent de plus en plus rapidement — on parle d’un rythme de lancement annuel chez Nvidia ! — et la communauté open-source innove en continu sur la couche logicielle. Tout ça pour dire qu’une infrastructure achetée aujourd’hui peut être techniquement "OK" dans trois ans, mais commercialement dépassée face aux gains d’efficacité des nouvelles générations.
Ça devient assez difficile d’imaginer pouvoir reproduire le scénario de la V100 : louer une puce achetée 10 000 à 500 EUR par mois pendant plus de trois ans. Et encore une fois, on parle ici de puces nues, pas d’un rack IA complet, opérationnel, refroidi, câblé, etc. On ne parle pas non plus du coût énergétique : un rack IA qui tourne 24/7, c’est une centaine de kW. Un coût loin d’être négligeable.
Deux choses peuvent donc se passer — et on commence déjà à l’observer.
- La communauté open-source peut adapter les logiciels pour permettre d’utiliser les derniers modèles sur des puces de générations précédentes, ce qui allongerait leur durée de vie économique. Plutôt cool.
- Les hyperscalers vont monter leurs prix. Et c’est même nécessaire s’ils ne veulent pas se retrouver avec un ROIC inférieur à 5 %. Typiquement, le CEO d’OVH anticipe une hausse des prix cloud de 5–10% d’ici mi-2026, avec des coûts serveurs internes en hausse de 15–25%, notamment sous la pression DRAM/SSD et du matériel IA.
Et vous savez quoi ? Je pense qu’une bonne partie de la demande en cloud IA ne suivra pas si les prix grimpent trop brutalement. Tout simplement parce que monétiser un projet IA, ce n’est pas si simple. Prototyper est très facile — et je suis bien placé pour le dire — mais produire un système fiable, scalable et rentable, c’est une autre histoire.
Depuis plusieurs mois, notre objectif est de rendre la barre de recherche de Zonebourse intelligente, et je peux vous le dire : c’est plus facile à dire qu’à faire si on ne veut pas dépenser dix centimes à chaque fois qu’un utilisateur appuie sur Entrée. Et si on ose envisager ce genre de projet, c’est justement parce que le prix de la location des GPU nous semble pour l’instant abordable. Mais si le prix double ou triple, je pense sincèrement qu’une grande partie de la demande n’acceptera pas d’absorber ces hausses.
Le goulot d’étranglement physique
Goldman Sachs estime que la demande électrique des datacenters va augmenter d’environ +165% d’ici 2030, portée très majoritairement par l’IA. Keith nous en parle en détail ici.
Or, l’offre électrique pilotable n’évolue pas du tout au même rythme. La question n’est même plus "à quel prix ?", mais "y en aura-t-il assez au bon endroit, au bon moment ?".
En Virginie du Nord, premier hub mondial, les nouveaux projets font face à jusqu’à sept ans d’attente pour être connectés au réseau. Et ce n’est pas une exception locale : les opérateurs réseaux US et européens signalent des files d’attente qui s’allongent partout où l’IA veut s’installer.
On construit des dizaines de milliards de dollars de capacité… qui ne peuvent pas tourner, faute d’être reliées au courant (pénurie de transformateurs, de matériel de refroidissement, de main-d’œuvre spécialisée…). Et l’ironie du truc, c’est que ces actifs, en attendant d’être branchés, se déprécient.
C’est ça, le vrai coût d’opportunité de l’IA : pas seulement le capex, mais le temps mort industriel.
C’est tellement le bazar que les hyperscalers signent ou financent des projets nucléaires SMR (Oklo, X-Energy, etc.). Mais ne vous faites pas d’idée : on parle là aussi d’une arrivée significative plutôt post-2030.
Ce goulot d’étranglement énergétique a deux effets directs sur les hyperscalers :
- CapEx additionnel non anticipé : ils doivent financer non seulement les datacenters, mais aussi parfois leurs propres solutions énergétiques.
- Décalage du ROI : les revenus potentiels IA sont là, la demande est là (pour l’instant, et à ce prix), mais la capacité livrable est contrainte, donc la monétisation se décale.
Des investissements d’une ampleur jamais gérée par des entreprises privées
Comprenez-le bien : on est dans un régime historique inédit, avec des centaines de milliards de CapEx par an concentrées sur une poignée d’entreprises.
Je n’ose même plus sortir les chiffres exacts de peur de ne pas être à jour. De ce que j’ai en tête, on parle de plus de 600 MdsUSD d’investissements IA annuels d’ici 2026–2027.
D'après le Wall Street Journal, les investissements IA aux US serait susceptibles d'avoir compté pour la moitié de la croissance du PIB du pays sur les 6 premiers mois de l'année.
Qui est capable d’exécuter de telles opérations d'investissement sans détruire de valeur ?
Les acteurs eux-mêmes le reconnaissent : aucune de ces entreprises n’a déjà mené un projet industriel de 50 MdsUSD — et elles en lancent désormais une dizaine simultanément. À cette échelle, la moindre erreur logistique devient un gouffre, et les retards coûtent des fortunes.
Financer ces investissements n’est pas non plus anodin. Un vrai changement de structure capitalistique s’opère chez des entreprises tech qu’on connaissait extrêmement solides d’un point de vue financier.
En 2025, c’est plus de 120 MdsUSD de dette qui ont été émis par ces hyperscalers, un chiffre en forte hausse vis-à-vis des années précédentes, et la dynamique projetée pour 2026-2027 est encore plus forte.
Oracle est un bon exemple : on est désormais sur un endettement net supérieur à 80 MdsUSD et un levier supérieur à 3.
Même si, depuis la fin du shutdown et la publication des chiffres macro, le climat semble s’être détendu aux États-Unis, ce changement d’envergure est crucial : c’est moins de marge de manœuvre si les taux restent élevés, plus de sensibilité au cycle économique, et donc une dépendance accrue à la réussite commerciale de l’IA.
La circularité de l’écosystème
Un des éléments relevés à des nombreuses reprises par des analystes autour du globe concerne la circularité des flux économiques. Cette consanguinité des flux nous amène à penser qu’une partie de la croissance affichée par les acteurs de cet écosystème n’est pas vraiment synonyme de création de valeur nette.
Le schéma est plutôt simple :
- Les hyperscalers investissent massivement dans des datacenters.
- Une partie importante de la demande IA vient… des acteurs de l’IA eux-mêmes : start-ups, labs, plateformes, éditeurs de modèles.
- Ces acteurs financent leur consommation de cloud via des levées de fonds où les hyperscalers et les géants du semi-conducteur sont souvent actionnaires, partenaires ou fournisseurs exclusifs.
- Les revenus du cloud gonflent donc en partie grâce à un système où le fournisseur finance indirectement son propre client.
Tout cela n’est pas catastrophique mais il faut tout de même noter que cette circularité permet à ces acteurs d’afficher une croissance spectaculaire sans que la demande finale, adressée par le grand public ou par les entreprises traditionnelles, ait encore prouvé qu’elle suivait au même rythme.
Pourquoi est-ce fragile ?
- Parce que la boucle dépend du coût du capital. Tant que l’argent est abondant et que les valorisations restent élevées, les start-ups peuvent consommer du cloud à perte. Si l’appétit des marchés ralentit, la boucle se contracte vite.
- Parce que les revenus sont corrélés. Si un maillon réduit sa dépense (par exemple une plateforme IA qui ralentit sa croissance), l'hyperscaler voit ses revenus cloud ralentir, ce qui réduit sa capacité à réinvestir, ce qui pèse sur la demande de GPU… etc.
- Parce que la valeur finale n’est pas encore garantie. L’écosystème dépense énormément aujourd’hui sur une promesse, mais si la monétisation des cas d’usage met plus de temps que prévu, l’ensemble du château devient très sensible à un changement de régime.
La créativité comptable
Certains parleront de fraude, d’autres de créativité comptable. Il s’agit selon moi du point le plus pragmatique de cet article : les hyperscalers se sont mis à considérer que la durée de vie utile de leurs serveurs et puces a augmenté, et allongent donc les durées d’amortissement alors même que le cycle de vie produit du hardware IA se raccourcit. Une divergence inquiétante, qui laisse penser qu’ils écrivent du résultat aujourd’hui au détriment de celui de demain.

Durée de vie utile des serveurs (plan d’amortissement) pour les trois principaux hyperscalers. Le passage coordonné de 3/4 ans à 6 ans est facile à observer au fil du temps. Source : "Why AI factories bend, but don’t break, useful life assumptions", SiliconAngle.
En 2023, Alphabet a étendu la durée de vie estimée des serveurs de 4 à 6 ans et de certains équipements réseau de 5 à 6 ans. Idem pour Microsoft.
En 2025, Meta a étendu à 5,5 ans (4–5 ans auparavant). La même année, Oracle s’est mis à amortir son matériel sur 6 ans également.
Si vous ne comprenez pas le mécanisme financier, un petit exemple pour vous aider :
Supposons qu’un hyperscaler achète pour 100 MdsUSD de serveurs/GPU IA. Si l’entreprise considère que la durée de vie utile de ce matériel est de 3 ans, elle comptabilise autour de 33 MdsUSD par an d’amortissement (en supposant un amortissement linéaire). Si elle l’étire à 6 ans, elle ne comptabilise plus que 17 MdsUSD par an.
Résultat : +16 MdsUSD de résultat opérationnel par an à court terme, sans que le cash ait changé d’un centime. C’est juste du timing de compte de résultat, parce que dans quatre ans, la valeur comptable de ces actifs au bilan sera déconnectée de la réalité économique, et l’entreprise sera peut-être amenée à déprécier la valeur résiduelle d’un coup — surprenant alors de nombreux investisseurs.
Michael Burry estime que l’ampleur des sous-amortissements des actifs IA de ces entreprises atteindra autour de 180 MdsUSD d’ici 2028. Selon lui, cette écriture comptable aurait permis à Oracle de booster ses profits de 26,9% et à Meta de 20,8%.
Burry n’est pas le seul à se mouiller. The Economist titre "l’énigme comptable à 4 000 milliards de dollars au cœur du cloud IA".
Selon leurs estimations, si ces actifs étaient amortis sur trois ans au lieu des durées plus longues désormais retenues par les entreprises, les profits annuels avant impôt baisseraient d’environ 8%. Et si la dépréciation collait réellement au rythme imposé par Nvidia (ce qui est extrême et n’a pas vraiment de sens à mes yeux — il suffit de prendre l’exemple des iPhones pour le constater), le choc implicite sur la valeur de marché pourrait atteindre 4 000 MdsUSD.
On peut débattre du terme "fraude", car il n’est pas si facile d’estimer la durée de vie utile d’un matériel soumis à une innovation annuelle plus ou moins forte. Mais le mécanisme économique est incontestable : on pousse la facture dans le futur alors que la techno s’accélère. C’est la divergence qui est étrange. En revanche, comme je le disais dans le premier point, on observe effectivement un effort de la communauté open-source pour produire des logiciels permettant d’utiliser les derniers modèles sur des puces d’ancienne génération. Et il est tout à fait possible que, dans les faits, les puces de dernières générations se révèlent être très résilientes, notamment dans la dernière phase de leur vie, pour des applications plus simple (et non de l'entrainement) chez des clients comme nous.
Finalement, peut-être que ces signaux d'alerte ont empêché que le pari sur l'IA ne soit encore plus encombré qu'il ne l'est déjà. C'est la théorie un peu culottée de Bank of America, qui pense que ce scepticisme profite aux audacieux en laissant les autres investisseurs sur le bord de la route. Il va de soi que l'équipe de recherche spécialisée dans les semiconducteurs de la banque d'affaires américaine n'a aucun doute sur la solidité de la dynamique du secteur, malgré le bruit ambiant.


















