A l’heure où les puces ne progressent plus aussi vite qu’avant, la fameuse loi de Moore, qui prédisait un doublement régulier de la puissance des processeurs, touche ses limites, les avancées ne viennent plus seulement du "plus petit, plus rapide". L’innovation se déplace désormais vers d'autres terrains, plus techniques mais tout aussi cruciaux. Prenez par exemple la technologie CoWoS de TSMC : elle permet d’empiler plusieurs composants les uns sur les autres, comme des Lego de silicium, pour gagner en vitesse et en efficacité. Autre illustration, l’optique co-emballée de Broadcom, qui intègre directement des connexions par fibre optique au plus près des puces pour accélérer les échanges de données.
Ces techniques pointues répondent aux besoins colossaux de calcul grandissant des modèles d’IA actuels. Les sociétés qui les développent se profilent comme des acteurs majeurs pour les puces de demain. Dans cette course à la performance, un type de mémoire joue un rôle central : la HBM, ou High Bandwidth Memory. Très rapide, elle est essentielle pour nourrir les processeurs d’IA sans les ralentir. Tous les géants du secteur se ruent dessus, mais tous n'ont pas encore réussi à transformer l'essai. Tandis que SK Hynix et Micron ont déjà obtenu le feu vert de Nvidia pour leur nouvelle génération de HBM, Samsung, lui, est encore à l’arrêt.
Samsung, un acteur de second plan
La firme vient de publier des résultats conformes à ses attentes, avec une hausse de 1,2% de son bénéfice d’exploitation par rapport au premier trimestre 2024. Rien de très excitant. Le marché, lui, ne s’en satisfait pas. La hausse des ventes de smartphones, portée par l’anticipation des droits de douane, n’a pas suffi à redonner des couleurs au titre, qui reste sur ses plus bas niveaux des quatre dernières années.
Mais là où Samsung était réellement attendue, c’était sur son activité mémoire, notamment sur la technologie HBM, aujourd’hui indispensable pour l’IA. Le segment est en recul de 17% par rapport au quatrième trimestre 2024 et augmente de 9% en un an. Pendant ce temps, ses deux principaux concurrents, SK Hynix et Micron, ont déjà obtenu la certification de leurs HBM3E par Nvidia. Samsung, lui, attend encore. Résultat : SK Hynix a vu son bénéfice d’exploitation grimper de 158% en un an. Autrement dit, Samsung est à la traîne.
Un segment sous pression
En plus de la concurrence, le segment mémoire est sous la menace des droits de douane américains. Donald Trump prévoit 25% de tarifs supplémentaires pour la Corée du Sud. Et ce n’est pas tout : le risque de sanctions ciblées sur les smartphones ou les puces mémoire plane toujours.
Autre sujet brûlant : la Chine. Samsung vend 20 à 30% de ses puces HBM à des entreprises chinoises, notamment Huawei. Officiellement, la technologie HBM est interdite dans l’Empire du Milieu. Officieusement, des contournements existent. Les entreprises chinoises achètent des boîtiers “propres”, embarquant des puces bon marché aux côtés des modules HBM, puis déssoudent le tout pour récupérer la mémoire. Une combine connue, mais tolérée… pour l’instant. Si Washington décide de serrer la vis, Samsung pourrait y laisser quelques plumes.