Qu’est-ce que le stockage à large bande passante et pourquoi les États-Unis bloquent-ils la Chine ?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Découvrez ce qu'est la mémoire à large bande passante (HBM) et pourquoi les États-Unis bloquent l'accès de la Chine à cette technologie cruciale d'intelligence artificielle.

Erfahren Sie, was High Bandwidth Memory (HBM) ist und warum die USA Chinas Zugang zu dieser entscheidenden Technologie im Bereich Künstliche Intelligenz blockieren.
Découvrez ce qu'est la mémoire à large bande passante (HBM) et pourquoi les États-Unis bloquent l'accès de la Chine à cette technologie cruciale d'intelligence artificielle.

Qu’est-ce que le stockage à large bande passante et pourquoi les États-Unis bloquent-ils la Chine ?

Le gouvernement américain a imposé de nouveaux contrôles à l’exportation sur la vente à la Chine de puces mémoire de haute technologie utilisées dans les applications d’intelligence artificielle (IA). Ces règles affectent à la fois les technologies de mémoire à large bande passante (HBM) fabriquées aux États-Unis et les puces fabriquées à l'étranger. Voici tout ce que vous devez savoir sur ces semi-conducteurs de pointe, dont la demande a explosé parallèlement au battage médiatique mondial autour de l'IA.

Qu’est-ce que le stockage à large bande passante (HBM) ?

La mémoire à large bande passante (HBM) consiste essentiellement en une pile de puces mémoire, de petits composants qui stockent les données. HBM peut stocker beaucoup plus d'informations et transférer des données beaucoup plus rapidement que l'ancienne technologie appelée DRAM (Dynamic Random Access Memory).

Les puces HBM sont largement utilisées dans les cartes graphiques, les systèmes informatiques hautes performances, les centres de données et les véhicules autonomes. Plus important encore, ils sont essentiels aux applications d’IA de plus en plus populaires, notamment l’IA générative. Ceux-ci sont alimentés par des processeurs d'IA, tels que des unités de traitement graphique (GPU) fabriquées par des sociétés telles que Nvidia et Advanced Micro Devices (AMD).

"Le processeur et la mémoire sont deux composants essentiels de l'IA. Sans mémoire, c'est comme avoir un cerveau avec de la logique mais pas de mémoire", a déclaré G. Dan Hutcheson, vice-président de TechInsights, un organisme de recherche spécialisé dans les puces.

Comment les restrictions affectent-elles la Chine ?

Le plus jeune Restrictions à l'exportation, annoncé le 2 décembre, fait suite à deux séries de lois précédentes liées aux puces avancées par l’administration Biden au cours des trois dernières années. L’objectif est de bloquer l’accès de la Chine à des technologies critiques qui pourraient lui donner un avantage militaire.

En représailles, Pékin a imposé de nouvelles restrictions sur les exportations de germanium, de gallium et d'autres matériaux nécessaires à la fabrication de semi-conducteurs et d'autres appareils de haute technologie. Les experts conviennent que les nouvelles restrictions à l'exportation ralentiront le développement des puces d'IA en Chine et, au mieux, bloqueront l'accès au HBM. Même si la capacité de la Chine à produire des HBM est actuellement à la traîne par rapport à celle des sud-coréens SK Hynix et Samsung ainsi que de l'américain Micron, le pays développe ses propres capacités dans ce domaine.

"Les restrictions américaines à l'exportation limiteraient à court terme l'accès de la Chine aux HBM de haute qualité", a déclaré Jeffery Chiu, PDG d'Ansforce, un réseau d'experts-conseils spécialisé en technologie. "À long terme, cependant, la Chine continuera à être en mesure de produire des HBM de manière indépendante, même si elle travaille avec des technologies moins avancées." En Chine, Yangtze Memory Technologies et Changxin Memory Technologies sont les principaux fabricants de puces mémoire et semblent étendre la capacité de production de la ligne HBM pour atteindre leur objectif stratégique d'autosuffisance technologique.

Pourquoi HBM est-il si important ?

Les puces HBM sont si puissantes par rapport aux puces mémoire conventionnelles, principalement en raison de leur espace de stockage plus grand et de leur transfert de données nettement plus rapide. Étant donné que les applications d’IA nécessitent de nombreux calculs complexes, ces fonctionnalités garantissent que ces applications fonctionnent correctement, sans retards ni problèmes.

Un plus grand espace de stockage signifie que davantage de données peuvent être stockées, transférées et traitées, améliorant ainsi les performances des applications d'IA, car les grands modèles de langage (LLM) sont capables de fonctionner avec plus de paramètres. Pensez à la vitesse de transfert de données plus élevée ou à la bande passante plus élevée dans le langage des puces, comme sur une autoroute : plus une autoroute a de voies, moins elle risque d'être encombrée et plus elle peut accueillir de véhicules.

"C'est comme la différence entre une autoroute à deux voies et une autoroute à cent voies. Il n'y a tout simplement pas de congestion", a déclaré Hutcheson.

Quels sont les principaux fabricants ?

Actuellement, seules trois sociétés dominent le marché mondial des HBM. En 2022, Hynix représentait 50 % de la part de marché totale de HBM, suivi de Samsung à 40 % et de Micron à 10 %, selon un Note de recherche, publié par l'agence d'études de marché TrendForce, basée à Taipei. Les deux sociétés sud-coréennes devraient détenir des parts similaires sur le marché HBM en 2023 et 2024, ce qui leur donnerait un total d'environ 95 %.

Micron vise à augmenter sa part de marché des HBM entre 20 et 25 % d'ici 2025, rapporte l'agence de presse officielle de Taiwan, citant Praveen Vaidyanatha, un cadre de Micron. La valeur élevée de HBM a conduit tous les fabricants à concentrer une partie importante de leur capacité de production sur les puces mémoire les plus avancées. Selon Avril Wu, vice-président principal de la recherche chez TrendForce, HBM devrait représenter plus de 20 % du marché total des puces mémoire en valeur à partir de 2024 et pourrait dépasser 30 % l'année prochaine.

Comment le HBM est-il produit ?

Imaginez plusieurs puces mémoire standard empilées les unes sur les autres en couches, comme un hamburger. Voilà à quoi ressemble essentiellement la structure de HBM. À première vue, cela semble assez simple, mais c'est tout sauf facile à mettre en œuvre, ce qui se reflète également dans le prix. Le prix de vente unitaire de HBM est plusieurs fois supérieur à celui des puces mémoire conventionnelles.

En effet, la hauteur d’une puce HBM est approximativement la même que celle de six cheveux humains. Cela signifie que chaque couche de puces mémoire standard empilées les unes sur les autres doit être extrêmement fine, ce qui nécessite un haut niveau d'expertise en fabrication appelé packaging avancé.

"Chacune de ces puces mémoire doit être broyée jusqu'à obtenir une épaisseur d'un demi-cheveu avant de les empiler les unes sur les autres, ce qui est très difficile", a expliqué Chiu. De plus, des trous sont percés dans ces puces mémoire avant de les monter les unes sur les autres afin que les fils électriques puissent passer à travers. La position et la taille de ces trous doivent être extrêmement précises.

"Vous rencontrez beaucoup plus de points d'échec lorsque vous essayez de fabriquer ces appareils. C'est presque comme construire un château de cartes", a noté Hutcheson.