Semi-conducteurs

Le terme "semi-conducteurs" désigne un matériau dont la conductivité électrique est intermédiaire entre celle des métaux et des isolants. Cette propriété permet de contrôler de manière très précise la quantité et la direction du courant électrique circulant dans un appareil. Mieux encore, on peut ajuster leur comportement pour qu’ils réagissent à la chaleur, à la lumière ou à d’autres signaux électriques. Cela permet de créer des composants capables de générer, stocker et transmettre des informations. Les semi-conducteurs sont aujourd’hui au cœur de toute l’électronique qui nous entoure, de la machine à laver au smartphone.

Silicium

Il existe plusieurs matériaux semi-conducteurs, mais le silicium est de loin le plus utilisé, notamment pour son abondance dans la nature et ses propriétés électriques et thermiques adaptées à de nombreuses applications électroniques. D’autres matériaux, comme le tellure ou le carbure de silicium, sont employés pour des cas plus spécifiques.

CPU

Plus couramment appelé processeur, il est souvent comparé au cerveau de l’ordinateur ou du serveur. Ce composant permet d’interpréter les signaux et de rendre les calculs possibles. Dans le domaine de l’IA, le CPU gère les tâches générales : orchestration, communication réseau, gestion de la mémoire, flux entrants et sortants… Il est crucial pour répartir une grande quantité de données sans ralentir l’ensemble du processus.

GPU

Le processeur graphique excelle dans le traitement parallèle grâce à ses nombreux cœurs, moins puissants individuellement que ceux d’un CPU, mais capables de gérer un grand volume d’opérations simultanées. C’est cette architecture qui en fait un allié incontournable pour les tâches liées à l’IA ou au rendu graphique.

ASIC

Les ASIC sont des puces conçues pour une tâche bien précise. Dans le domaine de l’IA, certains ASIC, appelés NPU, sont optimisés pour des cas d’usage spécifiques comme la reconnaissance vocale ou la vision par ordinateur. Moins polyvalents mais plus efficaces, ils consomment également moins d’énergie que des puces plus généralistes comme les GPU ou TPU.

TPU

Abréviation de Tensor Processing Unit, il s’agit d’un processeur développé par Google pour accélérer l’entraînement de ses modèles d’IA. Moins flexible qu’un GPU, il est en revanche redoutablement efficace sur des tâches précises comme les calculs de matrices.

SoC (System on Chip)

Une conception largement dominée par Arm. Les systèmes sur une puce (SoC) intègrent plusieurs modules, CPU, GPU, contrôleurs de périphériques, etc., sur une seule puce. On en retrouve dans les smartphones, tablettes et même certains ordinateurs portables. Ils permettent de compacter les composants, rendant les appareils plus fins et plus légers.

XPU

Terme générique désignant l’ensemble des unités de traitement spécialisées (CPU, GPU, TPU, etc.). Initialement utilisé dans le marketing, il est aujourd’hui largement adopté dans le monde de l’IA lorsqu’il s’agit de parler de l’ensemble des puces d’un serveur ou d’une infrastructure.

Architecture

C’est la manière dont un processeur est conçu pour fonctionner : traitement de l’information, communication avec la mémoire, nombre d’instructions simultanées, etc. Les deux principales architectures sont : x86 (utilisée majoritairement par Intel et AMD) et Arm (conçue par la firme éponyme).

Fabless

Ce terme désigne les entreprises qui conçoivent des puces (plans, architecture, performances…) sans posséder d’usine de fabrication. Elles confient cette tâche à des fonderies spécialisées.

Fonderies

Les fonderies, comme TSMC, fabriquent des puces à partir des plans fournis par les concepteurs. Cette étape, très délicate, se déroule dans une fab, une salle blanche rassemblant l’ensemble des machines essentielles à la production.

OEM

Un OEM (Original Equipment Manufacturer) est une entreprise qui fabrique du matériel pour d’autres marques. Dans l’IA, les OEM assemblent par exemple des serveurs à partir de puces Nvidia afin que des entreprises puissent entraîner et utiliser leurs modèles.

Wafer

Il s’agit d’une fine tranche ronde de silicium sur laquelle sont gravés des milliers de circuits électroniques. C’est le point de départ de toute puce d’IA. Une fois fabriqué, le wafer est découpé en unités individuelles (ou dies) destinées à devenir des GPU, CPU ou ASIC.

Procédés de gravure

Ce sont les techniques (EUV, photolithographie, etc.) utilisées pour dessiner les transistors sur le wafer. La gravure se fait à l’échelle nanométrique et sa finesse permet de gagner en puissance tout en améliorant l’efficacité énergétique.

Nœud (Node)

Il désigne la finesse de gravure d’un transistor, exprimée en nanomètres (3 nm par exemple). Plus le nœud est petit, plus les puces sont performantes, compactes et économes en énergie.

Transistors

Le transistor est un minuscule composant électronique qui contrôle le courant dans un circuit, comme un interrupteur ou un amplificateur. Présent par milliards dans nos puces, il est essentiel au fonctionnement des processeurs, moteurs de l’IA.

Loi de Moore

En 1965, Gordon Moore, cofondateur d’Intel, prédit que le nombre de transistors sur une puce doublerait tous les ans. Il ajuste sa prévision en 1975 à une cadence de deux ans. Cette loi, devenue symbole d’innovation, tend aujourd’hui à ralentir : le doublement s’effectue plutôt tous les trois ans.

LLM

Un grand modèle de langage (ou LLM) est un programme basé sur de l’intelligence artificielle capable de comprendre et générer du texte. Il s’appuie sur une gigantesque base de données et continue de s’améliorer à mesure qu’il est utilisé.

Training

C’est la phase où l’on “nourrit” une IA avec une base de données massive. Ce processus est essentiel pour lui permettre d’apprendre à résoudre des problèmes sans instructions explicites.

Inférence

L’inférence désigne la capacité d’une IA à tirer des conclusions à partir de ce qu’elle a appris. Exemple : une IA entraînée à reconnaître des voitures saura ensuite identifier la marque et le modèle d’un véhicule inconnu dans une nouvelle base de données.

Fine-tuning

Après un entraînement général, on peut affiner une IA avec des données plus ciblées pour la spécialiser. On obtient ainsi des modèles ultra précis sur des tâches comme la traduction automatique ou la détection d’un organe spécifique dans une image médicale.