Les progrès en IA générative et en robotique humanoïde reposent sur l’augmentation spectaculaire de la puissance de calcul. Les microprocesseurs et les semi-conducteurs spécialisés (GPU, TPU, ASIC) sont au cœur de cette révolution. Cette partie traite de l’évolution des architectures, du ralentissement de la loi de Moore et des perspectives de recherche (RISC-V, neuromorphic computing, etc.).
Évolution des CPU et GPU
- Loi de Moore : Depuis les années 1970, on double (environ) la densité de transistors tous les 18–24 mois. Mais vers 2020, les finesses de gravure (5 nm, 3 nm) approchent les limites physiques du silicium.
- CPU : Les processeurs classiques (Intel x86, AMD, ARM) se sont multipliés en cœurs, optimisant l’exécution parallèle. ARM domine le marché mobile (smartphones, tablettes), tandis qu’Intel et AMD se partagent celui des PC et serveurs.
- GPU : Les cartes graphiques (NVIDIA, AMD) se sont imposées comme accélérateurs pour l’IA, grâce à leur capacité de calcul massivement parallèle (jusqu’à des milliers de cœurs). NVIDIA domine le segment HPC/IA avec ses GPU A100, H100, et le logiciel CUDA.
Spécialisation et nouveaux concepts
- TPU (Tensor Processing Unit) : Google a développé ses propres processeurs pour accélérer les calculs de réseaux de neurones (matrices, tenseurs). Depuis 2016, la société déploie ces TPU dans ses data centers pour exécuter des modèles de large taille (PaLM, BERT).
- ASIC IA : Des startups comme Graphcore, Cerebras, SambaNova conçoivent des puces spécialisées dans le traitement de gros modèles, proposant parfois des architectures wafer-scale (Cerebras).
- RISC-V : Architecture open source modulaire, adoptée par des acteurs comme SiFive. Elle promet de la flexibilité (modules d’extensions) et un coût moindre, suscitant un intérêt croissant dans l’IoT et l’embarqué.
Tableau 3 : Principales puces IA en 2022–2023
Puce/SoC | Fabricant | Type | Puissance de calcul¹ | Usage principal |
---|---|---|---|---|
NVIDIA H100 | NVIDIA | GPU | 60 TFLOPS² | Training IA à grande échelle |
Google TPU v4 | ASIC Tensor | ~100+ TFLOPS³ | Data centers (BERT, GPT) | |
Cerebras WSE-2 | Cerebras | Wafer-scale | >2,6 T transistors | Large language models, HPC |
Graphcore IPU | Graphcore | ASIC IA | ~1000 cœurs | Inference et training IA |
<small>¹Exprimée en FP32 ou TFLOPS mixtes selon le fabricant.
²NVIDIA annonce ~2 PFLOPS en FP8 avec sparsité sur un cluster.
³Par “pod” ou “chassis” TPU, dépend de la configuration.
Sources : NVIDIA, Google, Cerebras, Graphcore (2023).</small>
Les défis géopolitiques de la chaîne d’approvisionnement
- Concentration industrielle : La fonderie des semi-conducteurs est dominée par TSMC (Taïwan), Samsung (Corée du Sud) et Intel (États-Unis). Taïwan produit plus de 60 % des semi-conducteurs mondiaux (dont ~90 % en “leading edge” sous 10 nm).
- Tensions USA–Chine : Les États-Unis imposent des restrictions d’exportation de puces avancées à la Chine (2022). En réaction, la Chine accélère ses investissements domestiques (SMIC, Huawei) pour réduire sa dépendance. L’Europe cherche aussi à renforcer son autonomie (European Chips Act, 2022).
Futurs axes de recherche : quantique, neuromorphique
- Calcul quantique : Potentiel disruptif pour certaines classes de problèmes (optimisation, cryptographie), mais encore loin de supplanter les CPU/GPU dans le deep learning classique.
- Neuromorphic computing : Inspiré du cerveau, utilisant des spiking neural networks. IBM (TrueNorth), Intel (Loihi) expérimentent ce concept pour des gains d’efficacité énergétique, encore à l’état de recherche.
Résumé d’étude notable : McKinsey, « The future of AI hardware » (2023) – Le rapport anticipe un marché du hardware IA dépassant 100 milliards $ en 2030, porté par l’explosion des grands modèles et l’edge computing. Les auteurs soulignent l’importance du design co-optimisé (co-design software/hardware) pour gagner en performance et réduire la consommation d’énergie.