Chiplet a transformé les chips

En 1965, Gordon Moore, cofondateur d'Intel, a formulé ce qui allait devenir la « loi de Moore ». Pendant plus d'un demi-siècle, cette loi a sous-tendu des progrès constants en matière de performances des circuits intégrés et une baisse de leurs coûts, jetant ainsi les bases de la technologie numérique moderne. En résumé : le nombre de transistors sur une puce double environ tous les deux ans.

Pendant des années, le progrès a suivi ce rythme. Aujourd'hui, la situation évolue. La miniaturisation est devenue plus difficile ; la taille des composants se limite désormais à quelques nanomètres. Les ingénieurs se heurtent à des limites physiques, à des étapes de fabrication plus complexes et à des coûts croissants. La réduction de la taille des composants diminue également les rendements, ce qui complique la production en grande série. La construction et l'exploitation d'une usine de pointe exigent des capitaux et une expertise considérables. De nombreux observateurs estiment donc que la loi de Moore s'essouffle.

Ce changement a ouvert la voie à une nouvelle approche : les chiplets.

Un chiplet est une puce miniature qui remplit une fonction spécifique ; il s’agit en quelque sorte d’une portion d’une puce monolithique. En intégrant plusieurs chiplets dans un seul boîtier, les fabricants peuvent assembler un système complet.

À l'époque des puces monolithiques, toutes les fonctions étaient intégrées à une seule et même puce ; un défaut, quel qu'il soit, pouvait donc rendre la puce entière inutilisable. Avec les chiplets, les systèmes sont construits à partir de puces « à fonctionnement connu » (KGD), ce qui améliore considérablement le rendement et l'efficacité de la production.

L'intégration hétérogène — qui combine des puces gravées selon différentes technologies et dédiées à différentes fonctions — confère aux chiplets une puissance exceptionnelle. Les blocs de calcul haute performance peuvent exploiter les technologies les plus récentes, tandis que la mémoire et les circuits analogiques restent basés sur des technologies éprouvées et économiques. Résultat : des performances accrues à moindre coût.

L'industrie automobile est particulièrement intéressée. Les principaux constructeurs automobiles utilisent ces techniques pour développer les futurs systèmes sur puce (SoC) embarqués, avec une adoption massive prévue après 2030. Les chiplets leur permettent d'optimiser l'IA et les graphismes tout en améliorant les rendements, ce qui renforce à la fois les performances et les fonctionnalités des semi-conducteurs automobiles.

Certaines pièces automobiles doivent satisfaire à des normes de sécurité fonctionnelle rigoureuses et reposent donc sur des technologies éprouvées. Parallèlement, les systèmes modernes tels que les systèmes avancés d'aide à la conduite (ADAS) et les véhicules pilotés par logiciel (SDV) exigent une puissance de calcul bien supérieure. Les chiplets comblent cet écart : en combinant des microcontrôleurs de sécurité, une mémoire importante et de puissants accélérateurs d'IA, les fabricants peuvent adapter plus rapidement les SoC aux besoins spécifiques de chaque constructeur automobile.

Ces avantages ne se limitent pas à l'automobile. Les architectures à puces se répandent dans l'IA, les télécommunications et d'autres domaines, accélérant l'innovation dans tous les secteurs et devenant rapidement un pilier de la feuille de route des semi-conducteurs.

L'intégration des chiplets repose sur des connexions puce-à-puce compactes et à haut débit. L'élément clé est l'interposeur : une couche intermédiaire, souvent en silicium, située sous les puces et qui achemine les signaux à la manière d'un circuit imprimé miniature. Des interposeurs plus performants permettent un couplage plus étroit et un échange de signaux plus rapide.

L'encapsulation avancée améliore également la distribution de puissance. Des réseaux denses de minuscules connexions métalliques entre les puces offrent de nombreux chemins pour le courant et les données, même dans des espaces restreints, permettant un transfert à large bande passante tout en optimisant l'utilisation de la surface d'encapsulation limitée.

L'approche dominante actuelle est l'intégration 2.5D : plusieurs puces sont placées côte à côte sur un interposeur. La prochaine étape est l'intégration 3D, qui empile les puces verticalement à l'aide d'interconnexions traversantes (TSV) pour une densité encore plus élevée.

L'association d'une conception modulaire des puces (séparation des fonctions et des types de circuits) et d'un empilement 3D permet de concevoir des semi-conducteurs plus rapides, plus petits et plus économes en énergie. La colocalisation de la mémoire et des unités de calcul offre une bande passante considérable pour les grands ensembles de données, idéale pour l'IA et autres charges de travail exigeantes.

L'empilement vertical présente toutefois des défis. La chaleur s'accumule plus facilement, ce qui complique la gestion thermique et réduit le rendement. Pour y remédier, les chercheurs développent de nouvelles méthodes d'encapsulation afin de mieux gérer les contraintes thermiques. Malgré tout, la dynamique est forte : la convergence des puces et de l'intégration 3D est largement considérée comme un paradigme de rupture, prêt à prendre le relais là où la loi de Moore s'arrête.


Date de publication : 15 octobre 2025