Dans la compétition mondiale de l’intelligence artificielle, les puces jouent un rôle majeur. Le fondeur Nvidia reste un acteur incontournable grâce à ses GPU. De nombreux géants de la technologie ont choisi de diminuer leur dépendance en développant leurs propres puces. Musk suit également cet objectif.
Le vent tourne et l’hégémonie de Nvidia commence à se morceler. Pendant des années, le monde de l’intelligence artificielle (IA) et de l’automobile a vécu sous le règne de ce géant californien.
En fournissant les processeurs graphiques (GPU) indispensables à l’entraînement des modèles de langage et aux systèmes de conduite assistée, l’entreprise de Jensen Huang est devenue le passage obligé. Mais, pour Google, Microsoft et autres géants de la tech, cette dépendance est un goulot d’étranglement.
C’est aussi l’avis d’Elon Musk, le patron, entre autres, de Tesla et de la start-up d’intelligence artificielle xAI. Il ne souhaite pas dépendre des autres, mais développer son écosystème pour maîtriser toute la chaîne. C’est le cas avec ses voitures électriques et son réseau de superchargeurs déployé dans le monde.
Son objectif est clair : concevoir des puces sur mesure, optimisées spécifiquement pour les algorithmes maison, afin d’obtenir un ratio performance-consommation d’énergie qu’aucun composant générique ne peut offrir.
Budget R&D
Cette transition a déjà commencé avec le remplacement du GPU de Nvidia par sa puce FSD (Full Self-Driving) de Tesla (la conduite supervisée disponible en France). En développant son propre silicium, Tesla a pu multiplier par 21 les performances de traitement d’image par rapport aux générations précédentes.
Cependant, M. Musk ne se limite pas à cette initiative dans l’élaboration de son propre écosystème d’intelligence artificielle. Le supercalculateur Dojo, destiné à entraîner les réseaux neuronaux de la flotte Tesla, repose sur la puce D1. Ce composant a été conçu pour éliminer les latences de communication entre les processeurs.
La dernière brique est xAI. Musk a récemment fait l’acquisition de dizaines de milliers de puces H100 de Nvidia pour construire son cluster « Colossus ». Mais son objectif est l’intégration verticale grâce à des puces conçues en interne pour optimiser Grok, son chatbot.
Cependant, devenir un fondeur de puces sans usines (fabless) ne s’improvise pas. Si la conception est interne, la fabrication reste largement dépendante de géants comme TSMC à Taïwan ou Samsung en Corée du Sud. Il demeure ainsi tributaire de ces deux fondeurs asiatiques.
Il faudra également beaucoup investir dans la recherche et le développement afin d’atteindre le niveau de Nvidia ou d’AMD. S’il réussit son pari, il ne sera plus seulement un constructeur de voitures ou de fusées, mais le maître d’œuvre d’une infrastructure numérique mondiale. Et tout le monde sera dépendant de ses services et produits…






Réagissez à cet article
Connectez-vous
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Vous n'avez pas encore de compte ?
Inscrivez-vous !