Nvidia a profité de sa conférence d’ouverture au salon CES pour présenter les grandes orientations de sa stratégie en matière d’intelligence artificielle, confirmant son ambition de devenir un acteur incontournable de l’infrastructure technologique mondiale, bien au-delà de son rôle historique de fabricant de processeurs graphiques.
Lors de son intervention, le PDG Jensen Huang a mis en avant une vision intégrée de l’IA reposant sur la convergence du matériel, des réseaux, des logiciels et de la simulation. L’objectif affiché est de répondre à la demande croissante en puissance de calcul, tout en améliorant l’efficacité énergétique et la capacité de déploiement à grande échelle.
Automobile et robotique : l’IA au cœur des systèmes physiques
Parmi les annonces majeures figure le renforcement des solutions de Nvidia destinées aux véhicules autonomes et aux systèmes robotiques. Le groupe a présenté Alpamayo, une nouvelle famille de modèles d’intelligence artificielle conçus pour la conduite autonome, capables de traiter simultanément vision, données contextuelles et prise de décision.
Ces modèles s’inscrivent dans une approche dite « end-to-end », reliant directement les données issues des capteurs aux actions du véhicule, avec un accent particulier mis sur l’entraînement par simulation. Nvidia a notamment confirmé l’utilisation de données synthétiques générées à grande échelle afin de compléter les scénarios réels et améliorer la robustesse des systèmes.
Vera Rubin : la prochaine génération de plateformes de calcul IA
Sur le plan matériel, Nvidia a levé le voile sur Vera Rubin, sa future plateforme de calcul destinée aux centres de données spécialisés dans l’IA. Présentée comme la succession des architectures actuelles, elle vise une intégration plus étroite entre processeurs, accélérateurs et mémoire à haute bande passante.
Selon Nvidia, cette nouvelle génération doit permettre d’augmenter significativement les performances tout en réduisant les coûts d’exploitation, un enjeu central face à la consommation énergétique croissante des modèles d’intelligence artificielle de grande taille. Les premières implémentations sont prévues dans des infrastructures dites « rack-scale », conçues pour fonctionner comme des systèmes unifiés.
La société a en outre insisté sur l’importance des interconnexions à très haut débit, avec de nouvelles solutions Ethernet et réseau destinées à relier des milliers de processeurs sans perte de performance. Cette approche vise à faire fonctionner des clusters massifs comme un seul système logique, réduisant la latence et optimisant l’entraînement des modèles.
À travers ces annonces, Nvidia confirme une stratégie fondée sur la maîtrise de l’ensemble de la chaîne de valeur de l’IA : calcul, réseau, logiciels, outils de simulation et plateformes applicatives. Cette approche vise à faciliter l’adoption de l’IA à grande échelle par les entreprises, les industriels et les acteurs du cloud.
Si plusieurs détails techniques restent à préciser dans les mois à venir, le message délivré au CES est clair : Nvidia entend consolider sa position de fournisseur clé des infrastructures de l’intelligence artificielle, dans un contexte de concurrence accrue et de transformation rapide des usages numériques.





