Vertical Compute lève 57 M€ pour briser le mur de la mémoire en IA Vertical Compute obtient 57 M€ pour adresser le mur de la mémoire dans l’IA. Avec l’essor des modèles génératifs, l’IA est souvent décrite comme une course à la puissance de calcul.
Avec l’essor des modèles génératifs, l’IA est souvent décrite comme une course à la puissance de calcul. Derrière les annonces d’infrastructures géantes et de clusters de GPU, une contrainte plus discrète s’impose: la mémoire. Le mur de la mémoire devient critique lorsque les données et les activations doivent être stockées et transférées entre les niveaux de mémoire et les unités de calcul. C’est dans ce cadre que Vertical Compute vient d’annoncer une levée de 57 M€ pour s’attaquer à ce problème.
La mémoire détermine en pratique la vitesse réelle des systèmes d’IA, même lorsque la puissance de calcul est à la hauteur des ambitions. Les modèles génératifs modernes exigent non seulement un empilement croissant de paramètres, mais aussi un flux massif de données d’entrée et de résultats intermédiaires. Lorsque les déplacements de données deviennent le goulet d’étranglement, les coûts énergétiques et les latences s’envolent. « La mémoire est le grand oublié de l’IA », résume une réalité que Vertical Compute cherche à inverser en plaçant la mémoire au cœur de l’ingénierie des architectures IA.
« La mémoire est le grand oublié de l’IA », rappelle l’industrie et les chercheurs en architecture de systèmes.
Comment Vertical Compute compte s’y prendre
Le mouvement vise à réduire les déplacements de données et à rapprocher la mémoire des unités de calcul. Concrètement, l’objectif est d’activer des solutions de mémoire dédiées, des architectures hybrides et des outils logiciels qui optimisent la gestion des données et la sérialisation des calculs.
La stratégie repose sur des architectures à haut débit qui associent mémoire rapide et techniques de compression ou de sparsité pour réduire le volume transféré. Le principe est le même dans l’entraînement et l’inférence : limiter les allers-retours entre mémoire principale et accélérateurs, tout en conservant une bande passante suffisante pour les grands modèles.
Impact potentiel et limites
Si les résultats se matérialisent, les gains pourraient se traduire par une réduction des coûts énergétiques et une meilleure efficacité des centres de calcul, tout en accélérant les cycle d’entraînement des modèles de grande taille. Cela pourrait aussi faciliter le déploiement de l’IA générative dans des environnements où latence et consommation sont critiques.
- Réduction des déplacements : moins de données déplacées entre mémoire et processeur, avec une latence et une énergie diminuées.
- Efficacité énergétique : architectures privilégieront l’accès mémoire local et des buffers dédiés.
- Co-design logiciel/matériel : outils et API alignés sur une hiérarchie mémoire rénovée.
Ce qu’on ne sait pas encore
Le véritable niveau de performance dépendra de l’implémentation, du coût des mémoires haute vitesse et de l’intégration avec les chaînes d’outils IA existantes. Le marché est concurrentiel: plusieurs acteurs explorent le near-memory computing et des solutions de traitement près de la mémoire (PIM). L’adoption dépendra notamment de la démonstration d’un retour sur investissement et de la facilité d’intégration.
Pour terminer
Cette levée de fonds signale une prise de conscience croissante: progresser en IA passe aussi par optimiser la mémoire, et pas seulement le calcul. Si Vertical Compute parvient à démontrer des gains mesurables, l’écosystème pourrait accélérer l’émergence de modèles plus performants sans que les coûts énergétiques ne s’envolent.