Créée en 2016, la société Vast Data est sortie du mode secret en 2018 pour apporter une nouvelle philosophie dans le secteur du stockage avec une solution universelle qui brise le compromis habituel entre performance et capacité.
Valorisée 1,2 milliard de dollars après 3 tours de financement (180 M$ au total), Vast Data est en bonne voie pour être rentable dans un proche avenir. Les contrats signés sont en moyenne au-dessus du million de dollars et l‘entreprise détient 140 M$ de liquidités à disposition à la banque.
Plusieurs raisons expliquent un succès si rapide. Vast Data s’attaque à différents points critiques du stockage dans les entreprises. Tout d’abord la complexité de celui-ci souvent en silos par applications, par lignes de métiers… L’éditeur brise surtout le compromis jusqu’à présent nécessaire entre la performance et les besoins en capacité de stockage en profitant de la baisse des prix significatives des environnements Flash et NVMe. Ainsi Vast Data annonce des performances en écriture comparable à celles des 3D XPoint d’Intel et des vitesses en lecture de plusieurs To/s. en termes de capacité, la solution se met à l’échelle véritablement linéairement tout en étant conçue pour offrir un maximum d’efficacité.
Une couche de virtualisation
Techniquement, l’éditeur propose son stockage en containers qui décorrèle par son architecture les clients du stockage final sur des cibles NVMoF ou des disques flashs QLC. La solution supporte NFS, NFSoRDMA, SMB, S3, K8S CSI. La connexion se réalise par Infiniband ou un réseau Ethernet classique 100 Gb. Le stockage est adressé dans un seul espace d’adressage global ce qui permet une véritable utilisation multilocataire. Cette architecture est stateless et évite les trafics est/ouest qui obèrent souvent la performance ou la latence.
Le déploiement se réalise sous trois formes, par des appliances, par des containers ou de manière totalement logicielle. La solution s’appuie sur « erasure coding » et des capacités de réduction de données. Après un marquage en gros blocs après l’écriture, les marques sont comparées pour les associer après analyse de la distance relative des données. Les blocs similaires sont ensuite clusterisés et compressés. Ensuite seul le delta est extrait et stocké. Les taux de réduction et de compression sont en moyenne de trois pour un. Sur un backup sur bande ce taux peut aller jusqu’à 20 pour 1.
Avec de telles caractéristiques, la solution s’adapte à l’ensemble des cas d’usages de stockage des données, (stockage, sauvegarde, archivage) mais aussi aux solutions spécifiques verticales, d’intelligence artificielle et d’apprentissage machine ou les environnements de grands comptes.
La solution compte déjà des douzaines de clients partout dans le monde dont certains en France ne souhaitant pas que leur nom soit rendu public. Au bilan la solution propose une architecture originale qui permet l’universalité des usages de stockage sans compromis. Bien dans les tendances qui se dessinent dans ce secteur depuis quelques mois. A suivre de près donc !