Lorsque nous avons initialement étendu la plateforme de données de Qumulo au cloud public, notre hypothèse était simple. Nous pensions que les entreprises utiliseraient le cloud comme une extension naturelle de leurs centres de données, principalement pour deux charges de travail de faible intensité : la sauvegarde des données non structurées dans un modèle hybride et l'archivage à long terme grâce à des services comme Glacier Instant Retrieval, associés à la solution Cloud Native Cold Tier de Qumulo, afin de fournir une solution hautement durable et économique pour maintenir les données en ligne en permanence. Nous partions du principe que le cloud constituerait un filet de sécurité économique et résilient pour les données d'entreprise les moins critiques.
La réalité qui s'est imposée est à l'inverse de cette attente. Aujourd'hui, plus de la moitié de nos clients cloud ne commencent pas par des charges de travail de sauvegarde ou d'archivage. Ils commencent par les données les plus précieuses, les plus sensibles aux performances et les plus critiques pour l'entreprise. Ce sont ces ensembles de données dont les entreprises dépendent pour l'innovation, l'analyse et le raisonnement par l'IA. La raison est simple : dans le cloud, les données ne sont pas seulement un stockage inerte, elles sont le carburant du calcul. Le cloud public offre un modèle d'utilité basé sur des capacités de calcul instantanément disponibles, distribuées mondialement et infiniment élastiques. Au lieu d'attendre des mois pour mettre en place des infrastructures spécialisées (centres de données, réseaux et configurations de calcul exotiques), les clients peuvent transférer leurs données les plus précieuses dans le cloud et les placer directement à proximité de clusters GPU, d'accélérateurs d'IA et de moteurs d'analyse hyperscale, disponibles à la demande.
Cette inversion des comportements a remodelé la façon dont les entreprises envisagent leur stratégie hybride et multicloud. Nous observons désormais des clients utiliser notre Cloud Data Fabric pour diffuser activement les données de leurs centres de données sur site vers trois ou quatre clouds publics distincts simultanément. Ils ne le font pas pour des raisons de redondance, mais pour exploiter de manière sélective les capacités de calcul spécifiques de chaque fournisseur cloud. Une entreprise de services financiers peut choisir Azure pour des analyses de niveau réglementaire, AWS pour l'entraînement à l'IA, GCP pour les workflows de science des données et OCI pour le HPC, le tout simultanément, car Qumulo permet à ses données d'accéder à chacun de ces environnements sans que l'entreprise perde sa souveraineté ou son contrôle.
Cette perspective contraste fortement avec des voix comme Michael Dell, qui affirmait en 2018 que « jusqu'à 80 % des clients, tous segments confondus… déclarent rapatrier leurs charges de travail vers des systèmes sur site pour des raisons de coût, de performance et de sécurité ». Si cette affirmation a pu avoir un impact rhétorique lors de la première vague d'adoption du cloud, elle dénature la nature même du rapatriement. D'après nos échanges avec nos clients et nos homologues du secteur, les charges de travail qui ont tendance à revenir vers les environnements sur site ne sont pas les jeux de données chauds et gourmands en ressources de calcul. Il s'agit de sauvegardes. De par leur conception, les sauvegardes sont froides, statiques et inertes en termes de calcul : elles nécessitent un stockage important, mais peu de performances. Le retour de ces charges de travail est, au mieux, un exercice d'optimisation des coûts, et non la preuve d'un exode massif des innovations des entreprises hors du cloud public.
Plus récemment encore, Dell a affirmé que « l'inférence par IA sur site, où se trouvent déjà 83 % des données, est 75 % plus rentable que le recours au cloud public d'un tiers ». Le problème avec cette affirmation est qu'elle confond l'emplacement des données stockées avec le lieu de création de valeur. Les entreprises ne déplacent pas leurs ensembles de données les plus précieux vers le cloud pour réduire leurs coûts de stockage ; elles le font pour accéder immédiatement à une capacité de calcul élastique à l'échelle mondiale. Le cloud est devenu le lieu où résident les charges de travail les plus innovantes, précisément parce que le calcul, et non le stockage, est la ressource rare et différenciante. La rentabilité ne se réduit pas à quelques centimes par gigaoctet ; elle doit se mesurer à la rapidité avec laquelle les entreprises peuvent analyser leurs données et agir.
L'inversion de notre thèse initiale met en lumière une vérité fondamentale du marché : le cloud n'est pas seulement un point de terminaison de stockage. C'est une frontière informatique. Les données les plus importantes migreront là où elles pourront être exploitées le plus efficacement. C'est pourquoi l'architecture de Qumulo – toutes les données, partout, contrôle total – trouve un écho aussi fort dans tous les secteurs. Nos clients ne considèrent pas le cloud ou le sur site comme un choix binaire. Ils adoptent une structure de données fluide où les charges de travail à forte valeur ajoutée sont transférées vers les clouds les mieux adaptés, tandis que les archives sensibles aux coûts trouvent un hébergement durable dans des environnements hybrides ou sur site.
Voici la nouvelle donne de l'informatique d'entreprise. L'avenir n'appartient pas aux silos de données statiques, mais aux data fabrics universels où les jeux de données actifs évoluent à la vitesse de l'innovation, où le calcul est utilisé comme un utilitaire et où les données les plus précieuses résident là où les entreprises peuvent en extraire le plus de valeur. Cet avenir est là, et Qumulo est fier d'être la plateforme qui le rend possible.


