HPE Réunit l’Analyse sur sa Toile de Données

HPE Brings Analytics Together on its Data Fabric

Une mise à jour majeure de la plateforme logicielle Ezmeral d’HPE

HPE a récemment dévoilé une mise à jour majeure de sa plateforme logicielle Ezmeral, qui comprend désormais seulement deux composants, dont le Ezmeral Data Fabric offrant une gestion des données du bord au cloud à partir d’une interface unique, ainsi que Unified Analytics, une nouvelle offre qui simplifierait l’accès des clients aux principaux frameworks d’analyse et de ML open source, sans les enfermer chez un fournisseur exclusif.

HPE Ezmeral Data Fabric : une toile de données flexible

HPE a acquis la solution flexible de toile de données Ezmeral de MapR en 2019. Cette solution prend en charge un système de stockage d’objets compatible S3, une offre de flux compatible Kafka et une couche de stockage de fichiers compatible Posix, le tout dans un seul espace de noms global (avec des fonctionnalités de stockage de vecteurs et graphiques en développement). La prise en charge des formats de table Apache Iceberg et Databricks Delta contribue à garantir la cohérence des données.

Unified Analytics : des déploiements aisés

HPE a amélioré sa toile de données avec une nouvelle option de livraison en tant que service (SaaS), une nouvelle interface utilisateur, ainsi que des contrôles plus précis et une gestion automatisée des politiques. Mais l’innovation majeure réside probablement dans Unified Analytics d’Ezmeral, qui facilite les déploiements prêts à l’emploi pour plusieurs frameworks open source, tels que Apache Airflow, Apache Spark, Apache Superset, Feast, Kubeflow, MLFlow, Presto SQL et Ray.

Les clients peuvent déployer ces frameworks sur leurs données sans se soucier de la sécurité, des problèmes d’intégration des données, des projets parallèles ou de l’enfermement chez un fournisseur exclusif, explique Mohan Rajagopalan, vice-président et directeur général du logiciel Ezmeral chez HPE.

Expertise et interopérabilité pour une expérience sans accrocs

La communauté open source évolue rapidement, avec des mises à jour fréquentes qui ajoutent de nouvelles fonctionnalités, explique Rajagopalan. Cependant, les utilisateurs open source ne travaillent pas forcément avec ardeur pour garantir que leurs implémentations offrent une sécurité et une conformité de niveau entreprise, ajoute-t-il. HPE prendra le relais pour s’assurer que ce travail est effectué au nom de ses clients.

De plus, HPE veillera à ce que tous les outils fonctionnent harmonieusement ensemble. Par exemple, Kubeflow et MLFlow.

Pas un rejet du modèle Hadoop

Rajagopalan rejette l’idée que cela soit un simple retour du modèle Hadoop d’entreprise, où les distributeurs tels que Cloudera, Hortonworks et MapR cherchaient à construire et à maintenir des collections de projets open source (Hive, HDFS, HBase, etc.) en phase. “Je pense que c’est un apprentissage, en se basant sur l’expérience”, déclare-t-il. “Cependant, je pense que cette approche était défectueuse.”

Il existe des différences techniques importantes. Tout d’abord, HPE adopte la séparation du calcul et du stockage, qui est devenue un point de friction majeur dans le jeu Hadoop et qui a finalement conduit à la disparition du stockage HDFS et de YARN au profit du stockage d’objets S3 et de Kubernetes. La toile de données et Unified Analytics d’Ezmeral de HPE prend en charge HDFS (mais cette fonctionnalité est moins prioritaire), tandis que la cible actuelle est le stockage S3 (ainsi que les systèmes de fichiers Kafka et Posix) associé à des conteneurs contrôlés par Kubernetes.

Une expertise reconnue

Cependant, ajouter simplement Kubernetes à une pile d’outils open source ne suffit pas à en faire une solution de niveau entreprise. Les entreprises doivent payer pour bénéficier de Unified Analytics, et elles paient pour l’expertise d’HPE afin de garantir que ces applications puissent cohabiter sans causer de problèmes.

“Je ne pense pas que Kubernetes soit la solution miraculeuse pour tout synchroniser”, déclare Rajagopalan. “Je ne pense pas qu’il existe de solution magique. Je pense que nous avons beaucoup d’expérience dans la gestion de ces outils. C’est ce qui fait la différence.”

Support pour Apache Iceberg et Databricks Delta Lake

Le support des formats Apache Iceberg et Databricks Delta Lake sera également crucial pour aider HPE à réaliser ce que la communauté Hadoop n’a pas réussi à faire : maintenir une distribution de nombreux frameworks open source en constante évolution sans créer de dépendances.

“Il en est énorme”, déclare Rajagopalan en parlant de la présence d’Iceberg dans Unified Analytics. Snowflake et d’autres fournisseurs de data warehouse cloud, tels que Databricks, avec lesquels HPE fournit des connecteurs de données, ont adopté Iceberg. Snowflake est populaire parmi les clients de HPE souhaitant réaliser des opérations de BI et de reporting, tandis que Databricks et son format Delta Lake sont prisés par les clients qui effectuent des travaux d’IA et de ML.

Conclusion

HPE propose une solution intelligente pour simplifier la gestion des données et faciliter l’utilisation des frameworks open source. Grâce à son expertise et à son approche innovante, HPE garantit une expérience fluide et sans contraintes pour les clients souhaitant mettre en œuvre ces outils puissants. Avec des fonctionnalités telles que la toile de données Ezmeral et Unified Analytics, HPE ouvre de nouvelles perspectives aux entreprises qui cherchent à exploiter pleinement le potentiel de l’analyse des données.