Boulogne-Billancourt – Dynatrace (NYSE : DT), le leader de l’observabilité et de la sécurité unifiées, lanceOpenPipeline®, une nouvelle technologie maîtresse qui fournit aux clients un pipeline unique pour gérer l’ingestion de données à l’échelle du pétaoctet dans la plateforme Dynatrace®, afin d’alimenter les analyses, l’IA et l’automatisation de manière à la fois sécurisée et efficiente.
Dynatrace OpenPipeline donne aux équipes business, de développement, de sécurité et d’exploitation, une visibilité et un contrôle complets sur les données qu’elles ingèrent dans la plateforme Dynatrace®, tout en préservant le contexte des données et les écosystèmes cloud dont elles sont issues. Par ailleurs, OpenPipeline évalue les flux de données cinq à dix fois plus rapidement qu’avec les technologies existantes. Les organisations peuvent ainsi mieux gérer la variété et le volume croissants de données qui émanent de leurs environnements hybrides et multicloud, et permettre à davantage d’équipes d’accéder aux automatisations et aux réponses alimentées par l’IA de la plateforme Dynatrace, sans avoir besoin d’outils supplémentaires.
« Les données sont le moteur de notre business. Elles contiennent des informations importantes et permettent une automatisation qui libère nos équipes de tâches à faible valeur ajoutée, explique Alex Hibbitt, Engineering Director, SRE and Fulfillment, chez albelli-Photobox Group. Mais nous rencontrons certaines difficultés pour gérer nos pipelines de données de manière à la fois sécurisée et rentable. L’ajout d’OpenPipeline à Dynatrace augmente la valeur de la plateforme. Nous pouvons gérer des données provenant d’un éventail plus large de sources, ainsi que les données en temps réel collectées nativement dans Dynatrace, le tout depuis une seule et même plateforme – ce qui nous permet de prendre des décisions mieux informées. »
Selon Gartner®, « les workloads modernes génèrent des volumes croissants – des centaines de téraoctets voire de pétaoctets chaque jour – de télémétrie en provenance de diverses sources. Ce qui risque de submerger les opérateurs en charge de la disponibilité, des performances et de la sécurité. Les coûts et la complexité associés à la gestion des données peuvent s’élever à plus de 10 millions $ par an dans les grandes entreprises.[1]»
Créer un pipeline unifié pour gérer ces données s’avère difficile compte tenu de la complexité des architectures cloud modernes. Cette complexité, combinée à la prolifération des outils de monitoring et d’analytics au sein des organisations, peuvent mettre les budgets à rude épreuve. En parallèle, les organisations doivent se conformer aux normes de sécurité et de confidentialité, comme le RGPD ou le HIPAA (Health Insurance Portability and Accountability Act), en matière de pipelines de données, d’analyses et d’automatisation. Malgré ces défis, les différentes parties prenantes au sein des organisations sont demandeuses de plus d’automatisation et d’informations data-driven pour les aider à prendre de meilleures décisions, à améliorer la productivité et à réduire les coûts. Elles ont donc besoin d’une visibilité et d’un contrôle clairs sur les données, tout en gérant les coûts et en maximisant la valeur des solutions existantes d’analyses et d’automatisation.
Pour répondre à ces défis, Dynatrace OpenPipeline fonctionne avec d’autres technologies maîtresses de la plateforme Dynatrace, notamment le data lakehouse Grail™, la topologie Smartscape, et l’IA hypermodale Davis®, fournissant les bénéfices suivants :
Analyses de données à l’échelle du pétaoctet: exploite des algorithmes de traitement de flux en instance de brevet pour obtenir des débits de données considérablement accrus à l’échelle du pétaoctet.
- Ingestion unifiée de données : permet aux équipes d’ingérer et d’acheminer les données d’observabilité, de sécurité et d’événements business – y compris la Qualité de Service (QoS) pour les événements business – à partir de n’importe quelle source et dans n’importe quel format, comme Dynatrace® OneAgent, les API Dynatrace, et OpenTelemetry, avec des durées de conservation personnalisables pour les use cases individuels.
- Analyses des données en temps réel à l’ingestion: permet aux équipes de convertir des données non-structurées en formats structurés et exploitables au point d’ingestion – par exemple, transformer des données brutes en séries chronologiques ou en métriques, et créer des événements business à partir des lignes de log.
- Contexte complet des données : enrichit et conserve le contexte de points de données hétérogènes – y compris les métriques, les traces, les logs, les comportements utilisateurs, les événements business, les vulnérabilités, les menaces, les événements de cycle de vie, etc. – reflétant les diverses parties de l’écosystème cloud dont ils sont issus.
- Contrôles pour la sécurité et la confidentialité des données : permet aux utilisateurs de contrôler quelles données ils analysent, stockent ou excluent de leurs analyses, et inclut des contrôles de sécurité et de confidentialité entièrement personnalisables, comme le masquage automatique et basé sur des rôles des données personnelles, pour aider à répondre aux besoins spécifiques de clients et aux exigences réglementaires.
- Gestion efficiente des données : aide les équipes à éviter d’ingérer des données en double et réduit les besoins de stockage en transformant les données en formats exploitables – par exemple, transformer du XML en JSON – et permet aux équipes de supprimer les champs inutiles sans perdre d’informations, de contexte ou de flexibilité analytique.
« OpenPipeline est un ajout puissant à la plateforme Dynatrace, déclare Bernd Greifeneder, CTO de Dynatrace. Il enrichit, fait converger et contextualise les données hétérogènes d’observabilité, de sécurité et business, fournissant ainsi des analyses unifiées pour ces données et pour les services qu’elles représentent. Comme pour le data lakehouse Grail, nous avons conçu OpenPipeline pour des analyses à l’échelle du pétaoctet. Il fonctionne avec Davis, l’IA hypermodale de Dynatrace, pour extraire des informations pertinentes à partir des données, et alimenter ainsi des analyses robustes et une automatisation fiable. D’après les tests que nous avons effectués en interne, nous pensons que OpenPipeline combiné à l’IA Davis permettra à nos clients d’évaluer les flux de données cinq à dix fois plus rapidement qu’avec les technologies traditionnelles. Nous pensons également que la convergence et la contextualisation des données au sein de Dynatrace facilitent la conformité réglementaires et les audits, tout en permettant à davantage d’équipes dans les organisations d’obtenir une visibilité immédiate sur les performances et la sécurité de leurs services digitaux. »
Dynatrace OpenPipeline devrait être disponible pour tous les clients SaaS Dynatrace dans les 90 jours suivant cette annonce, en prenant d’abord en charge les logs, les métriques et les événements business. La prise en charge de types de données supplémentaires viendra ultérieurement. Pour plus d’informations, consultez l’article de blog sur Dynatrace OpenPipeline.
[1] Gartner, Innovation Insight: Telemetry Pipelines Elevate the Handling of Operational Data, Gregg Siegfried, 20 July 2023. GARTNER est une marque déposée et une marque de service de Gartner, Inc. et/ou de ses filiales aux États-Unis et dans le monde et est utilisée ici avec autorisation. Tous droits réservés.