Madrid, 12 de febrero de 2024 – Dynatrace (NYSE: DT), líder en observabilidad y seguridad unificadas, ha anunciado el lanzamiento de OpenPipeline®, una nueva tecnología central que proporciona a los clientes un único pipeline para gestionar la ingesta de datos a escala de petabytes en la plataforma Dynatrace® que impulsa la analítica, la IA y la automatización de forma segura y rentable.
Dynatrace OpenPipeline ofrece a los equipos de negocio, desarrollo, seguridad y operaciones una visibilidad y un control totales de los datos que están ingiriendo en la plataforma Dynatrace®, al tiempo que preserva el contexto de los datos y los ecosistemas cloud en los que se originan. Además, evalúa los flujos de datos entre cinco y diez veces más rápido que las tecnologías heredadas. Como resultado, las organizaciones pueden gestionar mejor el creciente volumen y variedad de datos que emanan de sus entornos híbridos y multicloud y permite a más equipos acceder a las respuestas y automatizaciones impulsadas por IA de la plataforma Dynatrace sin necesidad de hacer uso de herramientas adicionales.
“Los datos son la esencia de nuestro negocio. Contienen información valiosa y automatizan procesos, lo que libera a nuestros equipos de tareas más mecánicas”, afirma Alex Hibbitt, Director de Ingeniería, SRE y Fulfillment, en albelli-Photobox Group. “Sin embargo, nos enfrentamos a retos a la hora de gestionar nuestros pipelines de datos de forma segura y rentable. La incorporación de OpenPipeline a Dynatrace amplía el valor de la plataforma. Nos permite gestionar datos de un amplio abanico de fuentes junto con datos en tiempo real recopilados de forma nativa en Dynatrace, todo en una única plataforma, lo que nos facilita la toma de decisiones mejor informadas.”
Según Gartner®, “las cargas de trabajo actuales generan volúmenes cada vez mayores -cientos de terabytes e incluso petabytes cada día- de telemetría procedente de diversas fuentes. Esto amenaza con desbordar a los operadores responsables de la disponibilidad, el rendimiento y la seguridad. El coste y la complejidad asociados a la gestión de estos datos pueden superar los 10 millones de dólares anuales en las grandes empresas[1].”
Crear un pipeline unificado para gestionar estos datos es todo un reto debido a la complejidad de las arquitecturas de cloud modernas. Esta dificultad, y la proliferación de herramientas de supervisión y análisis en las organizaciones, pueden sobrecargar los presupuestos. Al mismo tiempo, las compañías necesitan cumplir con una serie de normas de seguridad y privacidad, como GDPR e HIPAA, en relación con sus pipelines de datos, análisis y automatizaciones. A pesar de estos desafíos, las partes interesadas de todas las organizaciones buscan más información basada en datos y automatización para tomar mejores decisiones, mejorar la productividad y reducir los costos. Por lo tanto, necesitan una visibilidad y un control claro de los datos, al tiempo que gestionan los costes y maximizan el valor de sus soluciones de automatización y análisis de datos existentes.
Dynatrace OpenPipeline trabaja con otras tecnologías centrales de la plataforma Dynatrace, incluyendo el Grail™ data lakehouse, la topología Smartscape®, y Davis® hypermodal AI, para hacer frente a estos desafíos mediante la entrega de los siguientes beneficios:
- Análisis de datos a escala de petabytes: Aprovecha los algoritmos de procesamiento de flujos pendientes de patente para lograr rendimientos de datos significativamente mayores a escala de petabytes.
- Ingesta de datos unificada: Permite a los equipos ingerir y mejorar el enrutamiento de datos de observabilidad, seguridad y eventos de negocio -incluyendo Calidad de Servicio (QoS) dedicada para eventos empresariales- desde cualquier fuente y en cualquier formato, como Dynatrace® OneAgent, APIs de Dynatrace y OpenTelemetry, con tiempos de retención personalizables para casos de uso individuales.
- Análisis de datos en tiempo real en la ingesta: Permite a los equipos convertir datos no estructurados en formatos estructurados y utilizables en el punto de ingesta, por ejemplo, transformando datos sin procesar en series temporales o metrics data y creando eventos empresariales a partir de líneas de registro.
- Contexto de datos completo: Enriquece y conserva el contexto de puntos de datos heterogéneos -incluidas métricas, trazas, logs, comportamiento de usuarios, eventos empresariales, vulnerabilidades, amenazas, eventos del ciclo de vida y muchos otros- que reflejan las diversas partes del ecosistema cloud donde se originaron.
- Controles para la privacidad y seguridad de los datos: Ofrece a los usuarios el control sobre los datos que analizan, almacenan o excluyen de los análisis e incluye controles de seguridad y privacidad totalmente personalizables, como el enmascaramiento automático y basado en funciones PII para ayudar a satisfacer las necesidades específicas y los requisitos normativos de los clientes.
- Gestión de datos rentable: Ayuda a los equipos a evitar la ingesta de datos duplicados y reduce las necesidades de almacenamiento transformando los datos en formatos utilizables -por ejemplo, de XML a JSON- y permitiendo a los equipos eliminar los campos innecesarios sin perder ninguna información, contexto o flexibilidad de análisis.
“OpenPipeline es una potente incorporación a la plataforma Dynatrace”, afirma Bernd Greifeneder, CTO de Dynatrace. “Enriquece, converge y contextualiza datos heterogéneos de observabilidad, seguridad y negocio, proporcionando análisis unificados para estos datos y los servicios que representan. Al igual que con Grail data lakehouse, hemos diseñado OpenPipeline para el análisis a escala de petabytes. Funciona con la IA hipermodal Davis de Dynatrace para extraer información significativa de los datos, impulsando una analítica robusta y una automatización fiable. Basándonos en nuestras pruebas internas, creemos que OpenPipeline, impulsado por Davis AI, permitirá a nuestros clientes evaluar flujos de datos entre cinco y diez veces más rápido que las tecnologías heredadas. También creemos que la convergencia y contextualización de datos dentro de Dynatrace facilita el cumplimiento normativo y las auditorías, al tiempo que empodera a más equipos dentro de las organizaciones para obtener visibilidad inmediata sobre el rendimiento y la seguridad de sus servicios digitales.”
Se espera que Dynatrace OpenPipeline esté disponible para todos los clientes de Dynatrace SaaS en un plazo de 90 días a partir de este anuncio, comenzando con la compatibilidad de logs, métricas y eventos empresariales. A continuación, se ofrecerá soporte para otros tipos de datos. Visita el blog de Dynatrace OpenPipeline para más información.
[1] Gartner, Innovation Insight: Telemetry Pipelines Elevate the Handling of Operational Data, Gregg Siegfried, 20 de julio de 2023. GARTNER es una marca registrada y una marca de servicio de Gartner, Inc. y/o sus filiales en EE.UU. e internacionalmente y se utiliza aquí con permiso. Todos los derechos reservados.