1
Descubre las 5 tendencias que lo cambiarán todo
2
…Es difícil hacer predicciones,
especialmente sobre el futuro”
Atribuido Niels Bohr
Publicación “Atomic Scientist”, 1971
3
Analistas: “predecir” el futuro analizando el presente
4
ML y IA para simplificar la
gestión de datos
5
ML y IA para toma de decisiones
▪ Prácticas de “ciencia de datos” son ya muy
comunes en grandes empresas para
facilitar la toma de decisiones de negocio y
estratégicas
▪ “Científico de datos” ha sido una de las
profesiones más demandadas en los
últimos años
▪ La ciencia de datos es ya una práctica
común para la optimización de uso de
recursos, gestión de cadenas de
suministro, detección de fraude,
mantenimiento predictivo, etc.
▪ Denodo ya es usado con frecuencia en este
contexto, de cara a simplificar y acelerar la
exploración y análisis de los datos de entrada
https://www.denodo.com/en/webinar/customer-keynote-data-virtualization-modernize-and-accelerate-
analytics-prologis
6
Inteligencia artificial en herramientas de gestión de datos
▪ Muchos productos de software han comenzado a
incorporar técnicas de Inteligencia Artificial para
automatizar toda clase de procesos internos
▪ Estas técnicas pueden automatizar acciones que de otra
manera requerirían la acción manual de un experto
• Pueden trabajar con volúmenes de datos muy grandes
• Reduce la carga de trabajo en perfiles de alto nivel
▪ Dentro de la gestión de datos, una de las primeras
aplicaciones con éxito de estas técnicas ha sido en la
identificación de datos sensibles o problemáticos
▪ Muchos productos empiezan a incorporar técnicas de
etiquetado automático, clasificaciones, revisiones de
seguridad, etc. basadas en ML
https://www.wsj.com/articles/how-data-management-helps-companies-deploy-
ai-11556530200
7
Aplicación a los productos de virtualización de datos
▪ Mejorar la exploración de datos
▪ Recomendar datos en base a tu perfil
▪ Simplificar el modelado
▪ Deducir asociaciones en base al uso en consultas previas
▪ Sugerencias de filtros comunes
▪ Mejorar el rendimientos
▪ Recomendaciones automáticas de optimizaciones
▪ Modificaciones de parámetros automáticas para eliminar
cuellos de botella
8
Bienvenidos a un mundo
híbrido
9
Encuesta sobre adopción de nube - 2019
• Más del 60% de las empresas ya tienen múltiples proyectos en la nube
• 25% tienen estrategias de “Cloud-First” o están en un estado de adopción avanzado
• Solamente el 4.5% no tienen planes para la nube a corto plazo
• Menos del 9% de los sistemas en el centro de datos desaparecen (Forrester estima 8%)
• Más del 46% tienen necesidad de integración nube/local y más del 35% usan múltiples
nubes (AWS, Azure, Google, etc.)
• Herramientas clave en la transición a la nube: herramientas de gestión de infraestructura
de nube (56%), virtualización de datos (49.5%), herramientas de gestión de “data lakes”
(48%)
Fuente: Denodo Cloud Survey 2019, N = 200.
https://www.denodo.com/en/document/whitepaper/denodo-global-cloud-survey-2019
10
Arquitectura lógica multi-nube
11
Las “Data Fabrics”
serán la norma
12
Una arquitectura de “Data Fabric” ofrece una vista
completa, unificada y confiable de los datos de negocio,
producida mediante la coordinación de fuentes de datos
de una manera automática, inteligente y segura que
puede procesar grandes volúmenes de datos”
https://www.forrester.com/report/Now+Tech+Big+Data+Fabric+Q2+2018/-/E-RES142691
13
¿Y no podemos tener un repositorio único de datos?
• Pérdida de capacidades: las capacidades de un sistema de “data lake” pueden ser
completamente diferentes de las que tenían las fuentes originales. Por ejemplo,
acceso rápido por clave primaria en una BBDD operacional
• Gran coste inicial: requiere la creación de los flujos de ingestión de datos desde todas
las fuentes de datos en la empresa
• Retorno de inversión dudoso. Muchos datos pueden no llegar a usarse nunca
• ¿Tiene sentido replicar el “Data Warehouse”?
• Alto coste de mantenimiento: no solo el coste inicial es alto, sino que hay que
mantener periódicamente los flujos siguiendo los cambios en las fuentes (nuevas
columnas, tablas, etc.)
• Riesgo de inconsistencias: los datos tienen que ser actualizados frecuentemente para
evitar inconsistencias entre fuente y “data lake”
COSTE
GOBERNANZA
¿No podríamos mover todos los datos de la empresa a un solo súper-repositorio de datos?
¿Es eso posible? ¿Es realista? La aparición de los “data lakes” ofrece sistemas baratos de
almacenamiento masivo, pero no están carentes de problemas
14
Gartner – Evolución de los entornos analíticos
This is a Second Major Cycle of Analytical Consolidation
Operational Application
Operational Application
Operational Application
IoT Data
Other NewData
Operational
Application
Operational
Application
Cube
Operational
Application
Cube
? Operational Application
Operational Application
Operational Application
IoT Data
Other NewData
1980s
Pre EDW
1990s
EDW
2010s2000s
Post EDW
Time
LDW
Operational
Application
Operational
Application
Operational
Application
Data
Warehouse
Data
Warehouse
Data
Lake
?
LDW
Data Warehouse
Data Lake
Marts
ODS
Staging/Ingest
Unified analysis
› Consolidated data
› "Collect the data"
› Single server, multiple nodes
› More analysis than any
one server can provide
©2018 Gartner, Inc.
Unified analysis
› Logically consolidated view of all data
› "Connect and collect"
› Multiple servers, of multiple nodes
› More analysis than any one system can provide
ID: 342254
Fragmented/
nonexistent analysis
› Multiple sources
› Multiple structured sources
Fragmented analysis
› "Collect the data" (Into
› different repositories)
› New data types,
› processing, requirements
› Uncoordinated views
“Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner April 2018
15
Gartner – Arquitecturas Lógicas
“Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner April 2018
DATA VIRTUALIZATION
16
Control por voz y
lenguajes naturales
17
Control por voz y lenguajes naturales
▪ Herramientas de control por voz ya son habituales en
nuestros hogares
▪ Siri, Alexa, Google Home pueden decirnos el tiempo que
va a hacer hoy, las noticias del día, encender y apagar
las luces, etc.
▪ Muchas herramientas de análisis de datos han
empezado a adoptar lenguajes naturales como modo de
consulta para usuarios no técnicos
▪ Con el progreso de estas tecnologías, usuarios de
negocio y ventas serán capaces de hacer consultas
complejas desde el auto o el teléfono sin necesidad de
utilizar una interfaz de usuario
18
Ejemplo: Logitech
El uso de herramientas de procesado de lenguaje natural permiten a los usuarios de negocio hacer preguntas a un
“chatbot” y recibir una respuesta en audio completamente humanizada.
La capa de virtualización permite a esta herramienta el acceso a datos en múltiples fuentes
“Los objetivos para este trimestre en
México son $200 millones de pesos, un
aumento del 15% respecto al trimestre
anterior”
“¿Cuál es el
objetivo de
ventas del
producto X en
México este
trimestre?”
19
Monetización de
datos y la economía
de APIs
20
Monetización de datos y la economía de APIs
▪ Las predicciones de negocio para el mercado de
aplicaciones de manejo de datos indican el mayor
crecimiento por segmento en los años venideros
▪ La comunicación entre aplicaciones suele
gestionarse mediante llamadas a APIs, y por tanto la
creación y gestión de APIs ha pasado a ser la piedra
angular de muchas iniciativas de transformación
digital
▪ Para muchos de los gigantes de internet, el acceso
por API ya suma mas que los acceso tradicionales
mediante sus sitios web
▪ Ya existe un mercado significativo de compañías
que venden datos como su principal modelo de
negocio
▪ Muchas compañías tradicionales han empezado
también a ofrecer datos como valor añadido a sus
ofertas
https://www.statista.com/statistics/255970/global-big-data-market-forecast-by-segment/
21
DrillingInfo: datos para el sector del petróleo mediante APIs
22
Uso de APIs para ofrecer una ventaja competitiva
23
Publicación de APIs con Denodo
▪ Las herramientas de virtualización de datos ofrecen acceso
mediante APIs a cualquier fuente de datos conectada, sin
necesidad de programación
▪ Incluye controles de autorización para filtrar datos
dependiendo del usuario y rol
▪ Permite añadir controles de ejecución más complejos como
prioridades, cuotas, (ej. 100 consultas/hora), etc.
▪ Denodo soporta una gran variedad de protocolos:
▪ GeoJSON (APIs geo-espaciales)
▪ OData 4
▪ GraphQL
▪ Autenticación mediante OAuth 2.0, SAML y Kerberos
▪ OpenAPI (Swagger) para auto documentación
Q&A
¡Gracias!
www.denodo.com info@denodo.com
© Copyright Denodo Technologies. All rights reserved
Unless otherwise specified, no part of this PDF file may be reproduced or utilized in any for or by any means, electronic or mechanical, including photocopying and microfilm,
without prior the written authorization from Denodo Technologies.

¿Cuál es el futuro de la estrategia de datos?

  • 1.
    1 Descubre las 5tendencias que lo cambiarán todo
  • 2.
    2 …Es difícil hacerpredicciones, especialmente sobre el futuro” Atribuido Niels Bohr Publicación “Atomic Scientist”, 1971
  • 3.
    3 Analistas: “predecir” elfuturo analizando el presente
  • 4.
    4 ML y IApara simplificar la gestión de datos
  • 5.
    5 ML y IApara toma de decisiones ▪ Prácticas de “ciencia de datos” son ya muy comunes en grandes empresas para facilitar la toma de decisiones de negocio y estratégicas ▪ “Científico de datos” ha sido una de las profesiones más demandadas en los últimos años ▪ La ciencia de datos es ya una práctica común para la optimización de uso de recursos, gestión de cadenas de suministro, detección de fraude, mantenimiento predictivo, etc. ▪ Denodo ya es usado con frecuencia en este contexto, de cara a simplificar y acelerar la exploración y análisis de los datos de entrada https://www.denodo.com/en/webinar/customer-keynote-data-virtualization-modernize-and-accelerate- analytics-prologis
  • 6.
    6 Inteligencia artificial enherramientas de gestión de datos ▪ Muchos productos de software han comenzado a incorporar técnicas de Inteligencia Artificial para automatizar toda clase de procesos internos ▪ Estas técnicas pueden automatizar acciones que de otra manera requerirían la acción manual de un experto • Pueden trabajar con volúmenes de datos muy grandes • Reduce la carga de trabajo en perfiles de alto nivel ▪ Dentro de la gestión de datos, una de las primeras aplicaciones con éxito de estas técnicas ha sido en la identificación de datos sensibles o problemáticos ▪ Muchos productos empiezan a incorporar técnicas de etiquetado automático, clasificaciones, revisiones de seguridad, etc. basadas en ML https://www.wsj.com/articles/how-data-management-helps-companies-deploy- ai-11556530200
  • 7.
    7 Aplicación a losproductos de virtualización de datos ▪ Mejorar la exploración de datos ▪ Recomendar datos en base a tu perfil ▪ Simplificar el modelado ▪ Deducir asociaciones en base al uso en consultas previas ▪ Sugerencias de filtros comunes ▪ Mejorar el rendimientos ▪ Recomendaciones automáticas de optimizaciones ▪ Modificaciones de parámetros automáticas para eliminar cuellos de botella
  • 8.
    8 Bienvenidos a unmundo híbrido
  • 9.
    9 Encuesta sobre adopciónde nube - 2019 • Más del 60% de las empresas ya tienen múltiples proyectos en la nube • 25% tienen estrategias de “Cloud-First” o están en un estado de adopción avanzado • Solamente el 4.5% no tienen planes para la nube a corto plazo • Menos del 9% de los sistemas en el centro de datos desaparecen (Forrester estima 8%) • Más del 46% tienen necesidad de integración nube/local y más del 35% usan múltiples nubes (AWS, Azure, Google, etc.) • Herramientas clave en la transición a la nube: herramientas de gestión de infraestructura de nube (56%), virtualización de datos (49.5%), herramientas de gestión de “data lakes” (48%) Fuente: Denodo Cloud Survey 2019, N = 200. https://www.denodo.com/en/document/whitepaper/denodo-global-cloud-survey-2019
  • 10.
  • 11.
  • 12.
    12 Una arquitectura de“Data Fabric” ofrece una vista completa, unificada y confiable de los datos de negocio, producida mediante la coordinación de fuentes de datos de una manera automática, inteligente y segura que puede procesar grandes volúmenes de datos” https://www.forrester.com/report/Now+Tech+Big+Data+Fabric+Q2+2018/-/E-RES142691
  • 13.
    13 ¿Y no podemostener un repositorio único de datos? • Pérdida de capacidades: las capacidades de un sistema de “data lake” pueden ser completamente diferentes de las que tenían las fuentes originales. Por ejemplo, acceso rápido por clave primaria en una BBDD operacional • Gran coste inicial: requiere la creación de los flujos de ingestión de datos desde todas las fuentes de datos en la empresa • Retorno de inversión dudoso. Muchos datos pueden no llegar a usarse nunca • ¿Tiene sentido replicar el “Data Warehouse”? • Alto coste de mantenimiento: no solo el coste inicial es alto, sino que hay que mantener periódicamente los flujos siguiendo los cambios en las fuentes (nuevas columnas, tablas, etc.) • Riesgo de inconsistencias: los datos tienen que ser actualizados frecuentemente para evitar inconsistencias entre fuente y “data lake” COSTE GOBERNANZA ¿No podríamos mover todos los datos de la empresa a un solo súper-repositorio de datos? ¿Es eso posible? ¿Es realista? La aparición de los “data lakes” ofrece sistemas baratos de almacenamiento masivo, pero no están carentes de problemas
  • 14.
    14 Gartner – Evoluciónde los entornos analíticos This is a Second Major Cycle of Analytical Consolidation Operational Application Operational Application Operational Application IoT Data Other NewData Operational Application Operational Application Cube Operational Application Cube ? Operational Application Operational Application Operational Application IoT Data Other NewData 1980s Pre EDW 1990s EDW 2010s2000s Post EDW Time LDW Operational Application Operational Application Operational Application Data Warehouse Data Warehouse Data Lake ? LDW Data Warehouse Data Lake Marts ODS Staging/Ingest Unified analysis › Consolidated data › "Collect the data" › Single server, multiple nodes › More analysis than any one server can provide ©2018 Gartner, Inc. Unified analysis › Logically consolidated view of all data › "Connect and collect" › Multiple servers, of multiple nodes › More analysis than any one system can provide ID: 342254 Fragmented/ nonexistent analysis › Multiple sources › Multiple structured sources Fragmented analysis › "Collect the data" (Into › different repositories) › New data types, › processing, requirements › Uncoordinated views “Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner April 2018
  • 15.
    15 Gartner – ArquitecturasLógicas “Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner April 2018 DATA VIRTUALIZATION
  • 16.
    16 Control por vozy lenguajes naturales
  • 17.
    17 Control por vozy lenguajes naturales ▪ Herramientas de control por voz ya son habituales en nuestros hogares ▪ Siri, Alexa, Google Home pueden decirnos el tiempo que va a hacer hoy, las noticias del día, encender y apagar las luces, etc. ▪ Muchas herramientas de análisis de datos han empezado a adoptar lenguajes naturales como modo de consulta para usuarios no técnicos ▪ Con el progreso de estas tecnologías, usuarios de negocio y ventas serán capaces de hacer consultas complejas desde el auto o el teléfono sin necesidad de utilizar una interfaz de usuario
  • 18.
    18 Ejemplo: Logitech El usode herramientas de procesado de lenguaje natural permiten a los usuarios de negocio hacer preguntas a un “chatbot” y recibir una respuesta en audio completamente humanizada. La capa de virtualización permite a esta herramienta el acceso a datos en múltiples fuentes “Los objetivos para este trimestre en México son $200 millones de pesos, un aumento del 15% respecto al trimestre anterior” “¿Cuál es el objetivo de ventas del producto X en México este trimestre?”
  • 19.
    19 Monetización de datos yla economía de APIs
  • 20.
    20 Monetización de datosy la economía de APIs ▪ Las predicciones de negocio para el mercado de aplicaciones de manejo de datos indican el mayor crecimiento por segmento en los años venideros ▪ La comunicación entre aplicaciones suele gestionarse mediante llamadas a APIs, y por tanto la creación y gestión de APIs ha pasado a ser la piedra angular de muchas iniciativas de transformación digital ▪ Para muchos de los gigantes de internet, el acceso por API ya suma mas que los acceso tradicionales mediante sus sitios web ▪ Ya existe un mercado significativo de compañías que venden datos como su principal modelo de negocio ▪ Muchas compañías tradicionales han empezado también a ofrecer datos como valor añadido a sus ofertas https://www.statista.com/statistics/255970/global-big-data-market-forecast-by-segment/
  • 21.
    21 DrillingInfo: datos parael sector del petróleo mediante APIs
  • 22.
    22 Uso de APIspara ofrecer una ventaja competitiva
  • 23.
    23 Publicación de APIscon Denodo ▪ Las herramientas de virtualización de datos ofrecen acceso mediante APIs a cualquier fuente de datos conectada, sin necesidad de programación ▪ Incluye controles de autorización para filtrar datos dependiendo del usuario y rol ▪ Permite añadir controles de ejecución más complejos como prioridades, cuotas, (ej. 100 consultas/hora), etc. ▪ Denodo soporta una gran variedad de protocolos: ▪ GeoJSON (APIs geo-espaciales) ▪ OData 4 ▪ GraphQL ▪ Autenticación mediante OAuth 2.0, SAML y Kerberos ▪ OpenAPI (Swagger) para auto documentación
  • 24.
  • 25.
    ¡Gracias! www.denodo.com [email protected] © CopyrightDenodo Technologies. All rights reserved Unless otherwise specified, no part of this PDF file may be reproduced or utilized in any for or by any means, electronic or mechanical, including photocopying and microfilm, without prior the written authorization from Denodo Technologies.