El mundo de los datos ha cambiado en los últimos años. Conceptos como la computación en la nube, el internet de las cosas, la analítica avanzada, el análisis en tiempo real, etc. plantean retos de negocio, pero, sobre todo, tecnológicos.

Replantearnos la manera en la que procesamos los datos para satisfacer las nuevas necesidades de análisis para tipos de datos más grandes, más rápidos y más variables es un ejercicio necesario en 2018.

Las arquitecturas Lambda son una respuesta a estas nuevas necesidades, aunque no la única. Éstas arquitecturas plantean 3 bloques o capas diferentes:

  • Capa batch: Almacena y procesa datos masivos para incluirlos en nuestros análisis históricos o como “alimento” para modelos predictivos o de analítica avanzada.
  • Capa veloz (speed layer): Ingiere y procesa datos en tiempo cuasi-real para análisis operacional.
  • Capa de servicio: Unifica y presenta la información de las capas anteriores, permitiendo a los usuarios interpretar la información combinada, dando una visión total de la realidad del negocio.

Las arquitecturas Lambda también presentan retos, como la interconexión de las diferentes piezas necesarias para construirla, la necesidad de análisis a medio camino entre las capas “batch” y “speed” para completar la visión de negocio, el mantenimiento de lógica de negocio distribuida entre capas, etc.

En esta sesión repasaremos conceptos básicos, opciones de implementación y una demo completa donde implementaremos una arquitectura Lambda básica con elementos Azure como Azure Stream Analytics, Databricks, Power BI, Azure SQL Database, Analysis Services o Event Hubs.

A continuación, puedes ver la presentación de la charla ‘Arquitecturas lambda en Azure’ del SolidQ Summit 2018:

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like

UNPIVOT “SINCRONO”

Más de una vez nos hemos encontrado en la situación de tener que unpivotar una tabla, teniendo así que recurrir o bien al componente “Unpivot” de SSIS o incluso a tener que guardar los datos en tabla y realizar posteriormente una lectura de esta misma utilizando T-SQL para unpivotarla, con los problemas que ambas soluciones nos puedan conllevar con un gran volumen de datos.

Carga de Slowly Changing Dimensions y tabla de Hechos con atributos de Tipo 2 (Parte 2 de 3)

Este es el segundo post de la serie en el que explicaremos como cargar nuestra tabla de Hechos a partir de una dimensión con atributos de Tipo 2, usando dos maneras diferentes, una de ellas será mediante un componente “Look Up” con caché parcial y la otra opción será usando un componente “Merge Join” con un “Conditional Split” para seleccionar el registro que se encuentra en el rango de fechas correcto. Para mas información sobre qué es un atributo de Tipo 2 y sobre como cargar la dimensión que usaremos en este ejemplo puedes consultar el primer post de la serie.