Por si no lo habíais visto ya, aquí os dejo un video de Chanel9 que entrevista a Christian Kleinerman (Product Unit Manager for Madison Project) en el que explica el siguiente movimiento de Microsoft en grandes entornos DW utilizando computación paralela (MPP).
— Previous article
Conectando a SQL Server con nombre de servidor localhost
Next article —
Utilizando Service Broker como SQL Server Agent
You May Also Like
Restricción UNIQUE, NULLs e índices filtrados
- byVerne Team
- 28/01/2009
El estandar ANSI desde el SQL:92 y sucesivos dice que una restricción UNIQUE debe evitar valores no nulos…
SQL Server In-memory OLTP engine
- byVerne Team
- 26/11/2013
Con la cada vez mas cercana salida a RTM de la próxima versión de SQL Server 2014, aparece…
Cálculos de tiempo personalizados en SSAS Multidimensional
- byVerne Team
- 27/06/2018
Si para ciertas cuentas no queremos sumar en los cálculos temporales, sino hacer otra operación, por ejemplo, la media, podemos definir una columna (TBAverage) que para cada cuenta indique si suma (0) o hace la media (1). La usaremos en el cubo como una medida que comprobaremos para cada nivel para detectar si esa cuenta debe sumar o hacer la media para los cálculos temporales.
Consumiendo Facebook Marketing API desde SSIS
- byVerne Team
- 15/11/2018
Lo que nos proponemos, en resumen, es obtener datos de la Marketing API de Facebook e introducirlos en un flujo de datos de SSIS.
Bug en tablas dinámicas de Excel 2007
- byVerne Team
- 02/03/2009
Excel 2007 es una gran herramienta para explorar y analizar los datos almacenados en Analysis Services, sin embargo,…
Expresiones, parámetros y funciones en Azure Data Factory
- byVerne Team
- 07/01/2019
Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones.
Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.