Nuestro compañero Javier Loria acaba de publicar un WhitePaper en SQL Server Magazine sobre las mejores prácticas para planificar y encarar las políticas de backups de bases de datos.
— Previous article
Haciendo bien los Resguardos de las bases
Next article —
El lado oscuro de la inicialización instantánea de ficheros
You May Also Like
Efectos de DBCC FREEPROCCACHE, y DBCC DROPCLEANBUFFERS en SQL Server
- byVerne Team
- 30/07/2014
Cuando te encuentras optimizando tus sistemas de bases de datos, el escenario que se suele intentar optimizar es…
Claves naturales vs artificiales
- byVerne Team
- 24/10/2007
Siempre ha sido un tema de discusión en los foros el decidir usar una clave natural (por ejemplo,…
Expresiones, parámetros y funciones en Azure Data Factory
- byVerne Team
- 07/01/2019
Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones.
Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.
Hadoop HDFS. Almacenamiento y consulta [Parte 2]
- byVerne Team
- 07/06/2012
[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.22.3″][et_pb_row admin_label=”row” _builder_version=”3.22.3″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”][et_pb_column type=”4_4″ _builder_version=”3.0.47″][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”] ,Ya hemos…
Otra vuelta de tuerca: Infraestructura como código con Terraform
- byAntonio Llompart Freire
- 17/12/2020
En el siguiente post se presenta IaC (Infrastructure as Code) como paradigma con el que gestionamos infraestructuras (redes, máquinas virtuales, equilibradores de carga, etc.) a partir de un modelo descriptivo. En dicho post, se desarrolla la creación de recursos en Azure haciendo uso de Terraform como herramienta para IaC.
Procesamiento incremental de dimensiones II
- byVerne Team
- 27/01/2009
Como comentamos anteriormente, cuando se realiza un procesamiento incremental de una dimensión donde el nuevo conjunto de datos…