El primero de los webcasts de la serie que brindaremos varios colegas de Solid Quality Mentors para Microsoft México, será el 11 de Octubre, a mi cargo y titulado “Cuando todos los caminos conducen a SQL Server 2005, cuál seguir“.

Esta sesión dirigida a profesionales de TI y administradores de bases de datos describirá varias alternativas para realizar migraciones y actualizaciones hacia SQL Server 2005 desde versiones anteriores del motor relacional y desde Oracle. Se explicarán los procesos recomendados y las herramientas disponibles para asistir en la migración o en la actualización. Adicionalmente se transferirán conocimientos de cómo conducir un proceso de migración hacia SQL Server 2005, basado en experiencia obtenida en proyectos reales.

La versión grabada del evento está en esta dirección:

http://www.microsoft.com/mexico/empresas/webcast/webcast_11oct.aspx

La lista completa de eventos está publicada en este link de Eventos Microsoft.

Quienes deseen proponer preguntas o sugerir temas específicos a tratar, pueden enviarme un correo electrónico a gustavo (a) solidqualitylearning.com

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like

Hadoop HDFS. Almacenamiento y consulta [Parte 2]

[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.22.3″][et_pb_row admin_label=”row” _builder_version=”3.22.3″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”][et_pb_column type=”4_4″ _builder_version=”3.0.47″][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”] ,Ya hemos…
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.