En nuestro ejemplo tenemos un cluster llamado CTest compuesto de dos nodos (Romeo y Hamlet). En este cluster ya tenemos instalado el servicio cluster para SQL Server con el nombre Horacio.

Una vez hayamos instalado SSIS en Hamlet podremos conectar con él pero no con Romeo (Cuadro 2). Como indicamos antes, necesitamos instalarlo como si fueran servidores independientes. Pero hay una situación que podría hacernos pensar que SSIS se instala automáticamente como servicio cluster. Cuando SSIS se ha instalado en el nodo activo del cluster (Hamlet en este caso), si se intenta conectar a SSIS en CTest u Horacio, se conectará con éxito (Cuadro 3), sin embargo, si se apaga Hamlet convirtiendo Romeo en el nodo activo, la conexión de SSIS se perderá (Cuadro 4). Esto significa que SSIS no está trabajando aún como un servicio cluster.

 

Cómo instalar Integration Services en un entorno cluster (Capítulo 1).
Cuadro 2 – Conectividad disponible solo en el nodo instalado
Cómo instalar Integration Services en un entorno cluster (Capítulo 1).
Cuadro 3 – SSIS aparece disponible en la instancia del cluster
Cómo instalar Integration Services en un entorno cluster (Capítulo 1).
Cuadro 4 – SSIS no aparece disponible en la instancia del cluster

 

Una vez se ha instalado SSIS en ambos servidores podemos proceder a incluirlo como parte del cluster.

La dificultad del siguiente paso es determinar en qué grupo de recursos del cluster se va a añadir el servicio SSIS. Si decidimos fijarlo en el mismo grupo de SQL Server, entonces el servicio de SSIS será parte del cluster de SQL Server, pero si se decide incluirlo como recurso en un grupo nuevo o existente (pero diferente del grupo donde reside SQL Server) entonces SSIS será tratado como servicio cluster independiente del cluster de SQL Server.

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like
Leer más

Aplicando seguridad a métricas SSAS

Aplicando seguridad a métricas SSAS. Para controlar la seguridad de los objetos, operaciones y datos de Analysis Services se utilizan roles (grupos de usuarios). Los usuarios se pueden añadir o quitar de los roles y para esos roles se determinan unos permisos.
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.