SSIS como un servicio cluster independiente

Si se elige esta opción habrá que:

  • Crear un recurso de disco físico específico para almacenar la información que permitirá la emulación del cluster. O lo que es lo mismo, definir un sitio donde almacenar los archivos y los paquetes comunes de la configuración (si se decide almacenarlos en un disco físico en vez de una base de datos MSDB).
  • Identifique una dirección IP estática y nómbrelo para el servicio de SSIS. Este punto es válido si no se va a utilizar un grupo existente del cluster.

Una vez identificada la información anterior se puede proceder a la creación del grupo.

  1. Abrir la consola de administración del cluster en cualquiera de los nodos.
  2. Añadir una nueva aplicación
  3. Añadir los siguientes recursos:
    1. Un disco compartido.
    2. Un nombre de red.
    3. Una dirección IP estática.
    4. Un servicio genérico. Éste es el elemento más interesante porque definirá el servicio cluster de SSIS. Este recurso tendrá dependencias en la dirección IP y el disco compartido, si estos recursos no están disponibles, entonces el servicio no podrá activarse. Para configurar con éxito este recurso hay que definir el nombre y la clave del registro de Windows (verificar la localización de la clave del registro en su servidor) que se utilizará como se muestra en el Cuadro 5 y el Cuadro 6.
      Cómo instalar Integration Services en un entorno cluster (Capítulo 2).
      Cuadro 5 – Ventana de parámetros del servicio genérico

    Cómo instalar Integration Services en un entorno cluster (Capítulo 2).

    1. Ahora solo hay que activar el grupo de recursos. La consola tendrá un aspecto parecido a la que se muestra en el Cuadro 7.

      Cómo instalar Integration Services en un entorno cluster (Capítulo 2).

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.

Depurar expresiones DAX con DAX Studio

Como en todos los procesos de desarrollo, la depuración de código puede ser necesaria cuando no se consigue un resultado esperado y se desconoce el motivo. Lo mismo ocurre con las expresiones DAX y por ello, una forma fácil de depurar código en este lenguaje, es mediante la herramienta DAX Studio.