La siguiente consulta permite usando una conexión DAC (Dedicated Administrator Connection), obtener los cambios que ha sufrido la primera columna de una estadística y estimar cuando esta caduca.

SELECT obj.name

    , stat.name

—      StatCol.stats_column_id

    , COL_NAME(StatCol.object_id, StatCol.column_id) AS column_name

    , RowSet.rcrows

    , SetCol.rcmodified

FROM sys.objects Obj

INNER JOIN sys.stats AS Stat

    ON Stat.object_id = Obj.object_id

INNER JOIN sys.stats_columns AS StatCol

    ON Stat.object_id=StatCol.object_id

     AND Stat.stats_id = StatCol.stats_id

INNER JOIN sys.sysrowsets AS RowSet

    ON RowSet.idmajor=Stat.object_id

    AND RowSet.idminor=Stat.stats_id

INNER JOIN sys.sysrscols SetCol

    ON SetCol.rsid = RowSet.rowsetID

    AND SetCol.OrdKey=StatCol.stats_column_id

WHERE OBJ.is_ms_shipped=0

    AND StatCol.stats_column_id=1

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.