El siguiente código sirve cuando quiere implementarse un estándar de nombre Pascal case en una base de datos. El siguiente código ayuda a generar el comando de cambio de nombres de tablas y columnas, pero no completamente. Cuando el objeto tiene un nombre compuesto por más de una palabra, deberá una persona reemplazar con mayúsculas los inicios de cada palabra excepto de la primera.

SELECT ‘EXEC sp_rename ”’+TABLE_SCHEMA+‘.’+TABLE_NAME+”’ , ”’

        +UPPER(LEFT(TABLE_NAME,1))+LOWER(RIGHT(TABLE_NAME, LEN(TABLE_NAME)-1))

        +””

FROM INFORMATION_SCHEMA.TABLES

WHERE TABLES.TABLE_TYPE=‘BASE TABLE’

 

SELECT ‘EXEC sp_rename ”’+COLUMNS.TABLE_SCHEMA+‘.’+COLUMNS.TABLE_NAME+‘.’+COLUMN_NAME+”’ , ”’

        +UPPER(LEFT(COLUMN_NAME,1))+LOWER(RIGHT(COLUMN_NAME, LEN(COLUMN_NAME)-1))

        +”’, ”COLUMN”’

FROM INFORMATION_SCHEMA.COLUMNS

JOIN INFORMATION_SCHEMA.TABLES

ON COLUMNS.TABLE_SCHEMA=TABLES.TABLE_SCHEMA

    AND COLUMNS.TABLE_NAME=TABLES.TABLE_NAME

WHERE TABLES.TABLE_TYPE=‘BASE TABLE’

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.